L’informatique quantique à portée de clics ?

Lundi 6 mars, IBM annonçait sa volonté de commercialiser un ordinateur quantique de 50qubits dans les prochaines années… En quelques heures l’annonce avait fait le tour du monde. En réalité, la firme américaine ne commercialiserait pas un ordinateur quantique, mais seulement les services de cet ordinateur, l’IBM Q, via une plateforme en ligne. L’offre n’en est pas moins intéressante. En attendant, IBM a déjà lancé l’année dernière sa plateforme « Quantum experience » dédiée aux développeurs et programmeurs qui peuvent tester des requêtes ou des algorithmes quantiques sur une base de 5qubit. Un beau succès puisque IBM évalue à 40 000 le nombre d’utilisateurs qui auraient soumis 275000 requêtes. Et l’Américain annonce pour cette année le passage à une nouvelle interface et un kit de simulation de 20qubits. Une offre que le Français ATOS a lui aussi annoncé pour 2017 avec notamment l’ouverture d’une plateforme de simulation de 40qubits. Le Français d’ailleurs espère lui aussi pouvoir commercialiser un ordinateur quantique dans les années qui viennent. Mais, attention, pour IBM, comme pour ATOS, il ne s’agit pas d’intervenir sur le marché de la cellule quantique (équivalent de la puce de nos ordinateurs), mais vers l’intégration, le développement de logiciels, de systèmes de réseaux etc. Pour ce qui est de la partie physique, il faut se tourner pour l’instant vers les acteurs de la recherche, encore très fondamentale, mais dont les publications viennent régulièrement alimenter le fantasme de l’avènement d’un réel ordinateur quantique universel…

Le premier ordinateur (hangar) quantique dans deux ans ?

Dans un article paru dans Science Advances de février, des chercheurs de Ion Quantum Technology de l’université du Sussex (Royaume-Uni) détaillent les plans de construction d’un ordinateur quantique universel à grande échelle. Ils espèrent avoir construit leur prototype d’ici deux ans (à condition de trouver les fonds, de l’ordre de 120 millions d’euros). Leur ordinateur ferait la modeste taille d’un bâtiment (100 fois 100 m2) mais serait capable de décrypter le chiffrement 1024 bits en une dizaine de jours et du 2048 bits en 110 jours abaissable à 10 jours si le taux d’erreur était encore diminué. Les technologies et les matériaux proposés pour construire cet ordinateur sont aujourd’hui disponibles. L’originalité du travail de cette équipe réside dans l’utilisation de l’électricité et d’un champ de micro-ondes constituant un “piège ionique” pour manipuler les ions en lieu et place des lasers couramment utilisés actuellement. Sachant qu’il faut autant de lasers que d’opérations à faire, le passage à une puce de quelques millimètres carrées activables par des tensions électriques est un grand pas en avant. Cette nouvelle technologie, mise au point par des chercheurs britanniques en collaboration avec des chercheurs israéliens avait été décrite en détail dans un article de Physical Rewiew Letters en novembre 2016, et disponible sur ArXiv.

Les avancées des calculateurs quantiques

Plusieurs solutions de calculs ont vu le jour ces dernières années, utilisant en partie des phénomènes quantiques. Le plus célèbre est l’ordinateur canadien D-Wawe dont la troisième version vient de sortir. Le D-Wawe 2000Q (pour 2000qubits), vendu pour 15 millions de dollars à Temporal Defense Systems, une entreprise de cybersécurité, est annoncé comme étant 1000 fois plus rapide que son prédécesseur le D-Wawe2X sorti en 2015. Mais les performances de ces ordinateurs sont sujettes à débat et surtout la technologie utilisée ne constitue pas un réel ordinateur quantique universel, c’est-à-dire capable de résoudre n’importe quel problème. Ce sont en fait des supercalculateurs dédiés à un type de tâche, généralement des algorithmes d’optimisation. Sur ce créneau, deux équipes, l’une japonaise et l’autre américaine avaient présenté dans le numéro de Science du 20 octobre 2016 des machines capables de résoudre des problèmes de physique statistique basés sur le modèle d’Ising. Leurs machines sont des hybrides alliant une partie quantique appliquée à des photons et une partie microprocesseurs classiques.

Par Sophie Hoguin

Le cyber-espionnage ciblé façon CIA

Les éditeurs de 1984, le célèbre roman de George Orwell publié en 1949, peuvent remercier Donald Trump et maintenant… WikiLeaks. Depuis l’élection du premier et les dernières publications du site de Julien Assange, les ventes de ce livre s’envolent ! Fin janvier, l’éditeur américain Penguin a dû réimprimer en urgence environ 75 000 copies du livre.

Pourquoi un tel intérêt pour cet ouvrage sur Big Brother ? Mis en ligne par WikiLeaks le 7 mars, le dossier « Vault 7 » confirme la puissance de la Central Intelligence Agency (CIA). Big Brother n’appartient plus à la science-fiction. Ce dossier, comprenant 8 761 documents datés de 2013 à 2016, détaille certains programmes d’espionnage électronique de l’agence. Ils permettent de pirater « des serveurs informatiques, des ordinateurs, des smartphones et même des téléviseurs, qui peuvent être transformés en micros dissimulés » avertit le quotidien USA Today.

Tout peut être piraté et donc espionné par l’armée des ombres de la CIA. Selon WikiLeaks, son service de piratage compterait environ 5 000 membres. Mais contrairement aux programmes secrets d’espionnage de masse de la National Security Agency (NSA), ceux de la CIA (avec la complicité du MI5, son équivalent britannique) semblent se concentrer sur l’espionnage ciblé.

Par exemple, les téléviseurs connectés de la marque Samsung peuvent être infiltrés par un code malveillant nommé « Weeping Angel ». Fonctionnant quand l’écran est, en apparence, éteint, il peut enregistrer le son environnant et le transmettre à un serveur.  L’agence a aussi développé des logiciels-espions destinés à l’iOS d’Apple et à Android de Google. Seul bémol, l’installation du programme malveillant nécessiterait d’avoir un accès physique au téléphone, et de pouvoir le connecter à un Mac. Pas vraiment un obstacle pour la CIA.

La lecture des documents indique que le contournement des antivirus et l’accès à un ordinateur non raccordé à un réseau informatique ne sont pas non plus des défis insurmontables. Différents chercheurs ont montré comment procéder et il y a quelques années, un concours de hackers en France avait démontré qu’il était possible de désactiver des antivirus très connus en quelques minutes !

Sans surprise, la CIA a publié un communiqué dans lequel elle décline tout commentaire sur les « prétendus documents ». Elle précise n’être pas en mesure, à ce stade, de certifier l’authenticité des documents ni de savoir « si les outils décrits ont été utilisés aux États-Unis – ou même utilisés tout court ». Microsoft et Google ont rapidement fait savoir qu’ils se pencheraient sur le rapport. De son côté, Apple a précisé que de « nombreuses » failles ont été corrigées et que ses appareils sont parfaitement sécurisés aujourd’hui…

Dans ce contexte, de nombreuses personnes pourraient se tourner vers Qubes, un système d’exploitation sécurisé…

Par Philippe Richard

Risques : la norme volontaire ISO 31000 entre en enquête publique

À l’heure où l’actualité bat son plein sur les responsabilités des organisations en termes de risques, l’ISO 31000 débarque sur le devant de la scène avec un projet de norme mis à jour, et qui entre aujourd’hui en enquête publique.

Les prémices d’une révision ont été évoquées dès 2013, mais c’est à Paris en mars 2015 que la décision d’actualiser le texte a été prise. Ce chantier a impliqué plus de soixante pays dont la France. Quels changements apporter en priorité ? Quels retours « utilisateurs » prendre en compte ? Pour répondre à ces questions, les experts internationaux ont étudié plus de 1330 observations exprimées par les organisations utilisatrices sur la dernière version du projet (CD3).

Plus courte et plus précise

Plus de détails et d’exemples précis, moins de jargon, des concepts simplifiés et facilement applicables… Voici quelques-unes des améliorations vers lesquelles devrait tendre une ISO 31000 réécrite, d’après les remarques collectées en amont de l’enquête publique.

« Près de deux ans de travail ont été nécessaires pour livrer un projet de norme révisé », souligne Rodolphe Civet, chef de projet chez AFNOR Normalisation. Terminologie, processus, principes et annexes, l’ensemble du contenu de la norme a été revu pour le rendre plus simple et plus concret ». Et cela, au regard notamment des normes de management et de gouvernance intégrant « l’approche risque » et soulignant la finalité du management des risques : l’aide à la décision et l’atteinte des objectifs (qualité, environnementaux, devoir de vigilance, etc…)

Au final, le projet de norme fait place à l’essentiel. Ainsi, le chapitre des termes et des définitions est réduit aux concepts fondamentaux, des exemples propres à certains utilisateurs comme les multinationales sont ajoutés et des détails ainsi que des recommandations sur la conduite des processus sont intégrés.

« Ce travail de révision a été complexe. Il fallait répondre à certains besoins parfois sectoriels des utilisateurs tout en ne perdant pas de vue que cette norme doit s’adresser à tous les types d’organisations », se félicite Rodolphe Civet.

Mais ces nouvelles orientations demandent à être confirmées. C’est ainsi que depuis le 22 février 2016, le projet de norme est à l’enquête publique. Tout un chacun est invité à découvrir ce projet et à le commenter, gratuitement et en ligne. Si vous êtes un fervent utilisateur de ce texte phare, c’est le moment ou jamais ! Gardons à l’esprit que les normes volontaires ne « tombent pas d’en haut », elles sont faites par et pour les acteurs économiques.

Une nouvelle ISO 31000 pour 2018

La commission de normalisation AFNOR « management des risques » se réunira en avril prochain pour étudier les commentaires recueillis. « Les membres de la commission prépareront également la prochaine réunion internationale qui se tiendra du 10 au 14 juillet2017 à San Francisco afin d’établir une version finale de la norme, dont la publication est attendue pour 2018 », conclut Rodolphe Civet.

Source : afnor

Tout savoir sur les brevets français en un clic

Issu d’un projet conjoint entre l’Institut national de la propriété intellectuelle (INPI) et le ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche, cet atlas des brevets a pour objectif principal de « contribuer à la compréhension de l’activité de recherche et d’innovation en France au travers d’une analyse territoriale du nombre de brevets ». L’atlas répond aussi au besoin grandissant de demande d’information de différents décideurs politiques et économiques.

En parallèle de la mise en ligne de données brutes en open data, il présente l’avantage de mettre à disposition de l’utilisateur final des informations prêtes à l’emploi.

Interactif et tous supports

Prévu pour s’adapter à tous les supports internet (mobile, tablette, ordinateurs), cet atlas a été construit à partir de données retraitées, fiables et historisées sur la période 2003-2015 et comprend les demandes de brevets issus de la voie nationale ou européenne. Il inclut des nomenclatures-clés de la technologie et répond à des questions simples : Où ? Quoi ? Qui ? Combien ? Les graphiques et les cartes proposés sont interactifs (on peut en changer certains paramètres comme le choix du secteur privé ou public, l’origine française ou européenne etc. d’un clic). Une actualisation est prévue tous les ans et une version papier sous la forme d’une publication brochée doit être éditée plus tard dans l’année. Elle devrait intégrer quelques enrichissements.

Sophie Hoguin

Recréer des surfaces superhydrophobes et antibuée en s’inspirant de la nature

Une goutte d’eau posée sur une surface couverte de microrugosités hydrophobes devient extrêmement mobile. À l’image d’un fakir qui ne touche que les pointes de son tapis de clous, le liquide ne repose alors que sur les sommets des rugosités. L’eau est donc principalement sur coussin d’air, ce qui la rend ultra-mobile. De nombreuses espèces de plantes ont de telles propriétés superhydrophobes. Ces surfaces sont autonettoyantes puisque les gouttes qui les dévalent emportent avec elles poussières et salissures.

Les surfaces animales ne sont pas en reste : qu’il s’agisse de la faible réflectance des yeux des papillons de nuit, de la carapace oléophobe des collemboles ou encore des pattes ultra-adhésives des cafards, les nano-textures qui recouvrent les corps de certains insectes leur confèrent des propriétés étonnantes, essentielles à leur survie.

Ainsi, on a suggéré que les yeux des moustiques et les ailes des cigales pourraient avoir des propriétés anti-buée, ce à quoi Timothée Mouterde et ses collaborateurs se sont intéressés. Ces recherches ont nécessité l’utilisation de surfaces modèles, conçues pour imiter les surfaces existant dans la nature, afin 2/3 d’étudier l’importance que revêtent la taille et la forme des nano-structures dans les propriétés antibuée.

Il s’avère que la plupart des surfaces superhydrophobes de rugosités micromé- triques, exposées à la buée ou à une atmosphère humide, cessent de repousser l’eau. Les gouttes de buée apparaissent et se développent dans les anfractuosités de la structure, mettant à mal son caractère anti-eau. Des gouttes posées sur une surface ainsi infusée d’eau y adhèrent fortement : la surface adopte alors un comportement hydrophile. Les chercheurs ont ensuite réduit les structures à une taille dix fois inférieure au micromètre. Ils ont ainsi montré et quantifié le fait qu’en réduisant l’échelle des rugosités, l’adhésion des gouttes due à la buée diminuait aussi, à cause du compartimentage très fin de l’eau alors engendré.

Les ailes de cigale permettent d’aller plus loin encore. Elles sont couvertes de cônes nanométriques jointifs, et leur caractère antibuée est spectaculaire puisque deux gouttes de buée qui fusionnent parviennent alors à s’éjecter de la surface. En s’inspirant de cet exemple naturel, Timothée Mouterde et ses collaborateurs ont montré que la forme conique des structures est primordiale et permet d’obtenir l’éjection de la quasi-totalité des gouttes de buée et ce, même pour des gouttes de taille micrométrique : certes, de la buée se forme, mais elle s’auto-expulse en même temps qu’elle se forme.

Dans cette étude, les chercheurs se sont donc inspirés de la nature afin d’observer comment les propriétés antibuée apparaissent quand on réduit la taille des textures, et comment elles se trouvent considérablement amplifiées par un changement de forme. L’utilisation de nano-cônes jointifs permet de rediriger la buée vers le haut de la surface et de dé-piéger l’eau, même à très petite échelle. Ces recherches donnent lieu à un grand nombre d’applications : Thales qui co-porte le projet, y trouve ainsi un intérêt pour la réalisation de fenêtres optiques hydrophobes, antireflet et antibuée.

Diplômé de l’École polytechnique, Timothée Mouterde a rejoint
le Laboratoire d’hydrodynamique (École polytechnique / CNRS)
en 2013. Il y réalise depuis son doctorat, soutenu par la Direction
générale de l’armement et Thales. Ses recherches portent sur les nanotextures bifonctions antireflets superhydrophobes et l’influence de la réduction d’échelle sur les effets superhydrophobes, sous la direction de David Quéré et Christophe Clanet, directeurs de recherche du CNRS.

Source : cnrs

Présidentielle: des candidats timides sur l’agriculture

À l’instar des années précédentes, 2017 s’annonce sous de mauvais hospices pour les agriculteurs. Avec une retraite moyenne de 831€ et un salaire horaire à 12,31€, le secteur ne s’en sort plus. Après le 54ème Salon de l’Agriculture, les agriculteurs n’ont globalement pas été conquis par les candidats à la présidentielle. « Si demain nous voulons des campagnes vivantes, des paysages diversifiés, une alimentation de qualité, il n’y a pas d’autres solutions que de maintenir des agriculteurs nombreux sur les territoires » avertit Jérémy Decerle, président du syndicat Jeunes Agriculteurs.

« Pas un candidat n’est venu nous dire : « Voilà ma vision pour l’agriculture, la production, l’exportation, la fiscalité« . Les agriculteurs ont envie de vivre de leur métier et la question des revenus n’a pas été abordée » regrette le président du Salon, . Un mécontentement partagé par Ségolène Royal. La ministre de l’Environnement a souhaité rappeler aux candidats que « la question agricole doit être intégrée à la question globale de la société, parce que l’alimentation, c’est un sujet crucial ».

Des produits plus accessibles et plus bio

Les candidats à la présidentielle ont tout de même fait des propositions discrètes au monde agricole. Marine Le Pen, Emmanuel Macron, François Fillon et Benoît Hamon se rejoignent sur l’idée qu’il faudrait alléger les charges et redéfinir les prix. « Il faudrait renégocier les prix de vente avec la grande distribution » suggérait Hamon au Salon de l’Agriculture. « Les prix agricoles sont la clé de voûte de la rémunération du travail paysan, rappelle Jean-Luc Mélenchon, dans des marchés dérégulés, la majorité des paysans ne vivront jamais dignement de leur métier ». Pour y remédier, Marine Le Pen propose par exemple une TVA incitative à 0% sur les produits bio pour attirer les consommateurs.

Macron, Mélenchon et Hamon prévoient d’aider et de récompenser financièrement les exploitations qui se convertiraient au bio. Avec des programmes d’investissements de 5 milliards d’euros sur le quinquennat, Hamon et Macron comptent investir dans une agriculture plus propre. Le candidat PS compte poursuivre le travail de Stéphane Le Foll, actuel ministre de l’agriculture, sur « l’agro-écologie ». Ils projettent aussi d’aider les jeunes à s’installer notamment grâce à des prêts plus accessibles et des exonérations de charges. Benoît Hamon souhaite par ailleurs développer les circuits courts, tout comme François Fillon.

Les perturbateurs endocriniens se sont également invités dans le débat. Alors que l’Union européenne peine à définir clairement leur nature, Benoît Hamon et Jean-Luc Mélenchon veulent voir leur part diminuée. Ils souhaitent aussi limiter les pesticides et interdire les OGM. Marine Le Pen les rejoint sur ce dernier point. A l’inverse, François Fillon ne souhaite pas lutter contre les OGM et envisagerait de « supprimer le principe de précaution de la Constitution ».

L’agriculture chahutée entre Union européenne et patriotisme

Malgré les 9,1 milliards d’euros versés l’an dernier aux agriculteurs français, la PAC fait grincer des dents. Marine Le Pen souhaite passer de la Politique Agricole Commune à la Politique Agricole Française (PAF). « On a toujours mieux commercé quand il y n’avait pas l’Union européenne » pense-t-elle. Son idée est d’opter pour le « patriotisme économique et la francisation des aides ». Enfin, la candidate du Front National veut interdire toute importation de produits étrangers qui ne répondraient pas aux normes françaises, dans une logique protectionniste.

Le repli souhaité par Marine Le Pen fait réagir jusqu’à Bruxelles. Le commissaire européen à l’Agriculture, Phil Hogan, a dénoncé cette idée comme étant « mauvaise ».  Pour lui, la candidate frontiste « adopte la position britannique de faire peur aux agriculteurs et de leur faire croire que tout ira bien si on se débarrasse de l’Europe ». Il rappelle les difficultés auxquelles seront confrontés les agriculteurs britanniques après 2020. Suite au Brexit, ils ne toucheront plus d’aides de la PAC à cette date. Néanmoins, Hogan affirme que l’Europe doit réformer et simplifier la PAC.

En affirmant vouloir que « le budget de la PAC soit préservé, mais que son fonctionnement soit rénové », Emmanuel Macron se place sur la même ligne que Phil Hogan. François Fillon surenchérit en disant que « l’agriculture est une priorité nationale et européenne ». Pour Benoît Hamon, il n’est pas question d’abandonner la PAC, mais simplement de la rendre plus « verte ». Du côté des agriculteurs, se passer de l’Union européenne semble difficile. « Au niveau agricole, malheureusement, l’Europe on en a besoin », ont répondu deux producteurs à Marine Le Pen.

Par Matthieu Combe, journaliste scientifique

Les entreprises misent sur l’IA pour doper leurs ventes

Popularisée depuis quelques années par des applications grand public de reconnaissance vocale dans les smartphones, l’IA est en train de bouleverser les méthodes de travail et les services « métiers » des entreprises. La norme ISO 2382-28 définit l’intelligence artificielle comme la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage ». Pour les professionnels, l’IA c’est un peu le Graal de l’analyse de données. Selon le cabinet Gartner, elle sera embarquée dans 50 % des applications analytiques d’ici trois à cinq ans.

Cette intégration massive de l’IA s’explique par le fait qu’elle génère déjà de nombreux bénéfices pour les entreprises. Dans la santé, Watson d’IBM est utilisé pour étudier à la loupe toutes les publications scientifiques ayant trait à un domaine particulier de recherche. Cette recherche très fine permet de repérer de nouvelles propriétés.

Plus étonnant, une société à Hong Kong, Deep knowledge venture (DKV), spécialisée dans le capital-risque, possède par exemple une intelligence artificielle à son conseil d’administration. Nommée Vital (Validating Investment Tool for Advancing Life sciences), elle fait des recommandations en matière d’investissement et dispose également un droit de vote !

Plus forts que les experts !

En matière de sécurité informatique, l’IA pourrait seconder les experts dans la détection des fraudes. Des développements sont en cours pour créer des algorithmes qui identifieront les menaces que les cerveaux humains et les mécanismes de protection traditionnels échouent à reconnaître. « Nous nous dirigeons vers des systèmes plus autonomes et plus réactifs qui sont capables de se protéger face aux attaques. Mais cela reste encore compliqué. L’intelligence artificielle (sur laquelle j’ai fait ma thèse) est l’une des pistes envisagées pour mieux traiter un certain nombre de menaces », explique Hervé Debar, Directeur du département RST à Télécom SudParis.

Autant d’usages reposant sur le « machine learning ».  Il s’agit d’un ensemble de méthodes permettant à une machine (au sens large) d’apprendre à réaliser des tâches sans avoir été programmée explicitement pour cela. La machine utilise des algorithmes génériques applicables à une multitude d’opérations. Elle agit de manière autonome, est capable de comprendre et d’appliquer des algorithmes pour automatiser des process. En mixant notamment des données « chaudes » (provenant des objets connectés) et d’autres dites « froides » (typiquement des référentiels enrichissant les informations), le « machine learning » peut réaliser les analyses avancées.

La responsabilité des « bots »

Cette capacité d’auto-apprentissage des machines, ou des chatbots (assistants virtuels), permet d’apporter des réponses plus efficaces, plus fiables et plus personnalisées. Les entreprises bénéficient par exemple d’une meilleure connaissance client. Elles peuvent aussi s’appuyer sur des moteurs de recommandation de produits pour personnaliser leurs offres sur des critères beaucoup plus élaborés que les historiques d’achats.

Cependant, les « bots » posent des questions éthiques, relatives notamment à leur statut juridique, à leur responsabilité, à la sécurité de leur fonctionnement ou à la pertinence des choix qu’ils effectuent.

Philippe Richard

Des matériaux autoréparables pour l’aéronautique prêts dans 5 ans ?

Le projet européen Hipocrates, qui s’est achevé fin 2016, a réalisé un pas supplémentaire vers l’utilisation de composites autoréparables à base d’époxy. Les chercheurs du consortium, porté par l’institut Tecnalia à St Sébastien en Espagne, ont choisi ce type de résine pour leurs tests car elles sont largement utilisées dans l’industrie aéronautique et permettraient donc une incorporation facile de matériaux autoréparables dans la production. L’enjeu pour ce secteur est important car il permettrait d’augmenter la durée de vie des composants et de diminuer très nettement les coûts de maintenance.

Les trois grandes voies de matériaux autoréparables

Pour mettre au point ses produits, le projet Hipocrates s’est appuyé sur les recherches déjà existantes en matière de matériaux autoréparables. Faisant l’objet d’une intense recherche depuis le début des années 2000, on dénombre trois grands types de polymères autoréparables: ceux qui s’appuient sur la structure moléculaire du matériau et sur la réversibilité des liaisons supramoléculaires (voir ce document pour en savoir plus), ceux qui utilisent des microcapsules contenant les substances nécessaires à la réparation et ceux, qui s’inspirent de la deuxième en intégrant dans le matériau des microcanaux stockant le matériel nécessaire à la réparation. Le contenu des microcapsules ou des microcanaux est libéré au moment du choc et c’est donc le choc lui-même qui initie la réparation, alors que pour le premier type, il est nécessaire d’initier la réaction par un stimulus supplémentaire (chaleur, rayonnement ou induction électrique).

Des résultats encourageants

Le projets Hipocrates a testé des matériaux utilisant la méthode des microcapsules et celle des liaisons supramoléculaires. Pour le premier type de matériau, les microcapsules intégraient à la fois les agents de réparation et le catalyseur ; pour le deuxième type, Hipocrates a synthétisé deux polymères différents compatibles avec des résines époxy. Les matériaux fabriqués ont été testés sur des démonstrateurs reproduisant les impacts à grande vitesse subis par les avions. Ils ont ensuite été soumis à des forces de compression pour voir s’ils montraient des signes de délaminage ou de rupture et ont été analysés par ultrasons pour étudier plus précisément les dégâts dans la structure du matériau. Il en est ressorti que le matériau intégrant des microcapsules présentait une meilleure protection contre l’impact initial, mais que tous les matériaux testés, après réparation, montraient une élévation de 5 à 10% de la résistance aux forces de compression. Les matériaux s’avèrent donc plus résistants aux impacts après réparation qu’avant. D’autres tests sont prévus, et l’équipe espère que ce type de matériaux pourra intégrer le secteur aéronautique dans les cinq ans.

Sophie Hoguin

Stockage de l’énergie: l’avènement des batteries à flux organique non toxiques

Les intenses recherches actuelles pour trouver des moyens rentables de stocker l’énergie des sources renouvelables intermittentes comme le solaire et l’éolien commencent à porter leurs fruits. Ce qui devrait permettre à court terme de rendre ces énergies compétitives, fiables et diffusables plus facilement dans le monde entier.

Se passer de solvant corrosif

Plusieurs obstacles subsistent pour stocker de manière rentable et efficace l’énergie sur des réseaux, c’est-à-dire là où il n’y a pas de contrainte d’espace comme c’est le cas sur une voiture ou un téléphone portable. Les solutions proposées aujourd’hui sont des grands réservoirs externes stockant des électrolytes, généralement métalliques ou organométalliques dans des solvants extrêmement acides. Ce qui pose des problèmes de coûts et de sécurité : les matériaux et composants sont très techniques et donc chers, leur durablité n’est pas toujours garantie car ils doivent résister à une extême acidité et ils présentent des dangers pour l’homme et l’environnement lors de la manipulation ou en cas de fuite. Les scientifiques cherchent donc des composés hydrosolubles pour pouvoir utiliser un solvant aqueux à pH neutre ou quasi-neutre. C’est ce qu’ont réussi la start-up rennaise Kemwatt et une équipe de l’université de Harvard.

Un prototype de 10kW

Kemwatt présentait son prototype industriel de batterie à flux organique en septembre 2016. Annonçant qu’il avait réussi à mettre au point un système basé sur une solvant aqueux à pH très légèrement alcalin et des électrolytes organiques tels que les quinones, donc biodégradables. Son prototype d’une capacité de stockage de 10kwh est en cours de tests avec différents partenaires. Kemwatt espère mettre au point le produit final dans les mois qui viennent pour pouvoir initier les ventes le plus tôt possible.

L’utilisation de molécules organiques comme les quinones avait été révélé en 2014 par une équipe de Harvard dont le laboratoire vient de présenter une autre solution dans un article publié dans l’ACS Energy Letters début février.

Rendre soluble le ferrocène

Avec, eux aussi, plusieurs demandes de brevets à la clé, les scientifiques de l’université de Harvard ont réussi à modifier les structures de deux électrolytes courants pour les rendre efficaces et solubles dans l’eau. D’une part, ils ont amélioré la durabilité du violagène, composé organique hydrosoluble mais qui se dégrade rapidement et d’autre part ils ont réussi à rendre le ferrocène hydrosoluble alors qu’il était jusqu’ici utilisé avec des solvants inflammables.

Au final, ils annoncent que leur batterie est non toxique mais aussi de très longue durée: elle perdrait 1% de sa capacité de stockage tous les 1000 cycles de charge/décharge. Ce qui, en utilisation classique sur un réseau électrique, pourrait la faire durer 10 ans. Les chercheurs travaillent désormais avec plusieurs entreprises pour mettre au point des prototypes industriels.

Sophie Hoguin

Naïo Technologies robotise le désherbage !

Le robot autonome Oz équipe déjà plus de 50 maraîchers. Il permet de désherber un hectare par jour, grâce à une autonomie comprise entre 3 et 10 heures. Il équipe principalement les petits maraîchers dont la production est diversifiée. Le tout nouveau robot enjambeur Dino s’applique au maraîchage industriel spécialisé. Il désherbe jusqu’à 4 hectares par jour, avec une autonomie comprise entre 8 et 10 heures. 10 commandes sont déjà passées pour 2017. « Nos robots ont une large plage d’autonomie, qui dépend notamment du pack batterie dont ils sont équipés et du type de sol sur lesquels ils évoluent », confie  Julien Laffont, responsable du développement à l’international de Naïo Technologies. Côté prix, Oz est vendu entre 21.000 et 25.000 euros. Pour Dino, il faudra en débourser entre 75.000 et 100.000.

Naïo Technologies développe actuellement deux robots particuliers pour désherber les vignes. Ils seront lancés dès 2018. « On a senti une attente importante des viticulteurs pour avoir des alternatives aux herbicides chimiques, explique Julien Laffont. C’est pourquoi on s’est attaché à développer deux solutions pour les vignes ».  Il y a d’un côté Ted pour les vignes larges. Doté d’une autonomie jusqu’à 10h, il peut désherber jusqu’à 6 hectares par jour. Pour les vignes étroites, Bob peut s’occuper de 3 hectares par jour. Son autonomie pourrait atteindre 8 heure. Le prix de ces deux robots n’est pas encore fixé.

Bannir les herbicides

Les clients sont principalement des agriculteurs en bio ou des agriculteurs conventionnels cherchant à réduire les herbicides chimiques. «Nos solutions permettent de réduire la pénibilité du désherbage et de gagner du temps », explique Julien Laffont. Le temps de retour sur investissement dépend évidemment de la quantité d’intrants utilisés au départ et de la taille de l’exploitation. Chaque agriculteur peut le calculer facilement en fonction de ses dépenses.

En Dordogne, l’exploitation des énisson utilise le robot Oz sur ses deux hectares de pivoines. L’établissement est ainsi passé de trois applications d’herbicides en plein par année à un passage localisé. Oz serait amorti en 5 ans dans ce cas précis. « Ce client a réussi une baisse de l’utilisation des herbicides de 94%, se félicite le salarié de l’entreprise. Les traitements ne se font plus que là où le robot a du mal à aller ». «Notre objectif est biensûr d’atteindre une baisse de 100% avec les futurs développements », complète-t-il.

Des robots made in France

Si le moteur est construit en Italie, l’ensemble des autres fournisseurs sont basés dans la région Occitanie. L’assemblage du robot est fait par Naïo Technologies à Toulouse. La start-up fournit ses robots en Europe. Notamment, en Suisse, au Danemark, en Belgique, en Angleterre et en Irlande.

Matthieu Combe, journaliste du webzine Natura-sciences.com

Les télécoms à la recherche d’un numéro gagnant

Comme tous les ans, Barcelone a été du 27 février au 2 mars la capitale mondiale de la téléphonie mobile. La grand-messe du Mobile World Congress a rassemblé fabricants, équipementiers, opérateurs et développeurs d’applications et de services. Mais tous ces acteurs ont reconnu que le marché s’essoufflait : en 2015, la croissance atteignait 10 %. L’an passé, elle a plafonné à 2,3 % d’après IDC.

Pour le monde des télécoms, il devient urgent de trouver un nouveau numéro gagnant, celui qui va booster les ventes pour quelques années. Certains misent sur le vintage comme HDM qui exploite la licence Nokia pour ressentir une version customisée du mythique 3310. Lancé en 2000, il s’était vendu à 126 millions d’exemplaires.

Mais le coup d’accélérateur devrait plutôt venir d’une augmentation très forte des débits avec la 5G. Ils seraient, en théorie, supérieurs à 10 gigabits par seconde. Autres atouts majeurs : plus de capacités et une latence très basse.

Officiellement, sa commercialisation est prévue pour 2020. Mais vingt-quatre entreprises (dont Qualcomm et Intel) se sont regroupées pour demander une accélération. Ils souhaiteraient une mise en œuvre dès 2019 et la publication des normes (les fréquences ne sont pas encore retenues) par le 3GPP à la fin de cette année.

Assistants virtuels

En attendant, les Américains mettent la pression. Verizon va prochainement lancer, au premier semestre, un test pilote dans onze villes des États-Unis. Autre initiative américaine, Intel a présenté une BMW dont un aileron du toit intègre une antenne 5G.

L’intelligence artificielle est également en pole position pour doper ce marché. Pour l’instant, son usage le plus connu est celui de la reconnaissance vocale sur smartphone. Mais à Barcelone, la conférence « Intelligence artificielle : chatbots et assistants virtuels » a montré comme l’IA pouvait modifier la relation client et les applications de messagerie, à l’instar de Whatsapp, Line, WeChat… Avec leurs 4 milliards d’utilisateurs actifs par mois (en septembre 2016), ces applications se diversifient vers davantage de commerce conversationnel.

Les objets connectés ont également étaient très présents. Orange, aux côtés de huit autres opérateurs, a confirmé son engagement en faveur de l’évolution de la 4G pour les objets connectés : la technologie LTE-M. Ce positionnement ne signifie pas pour autant l’abandon de LoRa pour lequel il a déployé un réseau d’antennes en 2016. « LoRa est davantage orienté B2B, avec sa capacité « deep indoor » », explique Frédéric Dutronc, responsable produit Smart Home et IoT chez Orange. Elle sera donc privilégiée pour connecter des compteurs d’eau et d’électricité, tandis que le LTE-M conviendra mieux pour la connexion des compteurs de gaz, où une qualité de service (au sens télécom du terme) et une faible latence sont requises, avec davantage de contrôle.

Reste une absence remarquée. Pas celle d’Apple, qui ne présente jamais les nouvelles versions de son iPhone sur un salon, mais celle de Microsoft. Plus aucun constructeur ne propose de smartphones sous Windows Phone, son système d’exploitation…

Philippe Richard

Le numérique dans l’agriculture : pour une meilleure compétitivité

La Ferme Digitale a vu le jour en janvier 2016 grâce au rapprochement de 5 start-up. Un an plus tard, elle en compte 13.  « Notre promesse est simple : promouvoir les solutions digitales », résume Paolin Pascot, président de la Ferme Digitale. L’association travaille ainsi sur deux plans. Elle rapproche les consommateurs et les producteurs, via La Ruche qui dit Oui et monpotager.com. Mais surtout, elle vise à faciliter le travail des agriculteurs pour utiliser moins d’intrants et augmenter leur compétitivité. Via ses 13 start-up adhérentes, l’association regroupe 350 salariés et 200.000 clients agriculteurs et citoyens.

Acheter et vendre au meilleur prix

Plusieurs offres permettent de faciliter le quotidien des agriculteurs. Côté matériel, Agriconomie.com est une place de marché spécialisée dans l’approvisionnement agricole (semences, pièces, équipements, engrais…), au meilleur prix. 8.000 agriculteurs utilisent ce service, dont le volume d’affaires atteint 50 millions cette année.

Piloter sa ferme conçoit des outils de pilotage personnalisés pour aider les agriculteurs à gérer le risque de la volatilité des prix des matières premières. Grâce à des algorithmes mathématiques personnalisés pour chaque exploitation, la start-up fournit à 400 agriculteurs un robot conseil dédié à la gestion du risque prix.

En fin de chaîne, moncomparateuragricole.com permet de comparer les prix de vente des céréales. Il assure ainsi  à ses 1.000 agriculteurs clients de vendre au meilleur prix la tonne de produit. La start-up est en plein développement : le chiffre d’affaires de janvier 2017 est égal à celui de l’année 2016.

Digitaliser sa ferme : des start-up complémentaires

Weenat propose des capteurs connectés permettant de mesurer la température de l’air, l’hygrométrie, la pluviométrie, la température du sol… Il fournit l’information météorologique et agronomique à la parcelle en temps réel pour aider à la prise de décision. Les données ultra locales sont transmises en temps réel aux agriculteurs. Des outils d’aide à la décision les conseillent pour prendre de meilleures décisions, optimiser leur emploi du temps et améliorer la gestion de leurs cultures.

NeXXtep offre pour sa part des capteurs et objets connectés (traçabilité, supervision, sécurité) pour faciliter le travail quotidien. Les bilans sont saisis automatiquement pour une gestion plus efficace des exploitations. De son côté, Ekylibre fournit un outil de gestion open-source pour faciliter les nombreuses démarches administratives des exploitations. Son but : atteindre l’objectif tant convoité de la « zéro saisie ».

La Ferme Digitale propose aussi les drones agricoles d’Airinov pour optimiser les engrais et suivre la santé des céréales à paille et du colza. Et les robots autonomes de Naïo Technologies pour assurer le désherbage mécanique des maraîchers, légumiers et viticulteurs. L’association accueille également Axioma qui propose des complexes biostimulants destinés à stimuler de manière naturelle les processus physiologiques des cultures agricoles. Son objectif: diminuer les intrants chimiques. De même, l’entreprise fournit des biostimulants et aliments diététiques complémentaires en nutrition animale pour diminuer le recours aux antibiotiques.

Le collaboratif s’invite en agriculture

Le collaboratif a aussi le vent en poupe en agriculture. Votremachine.com est un site de location de matériel agricole entre agriculteurs. MiiMosa est un site de financement participatif exclusivement dédié aux projets agricoles. Déjà 600 projets ont été soutenus pour un montant total de 2,5 millions d’euros. La start-up voit grand puisqu’elle a pour objectif d’atteindre 1.300 projets d’ici fin 2017.

Par Matthieu Combe, journaliste scientifique

Les Européens reprennent la main sur le marché éolien

Vestas en tête

Vestas a installé en 2016 des turbines éoliennes dans 35 pays, cumulant pas moins de 8,7 GW, soit 16,5% du total mondial, selon les données compilées par Bloomberg. Un record qui permet au groupe danois de prendre la tête du classement des constructeurs devant General Electric, à qui il a ravi la 1ère place sur son marché domestique : les Etats-Unis. La compagnie américaine réalise néanmoins une bonne performance avec 6,5 GW, juste devant le chinois Goldwind (6,4 GW) qui perd sa place de leader conquise l’année dernière. Suivent plus loin l’Allemand Enercon et l’Espagnol Gamesa. Ce dernier a récemment fusionné avec Siemens (l’opération est dans sa dernière ligne droite) ce qui devrait permettre au duo Gamesa/Siemens de déranger le trio de tête à l’avenir.

1 top-turbine-mfg

L’offshore balbutiant

La filière de l’éolien en mer (offshore) ne représente que 832 MW sur les près de 53 000 MW éoliens installés en 2016. Mais le secteur a bénéficié d’un soutien des Pouvoirs Publics notamment en France avec l’organisation d’appel d’offres pour la construction de parcs éoliens en mer (Tréport, Fécamp, St Brieuc notamment). L’Allemagne ou le Royaume-Uni ont déjà des installations offshore en fonctionnement. Pour autant, Selon le classement BNEF, c’est le Chinois Sewind qui arriverait numéro un avec 489 MW installés. Des chiffres qui s’expliquent par le fait que les turbines fabriquées par la compagnie chinoise sont en fait sous licence Siemens, le leader européen historique de l’offshore. Sur les 489 MW, seuls 101 MW étant vraiment des machines de conception chinoise.

2 top-offshore-turbine-manufacturer

L’Asie portée par la Chine et l’Inde

Le dynamisme du marché asiatique de l’éolien est largement lié à deux pays : la Chine et l’Inde qui représentent à eux deux la moitié du marché mondial (49,3%). Selon le Global Wind Energy Council (GWEC), la Chine aurait à elle seule connectée 23 GW éoliens, un chiffre impressionnant bien qu’en-deçà du record absolu de 2015 (30 GW en une année). Le ralentissement du marché chinois est lié à une demande électrique moins forte qu’anticipée et une baisse des aides aux renouvelables.

GWEC_PRstats2016_EN_.indd

A noter que les Etats-Unis sont le 2ème marché après la Chine en terme de capacités installées (8,2 GW), et que l’Europe affiche également un certain dynamisme : l’Allemagne bien sûr (5,4 GW) et la France (1,5 GW). Enfin, les pays d’Amérique Latine devraient également monter en puissance grâce aux grands appels d’offres renouvelables conclu en 2016 (Mexique, Chili, Argentine notamment) qui ont vu de nombreux projets éoliens attribués, avec une mise en service prévue avant 2020.

Romain Chicheportiche

@mod, la domotique à la carte d’Avidsen

Zigbee, Z-Wave, EnOcean, DIO, KNX Wireless… Les protocoles qui existent sur le marché de la domotique sont innombrables, et ce constat est particulièrement avéré pour les protocoles radio. Or, cette multiplicité complique l’interopérabilité entre les équipements (détecteurs, actionneurs, contrôleurs), provenant de marques différentes, et ne rassure pas les non-initiés, craignant les incompatibilités. Peut-on attendre un langage universel adoubé par toute l’industrie ? «Ces langages n’évoluent pas vers une standardisation» tempère Alexandre Chaverot, président de Smart Home International, dont Avidsen est une filiale.

concept_@modEt si le protocole radio était interchangeable, choisi par l’utilisateur en fonction du système et du contrôleur domotique qu’il a mis en place ? C’est la solution mise au point par Avidsen et qui se nomme @mod. «Cette gamme d’accessoires possède une carte mère électronique dépourvue de la composante radio, explique Alexandre Chaverot. Celle-ci prend la forme d’une carte fille, semblable à une carte SIM.» Ce petit module radio s’insère à l’intérieur du périphérique et apporte la connectivité voulue. Les usages les plus courants au sein du Smart Home sont pris en compte par les accessoires @mod : gestion énergétique (thermostat…), sécurité (détecteur de mouvement, détecteur de fumée…), confort et contrôle des accès.

C’est à se demander si Avidsen réussira son pari tant la quantité d’options est impressionnante : Thread, Zigbee 3.0, Z-Wave +, EnOcean, ARW (le protocole 868 MHz d’Avidsen), io homecontrol, Weave, Somfy RTS, DIO, KNX Wireless, WiFi… Même les protocoles radio longue portée/basse consommation Sigfox et LoRa sont au programme. «Nous ajouterons le Bluetooth 5.0 dès que la spécification sera finalisée, prévoit Alexandre Chaverot. Quant à Homekit, nous devons d’abord nous rapprocher d’un partenaire industriel d’Apple.»

Un pilote logiciel adaptatif

Certains protocoles sont plus compliqués que d’autres à loger sur un module radio aussi miniature. «Citons, à titre d’exemple, les protocoles sur IPV6, confirme Minh Hoa HOANG, directeur technique d’Avidsen. Leurs niveaux de sécurité sont élevés et demandent une puissance de calcul plus importante et aussi plus de mémoire.» Par ailleurs, ce module radio devait s’adapter à la fonction de l’accessoire en question. «Le profil change automatiquement en fonction de la carte mère à laquelle la carte fille est branchée, explique Minh Hoa HOANG. Ainsi, le module radio chargera-t-il le logiciel de détection d’ouverture de porte s’il est raccordé à un détecteur d’ouverture de porte. Il a fallu structurer le logiciel pour répondre à ce besoin avec le minimum de taille mémoire.»

Mais cette innovation n’implique-t-elle un surcoût ? «Certes, en raison de la présence d’un circuit imprimé supplémentaire, d’un connecteur, etc, répond Minh Hoa HOANG. Mais cette solution permet de mutualiser les volumes sur les cartes mères et donc de baisser les prix. » Ces prix sont encore inconnus à l’heure actuelle, la livraison des accessoires @mod et des modules radio ne débutant qu’à partir de mai

La fabrication a lieu en France, alors qu’Avidsen a pour habitude de produire en Tunisie, en Israël et en Croatie (et autrefois en Chine). «La localisation française nous permet d’optimiser les échanges en phase de développement, donc le time to market, confie Alexandre Chaverot. C’est un industriel, accrédité qualité avionique, avec lequel nous avons initié des discussions en 2016 pour un partenariat actif en 2017. Notre volonté a toujours été de favoriser le made in France quand c’est possible.» L’identité de l’industiel en question n’a pas encore été communiquée.

Frédéric Monflier

Le Tumulte, mini-cinéma interactif, sort de son repaire

De la vidéoprojection immersive à 360°, de l’interactivité, des lunettes 3D : l’assemblage de tous ces ingrédients constitue une expérience de réalité virtuelle spectaculaire, nommée Tumulte et vue récemment au salon Virtuality à Paris. C’est la première fois que le Tumulte s’exporte hors du Musée de la BD à Angoulême, où il a établi domicile depuis 2015.

Cortex-2037retouch_AurelieCOUDIERE_HQ
copyright Aurelie Coudiere

Le Tumulte est l’aboutissement de six années de recherche et développement. Il a été conçu par Cortex Productions, qui se définit comme une manufacture de films et de réalités virtuelles pour le compte d’une clientèle publique ou privée. Ces réalisations en images de synthèse explorent des thématiques aussi variées que l’industrie, l’astronomie et la santé. Au salon Virtuality, les spectateurs voyageaient dans un vaisseau sanguin, au beau milieu des globules rouges, et étaient invités à éliminer des virus d’un geste de la main.

Une immersion à 360°

Cortex-1838_AurelieCOUDIERE_HQ
copyright Aurélie Coudiere

La structure, cylindrique et fermée, a l’avantage d’offrir une excellente immersion totale dans l’œuvre audiovisuelle. Quatre vidéoprojecteurs, fixés en hauteur, projettent le film en relief et à 360°. Aucun raccord n’est visible, grâce à la mise au point d’un logiciel spécifique de «edge blending» (fusion des bords). Des capteurs, placés aussi en position zénithale, s’occupent de détecter la position des mains des spectateurs, qui portent par ailleurs des lunettes 3D pour visualiser les images en relief. Ces capteurs sont des Kinect, destinés habituellement à la console de jeux Xbox 360. Une preuve supplémentaire que des équipements grand public sont désormais suffisants pour des projets de cette ampleur.

Le Tumulte, avec son diamètre de 7,5 mètres (la version ambulante est un peu plus petite), peut aujourd’hui accueillir une quarantaine de personnes simultanément. Mais sa montée en puissance est programmée. «La prochaine génération, opérationnelle cet automne, mesurera 24 mètres de diamètre et pourra prendre en charge 600 personnes, explique Andreas Koch, le gérant de Cortex Productions. Nous prévoyons d’équiper les lunettes de capteurs supplémentaires et nous pourrons traiter davantage de données.» Les parcs à thème, la simulation industrielle et militaire, l’enseignement et les arts numériques sont parmi les débouchés possibles.

Frédéric Monflier

Le nucléaire entre en campagne électorale !

Le SFEN souligne « la nécessité de donner une nouvelle ambition à la filière nucléaire française », une ambition qui ne peut pas être « la limitation de sa part dans le mix électrique ou de fermeture de réacteurs ». Tourné vers l’avenir, il veut que la France continue à être leader du nucléaire et soit le pays « où s’invente le nucléaire du futur ». Pour ne pas laisser cette place aux Etats-Unis et à la Chine. L’organisme demande ainsi à ce que la France relance la politique nucléaire à l’échelle européenne.

Garantir l’avenir du nucléaire

Pour relancer la machine nucléaire, le SFEN propose un  « choc de simplification » pour une chaîne de contrôle plus efficace. Il s’agirait de simplifier les complexités administratives en vue d’ « associer renforcement continu du niveau de sûreté, amélioration de la compétitivité et innovation ». Notamment en généralisant les outils numériques pour sortir du « tout papier », généralisé dans les procédures des centrales.

L’organisme n’accepte pas la réduction de la part du nucléaire proposée par la loi de transition énergétique. Il veut « piloter efficacement le mix énergétique bas carbone » et « relier les coûts d’une action avec les économies d’émissions de CO2 qu’elle engendre ». Car « substituer par principe les énergies renouvelables au nucléaire ne répond ni aux objectifs de réduction des émissions de CO2 , ni aux objectifs de compétitivité ». La fermeture de Fessenheim doit être stoppée et le renouvellement du parc anticipé d’ici 2030.

Mais surtout, le nucléaire devrait aussi êrte valorisé dans les nouvelles applications, aujourd’hui réservées aux énergies renouvelables. C’est notamment le cas de l’alimentation des réseaux de chaleur ou les applications de « power-to-gas » pour produire de l’hydrogène ou du méthane . Des réacteurs pourraient être intégralement dédiés à ces nouveaux usages.

Le nucléaire pour l’habitat et les transports

L’organisme propose une nouvelle ambition basée sur une nouvelle vague de substitution des énergies fossiles par de l’électricité bas carbone pour le transport et l’habitat. Il n’y va pas par 4 chemins et suggère de fixer un objectif de 45 % de véhicules électriques et hybrides rechargeables à l’horizon 2050. Il voit l’installation de 7 millions de points de recharges d’ici 2030 pour accompagner cette transition.

Pour favoriser l’électricité dans la future réglementation thermique 2018, il incite à inscrire la réduction des émissions de CO2 comme « objectif prioritaire », avec un plafonnement par m² et par an . Car la RT 2012 aurait eu un effet pervers. « La part des énergies fossiles (gaz naturel, GPL, fioul) n’a cessé de croître sur l’ensemble de la construction neuve passant de 25 % à 61 % entre 2008 et 2014 », assure l’organisme.

Rémunérer le nucléaire comme les renouvelables

Le SFEN souligne l’intérêt de toutes les énergies bas carbone pour limiter le réchauffement climatique. Il estime donc que les systèmes de rémunération doivent être communs entre le nucléaire et les renouvelables. L’idée : mettre en place des contrats similaires à celui proposé par les britanniques pour l’achat de l’électricité à Hinkley Point. Ces contrats garantiraient un prix de vente, sous la forme d’une prime versée entre le prix du marché de gros et le prix garanti. Ce nouveau mode de rémunération aurait pour but de faciliter le financement de l’investissement.

Par Matthieu Combe, journaliste scientifique

Exoplanètes : beaucoup de bruit pour rien ?

Sans aucun doute, la recherche de vie extraterrestre et d’exoplanètes habitables (voire habitées) est un des domaines de l’astronomie qui continue de faire rêver l’humanité.

Avec la dernière annonce de la Nasa (qui en fait vient compléter l’annonce déjà faite l’année dernière par l’ESO et une équipe belge – voir cet article -), on a encore pu assister à un emballement médiatique mondial dont l’emblème pourrait être ce “doodle” de Google sur le thème.

seven-earth-size-exoplanets-discovered-6423181526040576-hp

Des projets et des recherches à la pelle

La chasse aux exoplanètes bat son plein depuis une vingtaine d’années. Au compteur, plus de 3400 exoplanètes répertoriées dont 1284 pour la mission du télescope spatial Kepler, dont les données ne sont pas encore toutes analysées. Et les trouvailles continuent avec les observatoires spatiaux déjà lancés comme Kepler et Spitzer (le téléscope spatial infrarouge qui a servi à compléter les données sur le système planétaire autour de Trappist-1 – voir cet article -) et bientôt avec le prochain téléscope spatial James Webb (JWST) qui sera lancé par la Nasa en 2018. Mais les télescopes terrestres ne sont pas en reste et, avec l’aide enthousiaste de millions d’amateurs (comme ceux réunis autour du projet de sciences participatives Planet Hunters), ils participent activement à cette quête. A titre d’exemple, des chercheurs ont rendu publique la masse de données accumulées par le spectromètre HIRES installé sur le télescope Keck-1 à Hawai afin de monter un projet participatif (voir cet article). Sur ces données, les astronomes ont déjà identifié 114 signatures pouvant être des exoplanètes : 54 à forte probabilité, 60 à confirmer.

D’autres projets sont prévus à plus ou moins courts termes tels que les observatoires spatiaux européens CHEOPS (mesure et caractérisation d’explanètes déjà connues) et PLATO (photométrie et astrosismologie pour découvrir de nouvelles planètes) dont les lancements sont respectivement prévus en 2017 et 2024.

Des sondes pour aller sur place

Enfin dans le domaine du projet plus lointain, citons les deux expéditions présentées pour aller visiter Proxima b, l’exoplanète la plus proche de la Terre (4,2 années lumières) et potentiellement habitable. Breakthrough Starshot, proposée par le milliardaire russe Yuri Milner, est un essaim de nanosondes munies de voiles qui seraient poussées par des lasers tirés depuis la Terre. Elles pourraient survoler Proxima b d’ici 20 ans, mais ne feraient que passer. Un autre projet alternatif, proposé début février dans un article de Astrophysical Journal Letters, consisterait à envoyer des sondes munies de voiles poussées par les vents solaires pour un voyage de plus de 300 ans dans tout le système de Proxima du Centaure avec un retour sur Terre. Evidemment, cette fois la moisson de données seraient vraiment plus importante.

L’illusion de la zone d’habitabilité

Cependant, dans un pertinent article paru sur le site The Conversation, l’astronome chilien Joshua Tan, condamne l’emballement médiatique et scientifique autour des exoplanètes “analogues” à la Terre et qui sont placées dans la zone d’habitabilité. En effet, cette fameuse zone d’habitabilité d’une planète, définie comme la zone par rapport à une étoile où l’eau pourrait se trouver sous forme liquide est une condition tellement insuffisante pour déterminer si la vie pourrait s’y développer qu’on peut même s’étonner qu’elle soit encore utilisée: selon que la planète possède une atmosphère, selon sa géologie et son environnement dans l’espace tout peut changer ! Il n’y a qu’à regarder Vénus ou Mars. Si l’on continue à utiliser cette notion, c’est surtout pour restreindre le champ de recherche à une zone de probabilité d’apparition de la vie plus grande. Mais, pourtant notre système solaire, nous l’a maintenant dévoilé, l’eau liquide, que l’on considère comme le support privilégié de la vie, peut tout aussi bien se trouver sous la surface d’une planète, bien en dehors de cette zone d’habitabilité…

De l’eau, de l’eau !

De l’eau liquide sous la surface, on est à présent sûr qu’il y en a sur Encelade (satellite de Saturne) ou sur Europe (satellite de Jupiter), et certainement sur bien d’autres lunes, planètes ou météorites de notre système. Ce sont les résultats des dernières explorations du système solaire. Des océans enfouis, protégés des rayonnements et vents cosmiques par de la glace ou de la roche. Quand on voit la richesse de la vie sous-marine dans les abysses, que peut-on s’attendre à trouver si la vie y existe ? Ceci sans compter la vie qui peut se passer d’eau, comme cela pourrait être le cas sur Titan (voir cet article). Seulement, il faudra encore être patient avant d’en avoir le coeur net. La mission la plus proche pour aller voir le système Jupiter est Juice (Jupiter Icy Moon Explorer) programmée par l’Esa en 2022 avec une arrivée en 2030. Elle survolera en détail Jupiter et trois de ses satellites (Ganymède, Europe et Callisto). Suivie de peu, si elle obtient les financements, par la mission américaine Europa Multiple Flyby Mission qui est censée préparer l’arrivée d’un atterriseur dix ans plus tard. Mais si les grandes puissances spatiales traînent un peu des pieds, c’est que la communauté internationale est plutôt focalisée actuellement sur la maîtrise et l’étude approfondie de la Lune et de Mars, plus proches, avant de se lancer dans des atterrisseurs pour des mondes inconnus comme Titan, son épaisse atmosphère et ses mers d’hydrocarbures ou d’envisager sérieusement des robots foreurs à faire fonctionner dans les glaces des satellites de Jupiter. En attendant, il est plus simple de scruter le ciel pour répertorier des mondes qui pourraient, dans un avenir bien plus lointain, nous intéresser.

Sophie Hoguin

La réalité virtuelle tient salon à Paris

Si la réalité virtuelle (VR) est en plein essor, elle doit encore convaincre de son utilité une bonne partie du grand public et des professionnels. «Nous voulons démontrer que la réalité virtuelle n’est pas un gadget» insiste Olivier Godest, jeune entrepreneur qui, avec cette idée en tête, a fondé le salon Virtuality. La première édition se déroule ces jours-ci au Centquatre, situé dans le 19e arrondissement de Paris. Environ 10 000 visiteurs sont attendus par les organisateurs.

«Virtuality poursuit deux objectifs, enchaîne Olivier Godest. Promouvoir la réalité virtuelle auprès du grand public et des entreprises, et stimuler les échanges entre les professionnels. Car cette technologie n’est plus réservée à un petit nombre d’entreprises qui s’équipent de «caves». Elle se démocratise, grâce à la mise sur le marché de nombreux casques VR, dont 6 millions d’unités sont désormais en circulation dans le monde. Les coûts baissent, ce qui ouvre davantage de perspectives dans le registre de la communication, du marketing, de l’évènementiel, du cinéma, de la formation, de la santé

Priorité au milieu de la création

L’ordre des secteurs d’activités mentionnés par Olivier Godest n’est pas anodin quand on parcourt les allées du salon, au milieu d’une centaine d’exposants. Les agences de création de contenu numérique ont en effet la part belle et cherchent à démontrer leur savoir-faire – développement d’image de marque, divertissement, storytelling… – au travers d’expériences VR parfois spectaculaires et amusantes. Les «créatifs», au sens le plus large, sont un peu à la maison il est vrai. «Le Centquatre a pour vocation de soutenir la création artistique et culturelle, rappelle Valérie Sanghor, directrice adjointe de l’établissement. Or, la VR est un langage au service de nouvelles formes de narration.»

En revanche, si la thématique de la santé dispose d’un petit pôle dédié, les applications industrielles et la réalité augmentée sont invisibles voire absentes. On les rencontrera plutôt à Laval, où la 19e édition de Laval Virtual se profile fin mars.

Frédéric Monflier

Virtuality, du 24 au 26 février au Centquatre-Paris

Prix : 15 €/jour pour le grand public, «pass» 3 jours de 150 € pour les pros.

www.virtuality-paris.com

Revue de presse anglophone #6 : Nasa, robotique, Adidas…

yahoo-200Pourquoi Verizon rachète Yahoo

Malgré la faille de sécurité qui a touché Yahoo il y a quelques mois, Verizon n’a rien remis en cause quant à sa volonté d’acquérir ce géant du web.

Source : The Washington post

zuckerberg-200Mark Zuckerberg a t-il vraiment besoin d’être président pour diriger le monde ?

Le Guardian s’est penché sur la question.

Source : The Guardian

nasa200La NASA annonce la découverte d’exoplanètes potentiellement habitables

Ces planètes, situées à 40 années-lumières de la terre, seraient toutes d’origine rocheuse.

Source : Techcrunch

adidas200Adidas lance son usine du futur destinées à l’impression 3D de ses produits

La ville bavaroise d’Ansbach verra bientôt la naissance d'une nouvelle usine de fabrication 3D Adidas remplie de machines innovantes. Un virage pour la marque qui veut généraliser la vente de modèles imprimés en 3D.

Source : 3dprint

robot2002016, année de la robotique !

En 2016, les start-ups du secteur robotique se sont financées dans des proportions jamais vues jusque-là. Quelques chiffres pour illustrer le phénomène.

Source : roboticstomorrow

 

 

 

 

Portraits d’ingénieurs

À travers cette série de portraits, notre ambition était de rendre hommage non seulement à cette communauté d’ingénieurs, mais également à tous les conseillers et auteurs qui collaborent régulièrement à nos publications.

portrait
Intersection – 2011 – 70×90 cm – Tirage Lambda sur Dibond + caisse américaine. Martine F., École nationale des travaux publics de l’État (ENTPE), Lyon / Ingénieure d’État spécialisée dans le transport, détachée en région puis en communauté d’agglomération, responsable marketing à Transpole en délégation de service public pour les transports de l’agglomération lilloise.

 

Delphine Lermite est diplômée de l’École régionale des Beaux-Arts de Rennes (DNSEP) et de l’École nationale supérieure de la photographie d’Arles (Master). Artiste dans la veine de la straigth photography et du documentaire, elle cherche à exprimer le monde du sensible à travers un travail se présentant a priori d’un point de vue objectif et réaliste. http://www.delphinelermite.com/

Christelle Didier est maître de conférence en Sciences de l’éducation à l’université Charles-de-Gaulle (Lille-3). Ses sujets de recherche portent sur l’éthique et la responsabilité sociale dans l’ingénierie. Elle collabore avec Techniques de l’Ingénieur en tant que conseillère éditoriale sur la rubrique Ingénierie et responsabilités.

 

>Télécharger la lettre des éditeurs TI au format PDF

Découverte d’un système de 7 planètes de la taille de la Terre

« A présent, nous avons la bonne cible » pour rechercher la présence de vie éventuelle sur des exoplanètes, a déclaré Amaury Triaud, de l’Université de Cambridge, coauteur de l’étude.

Les sept planètes, qui pourraient avoir des températures assez proches de celles de la Terre, tournent autour d’une toute petite étoile peu lumineuse et ultra-froide TRAPPIST-1 située dans notre galaxie, à « seulement » 40 années-lumière de nous.

« Vingt ans après les premières exoplanètes, il s’agit sans nul doute d’une des plus grandes découvertes dans le domaine des planètes extrasolaires », estime Didier Queloz, de l’Université de Genève, coauteur de l’étude. « La recherche du vivant sur une autre planète est aujourd’hui à portée de main », ajoute-t-il.

L’équipe internationale, dirigée par l’astronome belge Michaël Gillon de l’Université de Liège, avait déjà découvert fin 2015 trois de ces planètes à partir du petit télescope TRAPPIST de l’ESO (Observatoire européen austral) basé au Chili.

Mais grâce notamment au télescope spatial Spitzer de la NASA, les scientifiques ont pu progresser à grands pas dans leur observations et ont recensé finalement sept planètes de la taille de la Terre.

« C’est la première fois que l’on détecte autant de planètes de taille terrestre dont trois potentiellement +habitables+, pour lesquelles une étude poussée est possible avec la technologie actuelle, y compris la détermination de la composition atmosphérique et la recherche de traces chimiques de vie », déclare à l’AFP Michaël Gillon, principal auteur de l’étude.

Le système planétaire a été détecté grâce à la méthode des transits. Elle permet de répérer la présence d’une planète lorsque celle-ci passe devant le disque de son étoile, car cela provoque une légère baisse de la luminosité (appelée transit).

« Coucher de Soleil »

« Ce qui est surprenant c’est que les sept planètes ont une grande régularité en taille », déclare à l’AFP Franck Selsis, chercheur CNRS à l’Université de Bordeaux, et coauteur de l’étude. Leur rayon est plus ou moins 15% celui de la Terre.

Elles ont des insolations et donc des températures moyennes proches de celles de la Terre.

Six de ces planètes tournent autour de la naine rouge en 1,5 à 12 jours. Elles sont beaucoup plus proches de leur étoile que la Terre du Soleil. Du fait des forces de marée, elles présentent toujours la même face à leur étoile.

Trois des planètes (TRAPPIST-1 e, f et g) se trouvent dans la zone « habitable » du système, c’est-à-dire susceptible d’abriter de l’eau liquide sur la majeure partie de la surface. « C’est le Graal pour les astronomes », souligne l’ESO.

« L’eau liquide est un pré-requis à l’existence de la vie » même si cela n’est pas une condition suffisante car il faut aussi « la présence des bonnes molécules », rappelle Franck Selsis.

« Coup de chance », les planètes sont « en résonance » entre elles, ce qui permet de mesurer leur masse, indique à l’AFP Didier Queloz.

Les premières indications de la masse pour six d’entre elles suggèrent la nature tellurique de ces planètes, c’est-à-dire qu’elles sont solides et composées en partie de roches.

En outre, « grâce au contraste de taille favorable entre les planètes et leur petite étoile, nous allons pouvoir mesurer leur atmosphère », se réjouit Didier Queloz. « C’est absolument unique. »

L’étude de cette suite de planètes va s’intensifier avec le télescope spatial James Webb qui sera lancé par la NASA en 2018.

« Il va nous permettre de caractériser les propriétés des atmosphères de ces planètes et peut-être même de trouver des biomarqueurs c’est-à-dire des molécules comme l’eau, l’ozone, le gaz carbonique, le méthane, qui pourraient indiquer qu’il y a de la vie sur ces planètes », précise Michaël Gillon.

Le spectacle sur ces planètes doit être « assez beau », selon Amaury Triaud. « Il doit y avoir environ 200 fois moins de lumière qu’à midi sur la Terre ». Cela doit ressembler un peu à « la fin d’un coucher de Soleil », selon lui.

« Tous droits de reproduction et de représentation réservés. © 2017 Agence France-Presse. »

8 chercheurs répondent à la question «Pourquoi cherchez-vous ?»

Particulièrement originale car entre arts et science, la série « Pourquoi cherchez-vous ? » remonte aux origines de la vocation du chercheur. Ecrite et réalisée par Geneviève Anhoury avec les peintures animées de Patrick Pleutin et les trucages de Lalunela, ces vidéos questionnent les chercheurs sur la part de choix, d’engagement, de hasard, d’émerveillement et d’anxiété de leurs activités. La question n’est pas « Que cherchez-vous ? » mais « Pourquoi cherchez-vous » ?

Valérie L’Hostis, physico-chimiste, nous raconte en vidéo ce qui motive ses recherches sur le béton armé.

Stefano Panebianco, physicien, nous surprend en comparant la physique des particules à une vaste enquête de police.

Sylvain Chaty, astrophysicien du CEA/Université Paris Diderot et de l’Institut Universitaire de France, nous raconte son travail de chercheur, d’observateur du ciel et sa passion pour l’Univers et les étoiles.

Source : cea

De surprenantes dunes sur la comète Tchouri

La formation de dunes sédimentaires réclame la présence de grains et de vents assez forts pour les transporter le long du sol. Or, les comètes ne possèdent pas d’atmosphère dense et constante comme sur Terre. La caméra OSIRIS embarquée sur la sonde Rosetta a pourtant montré la présence de structures, espacées d’une dizaine de mètres, rappelant des dunes sur 67P/Churyumov-Gerasimenko. Elles se retrouvent sur les lobes de la comète ainsi que sur le cou qui les relie. La comparaison d’une paire de photos prises d’un même endroit, à 16 mois d’intervalle, prouve de plus que les dunes se sont déplacées et qu’elles sont donc actives.

Face à cette surprise, les chercheurs ont montré qu’il existe en réalité un vent le long de la surface de la comète. Il est dû à la différence de pression entre le côté ensoleillé, où la glace de surface peut se sublimer grâce à l’apport d’énergie par le rayonnement solaire, et la face où il fait nuit. Cette atmosphère transitoire reste très ténue, avec une pression maximale 100 000 fois plus petite que sur Terre, au périhélie, le moment où la comète est au plus près du soleil. Cependant, la gravité est elle-même très faible et l’analyse des forces exercées sur les grains de la surface de la comète montre que ces vents thermiques peuvent transporter des grains de taille centimétrique, dont la présence est confirmée par les photos du sol. Les conditions nécessaires pour permettre la formation des dunes, des vents capables de transporter des grains le long du sol, sont donc réunies à la surface de Tchouri.

Ces travaux représentent une avancée dans la compréhension des différents processus à l’œuvre à la surface des comètes. Ils soulignent également que la mission Rosetta nous réserve encore de nombreuses surprises et découvertes.

Cap-tchouri
© ESA/Rosetta/MPS for OSIRIS Team MPS/UPD/LAM/IAA/SSO/INTA/UPM/DASP/IDA À gauche, une photo de la comète Tchouri où l’on distingue le dégazage de vapeur d’eau qui entraîne des poussières (© ESA/Rosetta/NAVCAM). À droite, la région du cou entre les deux lobes de la comète. On y observe différents types de relief, dont ces dunes au bas à gauche (cercle rouge), dans la zone sableuse.

Source : cnrs

La blockchain comme révolution… mais révolution de quoi ?

Les questions que pose la blockchain sont extrêmement nombreuses. Au-delà de celles largement débattues autour de son utilisation réelle ou potentielle (disruption des tiers de confiance, sécurisation des échanges, gages d’authentification, technologies de partage de ressources, économies d’échelles, garantie des transactions, auto-exécution de contrats, décentralisation des processus, etc.) un certain nombre d’autres plus complexes à explorer se pose.

L’histoire des sociétés n’est jamais lisse ni linéaire. À des périodes de bouleversements brutaux généralement très rapides – souvent en moins de deux ou trois générations – succèdent de grandes époques beaucoup plus longues, durant souvent plusieurs siècles, où les acquis de ces courtes périodes de bouleversements fondent un réel commun satisfaisant plus ou moins la société. S’ils sont sans cesse réaménagés, corrigés, repris, améliorés, modifiés, il n’en reste pas moins que ces acquis forment un socle stable à partir duquel la vie en société est possible.

Révolutions et changements radicaux

Le monde des sociétés occidentales modernes tel qu’on le connaît actuellement a, pour faire court, moins de deux siècles. Il date de la Révolution de 1789 et de la révolution industrielle qui a suivi au xixe siècle. Les grands bouleversements précédents ont été principalement la Renaissance vers le xive siècle puis les Lumières entre le xvie et le xviie siècle.

Chacune de ces époques de changements radicaux – le monde tel qu’on le décrit et tel qu’on le vit n’est d’un coup plus du tout le même – a créé les outils dont elle avait besoin pour lui permettre d’accompagner et de réaliser ces changements ; on pense par exemple à l’imprimerie qui, originellement, avait été inventée en plein monde médiéval pour diffuser massivement la doctrine de la foi chrétienne et qui, au bout du compte, a surtout été utile à la modernité de la Renaissance pour diffuser ses thèses humanistes émancipatrices. On voit à travers cet exemple qu’une technologie quelle qu’elle soit peut donc être à la fois incrémentale – elle sert à améliorer, à modifier, à transformer la société mais sans jamais remettre en cause ses fondements ni les façons qu’elle a de décrire la réalité qu’elle vit (comme l’a été par exemple le passage de la machine à vapeur à la machine électrique qui a transformé toute l’industrie sans remettre en question les fondements purement économiques du « comment produire ») – et disruptive.

La blockchain cristallise cinq valeurs

Ce qui distingue et qualifie une technologie est donc, au-delà de ce pour quoi on dit qu’elle est faite, ce qu’elle porte ou ne porte pas comme nouvelle façon de voir et de dire le monde.

Il est probable qu’à travers la blockchain, ce soit en définitive notre monde qui, engagé dans toute une série de mutations extrêmement profondes, si profondes qu’elles remettent en question tout notre modèle sociétal patiemment édifié depuis près de deux siècles, trouve à exprimer quelques-uns des grands enjeux qui le traversent.

La blockchain en cristallise au moins cinq : la valeur, la monnaie, le travail, l’être-individu et la question démocratique. Elle peut bien sûr être techniquement utilisée pour répondre à d’autres enjeux tout aussi importants (par exemple la préservation de l’environnement, la gestion de l’énergie, etc.) mais elle ne me semble pas les porter intrinsèquement en elle, dans sa construction même, alors que ces cinq-là sont directement questionnés par la blockchain.

En limitant ses potentialités aux champs connus et reconnus de l’économie (échanges monétaires décentralisés, transactions simplifiées, éviction d’intermédiaires coûteux), de la production (modélisation de l’entreprise 4.0 de demain, les DAO), de l’applicatif pur (sécurisation des échanges et des données) ou de la gouvernance (décentralisation, consensus), on s’empêche toute vision prospective de la blockchain ; la restreindre à ces fonctions, c’est ne pas la prendre en compte dans sa perspective historique large.

Ici, nous abordons successivement les questions de la valeur (comment s’évalue-t-elle, à partir de quels présupposés initiaux), de la monnaie (à quoi sert-elle, que vaut-elle, qui l’émet), du travail (qu’est-ce que produire), de l’identité (comment nous définissons nous) puis enfin de l’organisation politique des sociétés (selon quels modes de gouvernance), montrant comment la blockchain porte en elle des modèles théoriques potentiels qui dépassent de très loin ce pour quoi elle semble être faite.

L’émergence de la blockchain

Au-delà de ce qui se dit, des séries de « pratiques » apparaissent autour de la blockchain comme autant d’énoncés venant parfois infirmer ou contredire ce qui est dit. Exactement de la même façon que la question « qu’est-ce que le Web et à quoi sert-il ? » aura reçu des réponses radicalement différentes selon qu’on l’aura posée en 1996, en 2006 ou en 2016, la question « qu’est-ce que la blockchain et à quoi sert-elle ? » ne trouvera pas sa solution dans une collecte exhaustive recensant l’intégralité des formulations à son sujet, mais dans l’étude et l’observation de ses pratiques. Comment est-elle utilisée et pour en faire quoi nous en apprendra plus que toutes les prédictions/ divinations émises çà et là.

C’est dans cet interstice entre « dire » et « faire » que la blockchain est actuellement en train d’émerger. Dire, c’est se placer le plus souvent dans le seul registre économique ; c’est en endosser à la fois la logique, le lexique et les outils conceptuels, en déclarant par exemple que « la blockchain nous fera réaliser d’importantes économies ». C’est vrai mais c’est faux.

C’est vrai comme effet de bord immédiat à très court terme, mais c’est faux comme probable réorganisation de toute la production de richesses à plus long terme.

La blockchain n’est que l’outil d’un monde entré en révolution

La blockchain n’est pas une révolution. Elle n’est que l’outil d’un monde lui-même entré en révolution. Et donc, paradoxalement, dire aujourd’hui ce qu’est la blockchain revient le plus souvent à énoncer ce que le monde de demain ne sera probablement plus. Et parce que la blockchain n’est ni une technologie ni une révolution, elle ne peut ni être décrite sous l’angle de sa capacité à disrupter, ni être réduite à la technique qui la sous-tend sans prendre le risque de passer à côté de ce qui, au fond, est peut-être sa nature originelle : n’être qu’un artefact au service d’un changement de civilisation, changement qui s’annonce comme au moins aussi radical et aussi dévastateur qu’ont pu l’être en leurs temps la Renaissance, les Lumières ou les révolutions industrielles pour leurs propres « empires du passé ».

Par Laurent Leloup (extrait de son livre Blockchain, La révolution de confiance)

image002BLOCKCHAIN
La révolution de la confiance

par Laurent LELOUP

en librairie le 16 février

224 pages
17 €


unnamed (1)Laurent LELOUP
est le créateur -en 2006- de Finyear Group qui publie les quotidiens Finyear et BlockchainDaily News et produit de nombreux évènements.

Il a par ailleurs cofondé -en 2016- Blockness, startup centrée blockchain, France Blocktech, l’association de l’écosystème blockchain français, et Blockchain Valley, à la fois campus, centre de formation et incubateur.

Énergie : la Blockchain peut-elle faire des étincelles ?

Timidement, les géants de l’énergie se branchent sur la Blockchain. Outre-Rhin, le conglomérat RWE s’est associé avec la start-up Slock.it qui a levé plus de 150 millions de dollars. Baptisé Blockcharge, ce projet consiste à développer de nouvelles bornes de rechargement électrique de véhicules. Grâce à la Blockchain, la borne calculerait automatiquement l’électricité fournie dès que le conducteur quitterait la place de stationnement. Chaque personne qui souhaite bénéficier de ce service, souscrit à un contrat et rejoint la communauté. Il est équipé d’un « smart plug », à brancher sur n’importe quelle prise et permettant ainsi d’activer son « smart contract ». C’est un contrat numérique reposant sur la technologie blockchain qui permet de contrôler les engagements de chaque partie.

Il présente trois avantages : la sécurité des transactions, la réduction des coûts de vérification et d’exécution du contrat, et l’absence d’intermédiaire physique.

Enfin, grâce au « smart plug » et une application smartphone l’utilisateur peut recharger sa voiture partout en ne payant que l’électricité consommée.

En France, Engie mène des expérimentations, dans l’Yonne, concernant en particulier la traçabilité des flux. Des compteurs d’eau connectés peuvent déclencher automatiquement l’appel d’un dépanneur en cas de fuite, grâce à des « smart contracts ».  Une fois exécutée, cette intervention est immédiatement répertoriée dans la chaîne de blocs.

Mais comme pour le Bitcoin, des particuliers n’ont pas attendu la concrétisation des projets de grande envergure. Ils ont adopté cette solution pour s’acheter et vendre de l’électricité.  C’est le cas du projet TransActive Grid développé par deux entreprises : Lo3 Energy, qui développe des réseaux d’énergie solaire, et ConsenSys, spécialisée dans le Bitcoin. Inauguré à Brooklyn début 2016, ce réseau local et autonome est composé de cinq maisons de « producteurs » qui vendent à cinq foyers « consommateurs ». Ces particuliers peuvent ainsi gérer eux même leur consommation d’électricité grâce à des transactions légales, sécurisée et monétisées.

Centrale électrique virtuelle

Des capteurs mémorisent l’historique de la création énergétique à un point précis, et l’enregistre aussitôt sur la Blockchain Ethereum, une cryptomonnaie un peu moins connue que Bitcoin. Des « smart contracts » peuvent ensuite régir les règles d’utilisation de cette énergie, et les tarifs des producteurs. Avec cette solution, ils n’ont plus besoin de passer par un distributeur local. Même concept aux Pays-Bas où Vattenfalls teste l’échange d’électricité entre quelques-uns de ses clients. Au Québec, PowerStream a développé la première centrale électrique virtuelle gérée par des habitants d’un quartier au Canada. Grâce à une technologie novatrice, le projet pilote permet à une vingtaine de résidents de stocker l’énergie produite par des panneaux photovoltaïques sur leur maison. Les clients peuvent « déplacer » une portion de l’énergie produite dans le réseau et ainsi diminuer leur facture d’électricité.

Nous n’en sommes pas encore là en France. L’ordonnance de juillet 2015 concernant l’autoconsommation n’autorise les échanges d’électricité qu’entre producteurs et consommateurs reliés à un même point de basse tension, autrement dit, à l’intérieur d’un immeuble ou d’un lotissement. Bouygues, Energisme, Stratum et Microsoft devraient lancer une expérimentation (reposant sur l’énergie photovoltaïque) cette année à Lyon Confluence. Ce serait un peu l’équivalent au projet de Brooklyn.

« Nous voulons permettre aux habitants d’un écoquartier de bénéficier d’une énergie d’origine locale certifiée, provenant des panneaux photovoltaïques du voisinage. Nous espérons pouvoir équiper un immeuble début 2017 à Lyon et puis dans d’autres écoquartiers en France dès que le pilote aura démontré toutes ses possibilités », précise Olivier Sellès, responsable innovation et smart city de Bouygues Immobilier.

Cadre réglementaire et juridique

Malgré ces initiatives séduisantes, « à l’heure actuelle, il n’est pas encore possible d’affirmer si la Blockchain parviendra ou non à s’imposer dans le secteur de l’énergie. Cette question ne dépend pas uniquement des possibilités techniques du système, mais aussi, et surtout du cadre réglementaire et juridique, de l’évolutivité de cette technologie et de sa résilience, ainsi que de la rentabilité des investissements », indique Pascale Jean, associée responsable du secteur énergie chez PwC.

La régulation et l’économie de marché sont les deux principaux écueils au développement de projet reposant sur la Blockchain. Les experts de PwC soulignent que, « dans un réseau transactionnel de type Blockchain, il convient de déterminer qui est l’opérateur de points de mesure, qui détient un agrément en tant que fournisseur d’électricité et qui est responsable d’équilibre. Par ailleurs, un système de transactions d’énergie reposant sur la Blockchain soulève des problèmes en termes de responsabilité, notamment vis-à-vis du périmètre d’équilibre ».

Ce secteur a seulement lancé quelques projets. Pas de quoi enflammer les ardeurs…

Philippe Richard

Blockchain : c’est quoi ?

À la fin des années 60, il y avait les Shadoks qui passaient des heures à utiliser leur Cosmopompe destinée à pomper le cosmogol 999. Aujourd’hui, des « mineurs » passent plusieurs heures à vérifier les transactions d’un bloc d’une « chaîne de blocs », la fameuse Blockchain.  Ces blocs contiennent des transactions (opérations d’écriture dans la chaîne) qui sont dans un ordre précis.

L’usage le plus connu est la monnaie virtuelle Bitcoin, première Blockchain créée en 2008. Neuf ans plus tard, le Bitcoin est toujours mis à l’index par des pays ou des organisations. Avec un argument récurrent : des transactions illégales sont favorisées par l’anonymat qu’il donne à ses utilisateurs.

Des transactions certifiées

Au-delà de cette polémique, une Blockchain représente une solution iconoclaste. Elle pourrait « révolutionner » différents secteurs d’activité et en particulier tous les intermédiaires de « confiance » chargés de vérifier l’identité d’une personne en prenant au passage une commission plus ou moins élevée.

Cette base de données ordonnée permet en effet de certifier toutes les informations et de les rendre incontestables. La transaction peut être certifiée par la communauté, même si toute la difficulté est de définir dans le domaine P2P quelles sont les limites de cette communauté. « L’intégrité de la chaîne est garantie par la cryptographie. Toute modification est détectable par tous. Notez bien que j’ai dit toute modification. La chaîne ne distingue pas entre modification “légitime” ou “illégitime” », précise Stéphane Bortzmeyer (Ingénieur R&D à l’Association française pour le nommage Internet en coopération – Afnic), sur son blog.

Autre principe fondamental d’une Blockchain : la décentralisation. La chaîne est « vérifiable par tous et contrôlée par personne ». Lorsque deux personnes souhaitent organiser un transfert d’argent entre elles (il peut s’agir de régler un achat ou de faire un virement pour un membre de sa famille), elles possèdent chacune une clé (un code) publique et une autre privée pour envoyer et recevoir de l’argent.

Enregistrée sous forme d’un code informatique, cette opération en rejoint d’autres qui forment un « bloc ». Ce dernier apparaît dans la base de données géante de la Blockchain. « Tous les utilisateurs de la Blockchain possèdent ce même registre et à chaque fois qu’une personne y écrit quelque chose, c’est répliqué dans tout le réseau », précise François Dorléans, directeur des opérations de la start-up française Stratumn, qui s’appuie sur la technologie Blockchain pour créer des outils à destination des entreprises.  C’est à ce moment-là qu’interviennent les fameux « mineurs » qui, tels les Shadoks, activent leur machine pour vérifier les transactions du bloc (s’assurer par exemple que A dispose bien des fonds nécessaires à envoyer à B). A la clé, une rémunération.

Autre singularité, la chaîne de blocs est publique. « Tout le monde peut créer un nœud du jour au lendemain, qui va automatiquement télécharger et vérifier la chaîne, avec toutes les données qu’elle contient », explique Stéphane Bortzmeyer.

Repérer de faux médicaments

Quelles applications pourraient tirer profit de telles particularités  ? Elles sont très variées, aussi bien grand public que professionnelles. Dans le premier cas, la Blockchain facilite les transferts d’argent entre particuliers. Plus besoin de se rendre à un guichet spécialisé, une simple connexion internet et un smartphone suffisent. Les frais d’envoi s’en trouvent drastiquement diminués (maximum 1 % contre 5 à 15 %), et les formats de monnaies utilisables sont beaucoup plus étendus. Plusieurs start-ups ambitionnent d’« uberiser » Western Union et consorts. Les plates-formes musicales comme Spotify et Deezer ainsi que les maisons de disques pourraient être également concernées : la gestion des droits se ferait en temps réel et sans passer par des intermédiaires.

Mais ce sont les applications professionnelles qui devraient se multiplier, en particulier dans la finance et l’énergie. La constitution de registres de transactions infalsifiables serait très utile dans de nombreux domaines exigeant une traçabilité optimisée des objets et produits. L’alimentaire et la santé pourraient en tirer profit. Un scandale sanitaire comme celui de la viande de cheval et les contrefaçons de médicaments seraient limités, voire impossibles. Une bonne nouvelle, car selon l’Organisation mondiale de la Santé, les faux médicaments sont à l’origine de 700 000 décès par an. La start-up française blockpharma est sur ce créneau. Sa solution permet de vérifier instantanément via son smartphone l’authenticité de la boîte de médicament achetée. Cette authentification renforcée serait également très utile pour l’identité numérique (cadastre, banque, transport, certificats de naissance et de décès…).

Des transactions assez lentes

En Afrique, mais aussi en Amérique latine, de nombreux pays ne disposent pas de cadastres, ou tout au moins de cadastres fiables. L’ONG Bitland a annoncé le lancement d’un projet de cadastre numérique au Ghana en permettant aux propriétaires d’arpenter leurs terres via GPS et d’enregistrer leurs actes fonciers sur une Blockchain.

Mais une Blockchain n’est pas non plus la panacée. Cette solution présente quelques limites. La principale est sa lenteur relative (plus de dix minutes pour enre­gistrer une transaction) et son coût énergétique (elle mobilise beaucoup d’ordinateurs). Elle est aussi la cible de pirates. S’ils ne peuvent pas altérer la chaîne de blocs, ils sont en mesure de repérer des failles dans les applications pour détourner de l’argent.

Mais l’impact de ces inconvénients semble très minime au regard des avantages offert par ce système décentralisé.

Par Philippe Richard

La Blockchain peut-elle faire sauter la banque ?

La technologie Blockchain ne fait plus peur aux banquiers ! Au contraire, elle les attire. Selon une étude publiée le 13 février 2017 par Infosys Finacle, entité d’EdgeVerve Systems et son partenaire Let’s Talk Payments (LTP), plus de 80 % des banquiers interrogés s’attendent à voir l’adoption commerciale de cette technologie se concrétiser d’ici 2020. Et ils mettent en avant quatre arguments principaux : moins d’intermédiaires dans les transactions, donc moins de coûts de fonctionnement, des échanges plus rapides et plus sécurisés.

La moitié (50 %) des institutions financières ont d’ailleurs déjà investi ou prévoient de le faire dès cette année en s’associant avec une start-up de la FinTech ou une entreprise technologique. La Banque de France confirme cet intérêt. Après avoir noué un partenariat en 2016 avec deux start-ups spécialisées (le Labo Blockchain et Blockchain France), elle vient d’ouvrir un Lab pour attirer les start-ups de la Blockchain. « La digitalisation du secteur financier peut accélérer ce processus positif : (…) la Blockchain aide aussi à accélérer le développement de l’e-commerce et à moderniser les échanges physiques », a déclaré François Villeroy de Galhau, son gouverneur dans un discours à Paris FinTech Forum. En Suisse, UBS a invité des concurrents – Deutsche Bank, Santander, etc. – à la rejoindre pour travailler sur une monnaie virtuelle qui pourrait être utilisée dans les transactions entre banques.

12 milliards

Mais certaines institutions en sont déjà au déploiement. Les banques Emirates NBD et ICICI Bank vont s’appuyer sur la Blockchain dans le cadre des virements internationaux et des financements commerciaux. Selon l’enquête d’Infosys, cinq principaux cas d’utilisation devraient entrer rapidement en production : les paiements transfrontaliers, la gestion de l’identité numérique (pour réduire la fraude lors des paiements électroniques), la compensation et le règlement, la gestion des lettres de crédit et la syndication de prêts.

La Blockchain est aussi perçue comme un moyen de faire des économies. Pour les banques d’investissement, la rationalisation de certaines fonctions permettrait d’économiser environ 12 milliards de dollars par an selon une étude réalisée en 2016 par Accenture. Dans le détail, cette étude estime que les établissements pourraient abaisser les coûts de 70 % dans les reporting financiers, de 50 % dans les fonctions de compliance et dans la même proportion pour les supports opérationnels comme la rédaction des accords de principe.

Et le client, dans tout ça ? Comme nous l’avons évoqué dans notre article sur ce qu’est la Blockchain, les deux principaux intérêts sont le développement du micro-paiement et l’accélération des transferts d’argent, tout en payant une commission réduite. Concernant les tarifs justement, leur attractivité dépendra en partie de la capacité des petits acteurs et des cryptomonnaies à concurrencer sérieusement les banques. C’est le cas notamment de Ripple, troisième plus importante cryptomonnaie par capitalisation boursière, après Bitcoin et Ethereum. Utilisé par des entreprises telles que UniCredit, UBS ou Santander, le protocole Ripple a été de plus en plus adopté par les banques et les réseaux de paiement comme technologie d’infrastructure de règlement. Il permet d’effectuer des transactions financières sécurisées, instantanées et presque gratuites, de toute taille sans rejets de débit. Il prend en charge n’importe quelle monnaie fiduciaire, cryptomonnaie, marchandise ou toute autre unité de valeur telle que miles aériens, minutes mobiles, distances de GPS…

La crainte d’être ubérisé…

Malgré cet engouement, la Blockchain inquiète, car il n’existe aucune barrière à l’entrée : n’importe qui peut créer un service qui fonctionne et bousculer des acquis. « La Blockchain (peut) remettre en cause des modèles économiques, mais aussi des modèles de régulation. (…) Nous sommes pour une Blockchain réglementée : on garde un modèle ouvert et il faut créer des nœuds d’accès », expliquait au site FrenchWeb Franck Guiader, directeur FinTech, Innovation et Compétitivité à l’AMF (Autorité des Marchés Financiers).

D’où notamment le partenariat signé en juin dernier entre la Caisse des Dépôts, la BNP et la Société Générale afin de favoriser le financement des PME grâce à la Blockchain. Derrière cet accord, c’est la volonté de ne pas être « ubérisé » et de conserver la position d’intermédiaires privilégiés des entreprises. L’économiste Philippe Herlin considère en effet que « les banques sont ubérisables en tant que très grosses structures, très hiérarchisées et centralisées ».

Philippe Richard

Revue du web #100 ! : les 10 robots les plus étonnants du mois

Les Zooïdes, des petites machines roulantes capables d’interagir avec l’humain

Handle, le nouveau-né de Boston Dynamics

 

Un robot parvient à abuser le captcha « I’m not a robot »

Un drone capable de polliniser les plantes à la place des abeilles

 

Robot porteur de Piaggio : confiez-lui vos courses et vos bagages !

 

Cassie, le robot bipède qui vous livre vos colis

 

Robot bricoleur : le dernier robot du CNRS visse et perce des trous

 

Robot soldat : le nouveau robot de Sarcos Robotics glisse comme un serpent

 

Robot épicier : un robot capable de manipuler les fruits et les légumes

 

Darpa robotics Challenge : les plus belles chutes

 

Bonus : 

Un aquarium piloté par un poisson rouge

Par I. T

Air Liquide s’interroge à propos de la voiture électrique à batterie

cH2ange est une initiative portée par le groupe Air Liquide, centrée autour de la place de l’hydrogène dans la transition énergétique.

La page est accessible à cette adresse: https://www.facebook.com/cH2ange. Elle est également relayée sur Twitter par le service communication d’Air Liquide avec le hashtag #cH2ange.

Voici quelques éléments de réflexion dans le cadre du débat qu’Air Liquide appelle de ses vœux, ceci sous forme de réponse aux différentes questions posées et avec de nombreux documents de référence intégrés en liens hypertextes.

Air Liquide (cH2ange) interroge:  « Ne vous êtes vous jamais demandé ce qui se passerait si toutes les voitures électriques étaient uniquement alimentées par des batteries ? Ne vous êtes vous jamais demandé ce qui se passerait si tout le monde rentrait à la maison en début de soirée et branchait sa voiture électrique ? » (Question accompagnée d’une peluche qui pleure)

Réponse: Les voitures étant stationnées environ 95% du temps et le trajet moyen d’un automobiliste standard étant d’environ 35 kilomètres par jour, la charge lente à faible puissance n’est pas du tout un problème. A fortiori si l’on dispose d’une batterie permettant d’avoir plus de 300 kilomètres d’autonomie. C’est ce que savent déjà tous les utilisateurs de voitures électriques. La charge lente peut d’ailleurs être réalisée sur le parking du lieu de travail.

Grâce aux outils numériques modernes il est possible de piloter la charge de manière éco-intelligente en fonction de la disponibilité des ressources solaire et éolienne. Les batteries des véhicules électriques constituent une formidable opportunité pour faciliter l’intégration de hauts niveaux d’énergies renouvelables variables. C’est l’approche V2G-G2V. Cet outil de flexibilité est d’ailleurs intégré à l’étude France 100% Renouvelable de l’ADEME. Ce qu’Air Liquide présente aux internautes des réseaux sociaux comme un problème  constitue en réalité une opportunité.

Air Liquide (cH2ange): « Le future de notre mobilité est zéro émission. Cela signifie-t-il que chacun de nous doit conduire une voiture électrique à batterie ? »

Réponse: L’électro-mobilité avec stockage batterie a une efficacité environ trois fois supérieure à celle de la thermo-mobilité. En revanche le remplacement de la batterie par de l’hydrogène compressé à 700 bars, produit par électrolyse et consommé par une pile à combustible dégrade fortement l’efficience. Il faut consommer environ trois fois plus d’électricité pour parcourir un kilomètre en voiture à hydrogène qu’avec une voiture électrique à batterie. Cela conduit à un gaspillage des surfaces et des métaux (Cuivre, Argent etc.) pour construire trois fois plus de centrales solaires, éoliennes et hydrauliques. Il faut donc davantage de mines dont l’impact environnemental n’est pas neutre.

Si l’intégralité du parc automobile français passait au 100% électrique à batterie alors la demande nationale d’électricité augmenterait d’environ 15% (70 TWh) d’après une estimation réalisée par le président d’honneur de l’association Sauvons Le Climat et corroborée par d’autres études. Si ce parc automobile passait intégralement à l’hydrogène obtenu par électrolyse alors la hausse de la demande électrique serait d’environ 45% (210 TWh).

Air Liquide (cH2ange): « Savez-vous combien de temps il faut pour charger une voiture électrique à batterie ? »

Réponse: Les superchargeurs Tesla d’ancienne génération (120 kW) permettent de charger une batterie de 90 kWh à 80% en 40 minutes et à 100% en 75 minutes.  Les superchargeurs nouvelle génération d’Ultra-e (350 kW) permettront de capturer 300 kilomètres en 20 minutes, le temps de prendre un café. C’est parfaitement en phase avec les consignes de sécurité routière. En Suisse le groupe ABB a installé un système de charge ultra rapide (600 kW). Elon Musk a annoncé l’arrivée de superchargeurs Tesla de plus de 350 kW.

Air Liquide (cH2ange): « Challenge:  quelle puissance sera selon vous nécessaire pour charger un million de voitures électriques à batterie (0,4% de la totalité des voitures en Europe), pendant 20 minutes seulement, en une journée ?  Le fast-charging, est-ce une solution? » (question suivie d’une vidéo qui a été vue plus de 300.000 fois)

Réponse: 1 million de Toyota Mirai à Hydrogène, cela correspond à 114 GW de piles à combustible embarquées.  Les 1,6 GW de superchargeurs mentionnés par Air Liquide (13.888 superchargeurs de 120 kW) peuvent être alimentés par 1,6 GW de PAC stationnaires. A noter que les trajets supérieurs à 300 kilomètres sont rares pour un automobiliste standard et que la charge rapide n’est nécessaire que pour ces longs trajets. Il est rare en France qu’un million de véhicules (3,1% du parc automobile national qui compte 32 millions d’unités) aient besoin de parcourir plus de 300 kilomètres d’une seule traite le même jour.

Air Liquide (cH2ange):  « Nous devons nous diriger vers une société post-pétrole. Les voitures électriques à batterie sont une option. Les voitures électriques à hydrogène, une autre. »

Réponse: La batterie de la Tesla Model 3 aura une capacité de 55 KWh ce qui offrira une autonomie de plus de 300 kilomètres. Cette batterie ne coûtera que 6875 dollars ($125 le kWh de stockage), soit un cinquième du prix de la voiture complète. Pour qu’une voiture électrique équipée d’une batterie de 20 kWh ($2500) et d’un prolongateur Hydrogène devienne compétitive, il faudra alors que le coût de la PAC + électronique soit inférieur à $4375. La Toyota Miraï à Hydrogène (PAC de 114 kW)  est vendue à partir de 66.000 euros hors taxes. Une bonne partie de ce coût correspond à la pile à combustible et à l’électronique qui l’accompagne.

Parcourir 100 kilomètres en voiture à hydrogène coûte environ 10 euros hors taxes. C’est 5 fois plus cher qu’avec une voiture électrique à batterie.  « Le coût de compression à 700 bars à partir d’hydrogène à pression ambiante est prohibitif » explique un  ingénieur spécialiste de l’hydrogène.

L’infrastructure Hydrogène est-elle meilleure marché que les superchargeurs nouvelle génération  ? La Californie vient d’accorder à titre expérimental 92 millions de dollars pour créer en 2017 un réseau de 50 stations de recharge en hydrogène. Soit 1,7 million s’euros par point de charge. La charge s’effectue en 5 minutes.  Les 25 stations-superchargeurs du programme Ultra-e (350 kW, charge en 20 minutes) coûtent 13 millions d’euros, c’est à dire environ 0,5 million d’euro par superchargeur. Si la charge est 4 fois plus longue le coût du chargeur est trois fois moins élevé.  Les rapports coût / durée sont proches.

Le coût de 13.888 superchargeurs de 350 kW l’unité (4,8 GW) est d’environ 7 millliards d’euros, c’est à dire 218 euros par automobile à l’échelle des 32 millions de véhicules du parc français.  Les 4,8 GW de superchargeurs peuvent d’ailleurs être couplés à 4,8 GW de PAC stationnaires, permettant ainsi  de réaliser des économies au niveau du réseau électrique. 4,8 GW de PAC stationnaires versus 114 GW de PAC embarquées…Facteur 24.  « Historiquement, un nouveau vecteur énergétique a toujours commencé par s’imposer dans les usages stationnaires avant ceux de mobilité pour des questions de poids, d’autonomie, de fiabilité, de sûreté, etc. » expliquait Etienne Beeker, expert de France Stratégie, le 22 septembre 2015 dans le cadre d’une interview pour un média de la Commission de Régulation de l’Energie.

Quel est le coût d’un million de piles à combustibles (114 GW) pour équiper un million de Toyota Miraï ? De 3648 GW de PAC pour en équiper 32 millions ? Et combien coûtent 32 millions de réservoirs à hydrogène associés devant résister à une pression de 700 bars ?

Air Liquide (cH2ange): « Dans quelques années les voitures à hydrogène et les voitures électriques à batterie seront comme les voitures diesel et les voitures à essence aujourd’hui », a déclaré Dr. Katsuhiko Hirose, ingénieur pile à combustible et Hydrogène chez Toyota. Etes-vous d’accord avec lui ? »

Réponse: Le comparatif est-il pertinent ? Essence et diesel doivent tous les deux êtres éliminés dans une perpective zéro émission qu’Air Liquide appelle de ses vœux.  Au nom de l’ouverture à l’innovation doit-on accepter les voitures thermiques à éthanol de maïs alors que leur efficience Sun-to-Wheel est 180 fois inférieure à celle des voitures électriques à batterie alimentées par des panneaux photovoltaïques ? Certes les voitures à hydrogène sont « seulement » 3 fois moins efficientes et non pas 180. La question devient: où placer le curseur de la tolérance en matière d’efficience ? Les personnes luttant contre le gaspillage peuvent-elles être traitées de « khmers verts » ?

« Il y a une compétition entre les batteries et les piles à combustible à hydrogène, on verra qui gagnera » a déclaré  Bertrand Piccard, fondateur de l’ « alliance mondiale pour les solutions efficientes » (qui s’appelait auparavant « alliance mondiale des technologies propres »), au micro de Patrick Cohen sur France-Inter à l’occasion de la parution du livre « Objectif Soleil » retraçant l’aventure Solar Impulse.

De son côté Elon Musk, grâce à l’hydrogène, vient de réussir le lancement d’une fusée Falcon 9 (SpaceX) depuis le centre spatial Kennedy de Cap Canaveral, avec récupération réussie de l’étage inférieur. Ce qui ne l’empêche pas de déclarer que les voitures à hydrogène, compte-tenu de leur efficience médiocre, sont « absurdes » (« Silly ») et qu’elles relèvent manifestement uniquement « d’une chose marketing », une façon de renforcer la «  valeur corporate » des groupes concernés. L’Hydrogène jouit en effet d’une bonne image auprès du grand public malheureusement pas assez informé à propos des problématiques d’efficience.

Le multi-milliardaire américain avait même déclaré à propos des voitures à hydrogène: « so bullshit ! ». Toyota avait alors répondu avec une vidéo montrant que les véhicules à hydrogène peuvent être alimentés par des bouses de taureau ou de bison: « Fueled by bullshit ». Le méthane issu de la fermentation peut en effet servir à produire du dihydrogène par reformage. Aujourd’hui 95% de l’hydrogène consommé dans le monde provient du reformage du méthane d’origine fossile, et non pas de biométhane. L’hydrogène de reformage vapeur sert notamment dans la production d’ammoniaque qui à elle seule est responsable de plus de 1% des émissions mondiales de dioxyde de carbone, un gaz à effet de serre.

La bataille entre les deux PDG, celui de Toyota et de Tesla continue. Big Oil face à la Silicon Valley. Selon la légende l’adolescent David à gagné contre le géant philistin Goliath. Ceci grâce à une technologie très efficiente, une fronde, et à sa capacité à l’utiliser de façon habile.

La chaîne de propulsion électrique de la voiture Tesla couplée aux superchargeurs constitue une fronde des temps modernes. Un véhicule qui prend d’ailleurs l’apparence d’une fusée: la Tesla Model S P100D passe de 0 à 100 kilomètres/heure en 2,3 secondes. Contre 9 secondes pour la Toyota Miraï. Le groupe nippon vient de rappeler l’intégralité des 2800 unités vendues dans le monde en trois ans, ceci suite à un problème de contrôle électronique de la pile à combustible.

« Certaines personnes n’aiment pas le changement, mais nous devons embrasser le changement si l’alternative est le désastre » a déclaré Elon Musk.  Plus de 700.000 véhicules électriques à batterie ont été vendus dans le monde durant l’année 2016, dont la moitié en Chine.  Selon The Economist cette vague va grandir très rapidement.

Olivier Daniélo

Olivier Daniélo est auteur pour la Revue Politique et Parlementaire des dossiers « La révolution de la voiture électrique 2.0 » (2009, dans le Hors-série « Développement durable: éthique et stratégie du XXIème siècle ») et « La seconde vague de la voiture électrique » (2014). Ainsi que du dossier « Véhicules électriques: un volant de stockage pour demain » (2011), Revue Systèmes solaires n°202.

Remodeler un objet imprimé en 3D pour rattraper des erreurs

La fabrication additive (plus connue sous le terme d’impression 3D) présente plusieurs avantages : matériaux de plus en plus performants, réduction du poids et des coûts, conception de pièces expérimentales… Mais elle est encore pénalisée par une productivité assez faible par rapport à des process conventionnels et des outils informatiques mal adaptés. Et il y a les fameuses erreurs que l’on constate à la fin, lorsque l’objet vient d’être imprimé. Jusqu’à présent, il n’était pas possible de rattraper les erreurs ; il fallait tout recommencer.

Dorénavant, cette contrainte n’existe plus. Le MIT (Massachusetts Institute of Technology ) a trouvé une méthode qui permet de modifier la forme, la taille ou la couleur après coup. Dans leur article scientifique publié par ACS Central Science, les chercheurs expliquent qu’ils sont parvenus à jouer sur les propriétés mécaniques d’un objet en altérant sa dureté. Ils ont également réussi à modifier ses propriétés hydrophobiques, à le faire enfler ou rétrécir en utilisant un monomère sensible à la température. Leur secret ? La polymérisation vivante. Les polymères qui composent la matière restent en quelque sorte actifs, prêts à répondre à une stimulation, en l’occurrence la lumière bleue d’une LED.

Au lieu de recourir à la traditionnelle impression qui consiste à diffuser de la lumière sur des monomères à l’état liquide – la base du plastique et d’autres matières – jusqu’à obtenir des couches compactes de polymère, Johnson et son équipe ont décidé, en 2013, d’utiliser la « polymérisation vivante ». Son principe reste le même, à une différence près ; elle crée des matières dont la croissance peut ensuite être réactivée grâce à un rayonnement ultraviolet.

Pour l’instant, les applications ne sont réalisées qu’en laboratoire, car il est impératif que les catalyseurs organiques soient placés dans un environnement sans oxygène, d’où l’objectif principal des chercheurs, de tester d’autres sortes de catalyseurs.

Philippe Richard