E.vone, la chaussure connectée pour les seniors !

Yvonne est la belle-mère de Franck Cherel, Directeur général de Parade, fabricant français de chaussures de sécurité et de travail depuis 1978. À 79 ans, elle adore voyager à l’étranger. Suite à une chute dans son jardin, Franck a imaginé une chaussure connectée pour les seniors. Parade a réutilisé une technologie développée pour ses chaussures de sécurité afin de détecter les chutes. Le nom était tout trouvé : place à E.vone pour les femmes et à E.van pour les hommes.

Plus d’inquiétude à avoir, le dispositif électronique envoie automatiquement un message d’alerte aux proches et aux services d’urgence en cas de chute. Les chaussures E.vone et e-Van sont fabriquées dans une usine de Jarzé (49), dans le Maine et Loire. Pour laisser libre cours à l’imagination des seniors, les stylistes ont imaginé 26 modèles et déclinaisons.

Une chaussure connectée pour rassurer

La semelle d’E.vone et d’E.van renferme un petit dispositif électronique. Il contient une batterie, une carte SIM et un GSM pour pouvoir lancer l’alerte dans plus de 120 pays. S’y ajoutent un GPS pour fournir la géolocalisation et plusieurs capteurs (gyroscope, accéléromètre, capteur de pression) pour suivre les mouvements. Enfin, le dispositif renferme un vibreur pour informer et rassurer le porteur en cas de besoin.

Lorsqu’un mouvement jugé anormal est détecté, le vibreur s’actionne. Le porteur a quelques secondes pour se relever ou taper trois fois du pied sur le sol. Sans réponse, le dispositif appelle les numéros préprogrammés. Un appel pour appeler au secours, avec une géolocalisation précise. Lorsque l’alarme est bien prise en compte à l’autre bout de la chaîne, la chaussure vibre à nouveau pour notifier au porteur que des secours sont en route.

E.Vone primée et en route pour Las Vegas

Dévoilée en février 2017, E.vone a reçu le Trophée SilverEco de l’innovation en mars 2017. « Désormais, nous cherchons à présenter notre invention au CES de Las Vegas 2018 », prévient Anne Bluteau, directrice marketing de Parade.  Sa commercialisation débutera d’ailleurs à cette occasion, en janvier 2018.

Pour le moment, l’autonomie de la batterie s’élève entre 15 jours et 1 mois. Il faut donc la recharger sur un port USB. « Pour la version 2, notre objectif est d’atteindre une autonomie d’au moins un an en passant sur les nouveaux réseaux moins énergivores, détaille Julien Fortumeau, responsable Marketing digital de Parade. Au lieu de s’accrocher au réseau 2G/GSM nous allons travailler sur les réseaux LORA ou SigFox développés spécifiquement pour les objets connectés ». Grâce à une communication à bas débit et sans passer par un téléphone mobile, l’utilisation de ces réseaux demande beaucoup moins d’énergie. L’autonomie des périphériques qui y sont connectés est ainsi largement augmentée.

Pour acheter une telle paire de chaussure, il faudra débourser entre 110 et 150 euros. Un prix auquel il faudra ajouter un abonnement mensuel, compris entre 40 et 60 euros.

Par Matthieu Combe, journaliste scientifique

Comment va-t-on fabriquer des briques sur la Lune ?

Depuis plusieurs années, l’agence spatiale européenne, l’Esa, développe le concept de village lunaire: « J’ai l’intention de construire une base permanente sur la Lune: ce sera une station ouverte pour différents Etats participants, des pays des quatre coins du monde, » explique ainsi le directeur général de l’ESA, Jan Wörner. Et depuis quelques mois, ce projet prend forme de diverses manières. Que ce soit par des avancées technologiques ou par des pourparlers plus ou moins poussés comme ceux que la Chine a eu à la fin du mois d’avril avec l’Esa.

Comment habiter la Lune ?

Parmi les questions qui se posent pour coloniser la Lune, celle de l’habitat est l’une des premières bien sûr. Si la communauté scientifique et technique du monde entier rivalise d’inventivité et de créativité pour mettre au point un habitat immédiatement opérationnel à l’arrivée (modules gonflables, lander transformable, habitations pliables etc.), il est peu probable que l’on puisse facilement emmener des tonnes de matériaux pour construire sur place. Alors des chercheurs européens, dans le cadre du projet RegoLight financé par Horizon 2020 s’intéressent à la manière dont on pourrait fabriquer des briques pour construire de nouveaux édifices in situ. Ils en sont à la preuve du concept avec les premières pièces fabriquées à partir d’une imitation de poussières de Lune.

ESA–G. Porter
ESA–G. Porter

Poussière tu étais, brique tu seras !

Les briques ont été fabriquées à partir de poussières de roches volcaniques terrestres simulant la taille des grains et la composition de la poussière lunaire. Sur une table d’impression 3D à laquelle est couplée un four solaire, de fines couches du matériau de 0,1 mm sont cuites à 1000°C jusqu’à obtenir la forme désirée.

 Le four utilisé a été celui du DLR, le centre aérospatial allemand à Cologne qui est composé de 147 miroirs incurvés qui concentre la lumière du soleil. En cas d’absence de soleil, celui-ci a été simulé par une batterie de lampes à xénon (comme on en trouve sur les projecteurs de cinéma). Une brique de 20x10x3 cm est construite en 5 heures. Les briques ainsi créées dont dures comme du gypse, elles vont à présent être soumises à plusieurs tests de résistance mécanique.

Des tests en conditions spatiales

Ces premières briques ont été fabriquées en conditions atmosphériques terrestres, mais le projet européen RegoLight va plus loin. L’opération doit maintenant être reproduite dans des conditions lunaires : sous vide et avec des températures extrêmes. En outre, le projet se penche aussi sur l’utilisation de ces briques en cherchant quelle forme est la plus adéquate pour construire facilement des édifices à partir de la brique de base. Le projet a testé plus de treize formes en partant d’une base pyramidale.

Ces travaux sont dans la continuité de ceux du projet “lunar 3D printing project” qui visait à imprimer en 3D des structures complètes mais qui devait encore faire face à plusieurs inconvénients techniques comme par exemple la nécessité d’ajouter des sels pour servir de liant. Cette fois, la principale source d’énergie et le matériau sont uniquement lunaire.

Par Sophie Hoguin

Quelle stratégie pour mobiliser la biomasse française ?

La Stratégie nationale de mobilisation de la biomasse (SNMB) vise à appliquer la loi de transition énergétique pour la croissance verte et atteindre les objectifs de la programmation pluriannuelle de l’énergie (PPE). Les objectifs de la PPE pour 2018 concernant le développement du bois-énergie (540 MW) sont déjà atteints avec ses 591 mégawatts (MW) fin 2016. La filière est à 75 % du scénario bas 2023 (790 MW), mais encore loin du scénario haut (1040 MW). Pour la méthanisation, l’objectif est de passer de 85 MW en 2014 à 137 MW en 2018 et entre 237 MW et 300 MW d’ici 2023. Pour l’électricité produite à base de déchets, biogaz et stations d’épuration, l’objectif s’élève à 1350 MW en 2018 et 1500 MW en 2023, contre 1200 MW en 2014. Enfin, la production de chaleur renouvelable à base de biomasse devrait passer de 10,7 millions de tonnes équivalent pétrole (Mtep) en 2014, à 12 Mtep en 2018, et entre 13 et 14 Mtep en 2023.

Assurer les différents usages de la biomasse

La stratégie nationale définit un cadre global pour guider les mesures opérationnelles qui seront inscrites dans les schémas régionaux biomasse encore en cours d’élaboration. Elle se concentre sur des ressources jugées prioritaires : biomasse forestière, agricole, effluents d’élevage et déchets. Notamment, elle vise à déterminer les sources d’approvisionnement et à prévenir les conflits d’usage avec les autres filières (construction, chimie, fibres…). Cette stratégie s’attache ainsi à prévenir les impacts potentiellement négatifs, qu’ils soient économiques, sociaux ou environnementaux.

Son contenu et sa bonne articulation avec une quinzaine de documents ou d’orientations stratégiques – PPE, stratégie nationale bas carbone, documents portant sur la filière forêt-bois et sur la filière déchets, etc. – ont été définis par le décret du 19 août 2016. La stratégie porte sur 18 régions : la métropole, la Guadeloupe, la Guyane, la Martinique, La Réunion et Mayotte.

Trouver de nouvelles sources de biomasse

Selon le rapport, l’offre nationale de biomasse suffira à répondre à la demande pour atteindre les scénarios de la PPE pour 2018 et 2023. En revanche, d’ici 2030 et 2050, la mobilisation des ressources identifiées « ne suffit pas à satisfaire les scénarios de demande, y compris en intégrant un développement important de l’économie circulaire qui viendra réduire le besoin de biomasse neuve », précise le texte. Ainsi, « le besoin de recherche, de développements de nouvelles ressources et innovations est manifeste », alertent les auteurs. Cela passera par exemple par le fait de « conforter la valorisation matériau des feuillus, développer de nouvelles ressources comme les algues, massifier l’économie circulaire ».

Par Matthieu Combe, journaliste scientifique

Référendum : les Suisses ont approuvé la sortie du nucléaire

À la question « Acceptez-vous la loi du 30 septembre 2016 sur l’énergie ?», les Suisses ont répondu « oui » à 58,2%. La participation s’est élevée à 42,3% pour cette  révision de la loi sur l’énergie. Par ce geste, ils approuvent la première étape de la Stratégie énergétique 2050 du pays. Fin novembre 2016, les Suisses avaient rejeté par référendum la limitation de la durée de vie des réacteurs nucléaires à 45 ans.

Les mesures entérinées visent à réduire la consommation énergétique et améliorer l’efficacité énergétique. Les objectifs sont de baisser la consommation énergétique moyenne par personne et par an de 16 % d’ici 2020, et de 43 % d’ici 2035 par rapport à 2000. Selon l’Office fédéral de l’énergie (OFEN), la consommation individuelle d’énergie a déjà baissé de 14,5% depuis 2000. La loi interdit aussi la construction de nouvelles centrales nucléaires. Les 4 centrales nucléaires du pays (pour 5 réacteurs) pourront néanmoins continuer à produire de l’électricité tant que leur sûreté sera garantie, pour une durée de vie totale de 50 à 60 ans.

Un mix électrique qui va se diversifier

D’après les Statistiques de l’énergie OFEN, en 2015, la production électrique suisse était de 66 térawattheures (TWh). 59,9% provient de centrales hydrauliques (39,5 TWh). Les centrales nucléaires comptent pour 33,5% de la production (22,1 TWh), les centrales thermiques pour 4% (2,4 TWh). Le photovoltaïque, le biogaz, le bois et les éoliennes ne représentent que 2,6% (1,7 TWh).

Cette nouvelle loi veut développer les énergies renouvelables hors hydraulique pour atteindre 4,4 TWh en 2020 et au moins 11,4 TWh en 2035. L’objectif est de maintenir la production hydraulique, en moyenne, au moins à 37,44 TWh en 2035.

Première étape d’un long processus !

Le projet avait été accepté par le Parlement en septembre 2016, mais le premier parti de Suisse, l’Union démocratique du centre (UDC) avait réussi à organiser un référendum contre la nouvelle loi. Il estimait que la mise en oeuvre du texte entraînerait des coûts élevés, menacerait l’approvisionnement énergétique et défigurerait le paysage avec la multiplication des éoliennes et des panneaux solaires.

Suite à la catastrophe de Fukushima en mars 2011, la Suisse projetait une sortie du nucléaire vers 2034. Durant plusieurs années, les autorités ont travaillé sur la stratégie énergétique 2050. Sa mise en oeuvre en prévue par étapes.

Par Matthieu Combe, journaliste scientifique

Un nouveau matériau pour purifier le gaz naturel

Le gaz naturel extrait du sol a besoin que l’on élimine l’eau et le CO2 qu’il contient, afin que seul le méthane reste présent. Cette séparation s’opère grâce à divers matériaux comme les zéolites, des cristaux d’aluminosilicates incroyablement poreux. Bien que très efficaces, ils demandent beaucoup d’énergie pour être régénérés entre chaque utilisation. Des chercheurs de l’université KAUST, de l’Institut Lavoisier Versailles et de l’Institut Charles Gerhardt Montpellier sont parvenus à concevoir un nouveau matériau extrêmement stable et facilement recyclable : KAUST-8. Il appartient à la famille des metal organic frameworks (MOF), des matériaux cristallins composés d’ions métalliques et de ligands organiques. Ce nouveau MOF est formé d’unités métalliques d’aluminium fluorés associés à des ligands pyrazine.

KAUST-8 se présente sous la forme d’un réseau tridimensionnel générant des tunnels si petits (0,36 nanomètre) qu’ils n’autorisent pas les molécules de méthane à pénétrer à l’intérieur. Les molécules d’eau et de dioxyde de carbone peuvent cependant y accéder et rester piégées par interactions avec des sites distincts : l’eau sur les sites métalliques d’aluminium et le dioxyde de carbone vers les atomes de fluor et la pyrazine, prédit par des simulations numériques. KAUST-8 est ainsi capable de purifier le gaz naturel avec des performances bien meilleures que celles des autres tamis moléculaires couramment employés. Ces travaux montrent également qu’il est possible de moduler les propriétés structurales et chimiques des MOF afin de les adapter à la séparation de molécules de taille plus grande, d’un intérêt majeur dans le domaine de l’énergie et de l’environnement.

Source : cnrs

Votre invitation sur SMART ENERGIES 2017 Expo & Summit, les 6 et 7 juin 2017

SMART ENERGIES SUMMIT

Smart Energies Summit a développé une programmation pointue visant à mettre en lumière les architectes du changement, qui participent jour après jour à l’écriture du futur de l’énergie.

DES CONFÉRENCES STRATÉGIQUES & RETOURS D’EXPÉRIENCE : Des CEO aux Top Dirigeants… Inspirez-vous des acteurs emblématiques de la scène intelligence énergétique en prenant part à des débats stratégiques d’avant-gardes ! Découvrez sans plus attendre les temps fort de ce sommet d’exception :

  1. Un paysage énergétique sous influence peer-to-peer…
  2. Les acteurs de la rupture façonnent le nouveau monde de l’énergie…
  3. Utilities, un métier en mutation…

Smart Energies Summit, c’est :

  • Plus de 30 conférences stratégiques et visionnaires
  • Plus de 40 speakers emblématiques
  • Plus de 500 décideurs attendus

Profitez de 30% de réduction sur votre accès Full Pass Conférences
avec TECHNIQUES DE L’INGÉNIEUR

SMART ENERGIES EXPO

Smart Energies Expo a pour ambition de vous offrir un panorama exhaustif des technologies et solutions qui bousculeront demain les modèles de performance en place ! Retours d’expériences, démos, ateliers…

Réservez gratuitement votre accès pour l’Expo !

DES ATELIERS : Bénéficiez de l’expertise projet et techno d’acteurs emblématiques de l’intelligence énergétique hexagonale, qui vous accompagneront demain sur l’ensemble de vos problématiques de transformation et de performance au travers d’une série de présentation de 30 minutes. Découvrez les sujets qui seront au cœur des débats de nos 5 pavillons thématiques :

  1. Digital Energy
  2. Smart grids, infrastructure
  3. Stockage et EnR
  4. Efficacité énergétique
  5. Smart Home / Smart Building

Smart Energies Expo, c’est :

  • Plus de 90 ateliers opérationnels et applicatifs
  • Plus de 130 speakers experts de la révolution énergétique
  • Plus de 80 marques leaders de l’intelligence énergétique
  • Plus de 4 000 décideurs attendus

L’EXPÉRIENCE SMART ENERGIES 2017 C’EST AUSSI …

LES SMART AWARDS : Inspirez-vous des projets d’intelligence énergétique les plus innovants et performants de la filière française et internationale !

DES RENDEZ-VOUS D’AFFAIRES : Smart Energies 2017 se positionne via sa plateforme exclusive de rendez-vous d’affaires comme la première place de marché hexagonale dédiée à l’intelligence énergétique. De l’identification de partenaires stratégiques au développement de votre réseau d’affaires, partez à la rencontre des acteurs les plus pointus de la scène intelligence énergétique nationale en les challengeant sur vos problématiques.

NETWORKING : Avec plus de 4 000 décideurs attendus dont 60% d’utilisateurs, Smart Energies 2017 est le rendez-vous B2B des professionnels qui façonnent la filière énergie de demain ! De l’échange de Best Practices entre pairs au développement d’opportunités business, l’évènement s’impose comme le temps fort incontournable de cette année 2017 !

Drivers For Change : la révolution est en marche, l’êtes-vous ?

RÉSERVEZ SANS PLUS ATTENDRE VOS 6 & 7 JUIN 2017 POUR PRENDRE PART AU RENDEZ-VOUS DE RÉFÉRENCE DE L’INTELLIGENCE ÉNERGÉTIQUE !

En savoir plus sur Smart Energies Summit et Smart Energies Expo.

Le robot social se professionnalise

L’annonce avait fait du bruit l’an dernier sur le salon Innorobo : Pepper, le robot-égérie de Softbank Robotics (qui avait absorbé le français Aldebaran), proclamait son arrivée officielle sur la scène européenne. Le groupe japonais, ciblant en priorité les entreprises, avait décidé du même coup de l’entourer d’un programme Partenaires. Objectif : attirer des spécialistes qui aideraient Pepper à s’installer dans le paysage économique professionnel, à l’instar de ce qui se passe déjà au Japon.

pepper

En France, Hoomano, qui développe des logiciels pour la robotique sociale (qui interagit avec les humains), a par exemple «adapté» Pepper aux besoins de la SNCF et Darty, pour guider le voyageur ou dynamiser la relation client en magasin. A voir sa progression, ce programme est un succès. «Nous comptions 23 partenaires au lancement il y a un an, rappelle Nicolas Boudot, directeur commercial Europe Moyen Orient Afrique de SoftBank Robotics. Ils sont aujourd’hui 70 dans toute l’Europe.» Des conditions sont imposées – achat d’un robot au minimum, formation de 5 jours… – en contrepartie d’un support technique dédié, d’un soutien marketing, etc.

Les profils de ces «compagnons de route» sont variés. «Ce sont des entreprises de services numériques généralistes comme GFI Informatique, et d’autres qui adressent des marchés verticaux plus spécifiques, explique Nicolas Boudot. Leur rôle consiste à ajouter la dernière brique et à façonner une solution-métier.» Ce modèle commercial à valeur ajoutée est à l’oeuvre depuis un bout de temps en robotique industrielle ou dans d’autres filières de la robotique de service, où les intégrateurs jouent un rôle intermédiaire entre le fabricant du robot et l’usine ou l’entreprise qui s’équipe. Dans une filière telle que la distribution informatique professionnelle, l’organisation est proche et implique des revendeurs, des ESN et des intégrateurs qui connaissent précisément les attentes des entreprises-clientes. Bien que les volumes de vente ne soient pas – encore – comparables, le fait que la robotique sociale commence à se structurer de la même manière est assurément un signe de maturité sur un marché assez nouveau.

Buddy à la conquête du B2B

C’est d’autant plus vrai que Softbank Robotics n’est pas un cas isolé en France. Malgré des ressources et une publicité sans commune mesure, la société française Blue Frog a dévoilé lors d’Innorobo 2017 son propre programme Partenaires, impliquant le robot Buddy. Celui-ci, dont la phase d’industrialisation se finalise, devrait arriver dans les magasins d’ici à la fin de l’année, à un prix de 1290 € TTC. «Mais un canal B2B et des applications professionnelles sur mesure sont envisagés, déclare Rodolphe Hasselvander, le fondateur de Blue Frog. Des intégrateurs comme Hoomano, One Point, Conserto et Awabot pourront répondre aux besoins des entreprises-clientes.» Il est question d’accueil, d’accompagnement interactif dans le monde de l’éducation… «Des producteurs de contenu (Nathan, Ubisoft…), des entreprises qui veulent inclure Buddy dans leur offre de services et des experts du Smart Home (Somfy, Delta Dore) nous ont également rejoints» poursuit Rodolphe Hasselvander. Une personne a été recrutée pour superviser cette stratégie.

buddy1140

La société limougeaude Cybedroid adopte une posture moins officielle pour sa dernière création humanoïde, Leenby. «Il est difficile de mettre en place un équipe dédiée et de formaliser un programme Partenaires, alors que nous sommes une toute petite équipe, confie Fabien Raimbault, le PDG. Cela ne nous empêche pas de travailler depuis l’été 2016 avec Hocaro, qui utilise notre robot à destination des EHPAD (Etablissement d’hébergement pour les personnes âgées dépendantes) ou encore Inbenta, qui le configure pour l’accueil en agence bancaire. Nous conservons en revanche un schéma de vente directe pour les particuliers. Mais il n’est pas question de brûler les étapes.» Une démarche prudente mais raisonnable pour des fabricants de robots qui ne sont généralement que des start-ups.

Par Frédéric Monflier

Recherche et innovation : quels chantiers pour Frédérique Vidal ?

Après avoir suivi une maîtrise de biochimie à l’Université de Nice, un DEA en virologie fondamentale à l’Institut Pasteur, et un doctorat en sciences de la vie à nouveau à Nice, Frédérique Vidal est engagée en tant que maître de conférences en 1995 par l’Université de Nice. Elle y devient Professeur en sciences de la vie dans cette même université  en 2004. Puis, elle gravit doucement les échelons. Elle devient notamment directrice du département Sciences de la vie de 2005 à 2008. Puis directrice de la faculté des sciences de 2009 à 2012. Avant de prendre la tête de l’Université niçoise en 2012.

Présidente d’Université dont l’action est reconnue, elle avait été réélue en avril 2016 pour un nouveau mandat de 4 ans. Elle est par ailleurs experte pour l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AÉRES) depuis 2007. Et pour l’Union européenne dans le cadre de l’université euro-méditerranéenne depuis 2010. Un engagement européen chéri par Emmanuel Macron.

Une généticienne pour un nouveau ministère

« Son activité dans le domaine de la recherche est concentrée sur la génétique moléculaire, discipline très expérimentale, avec la mise en place de modèles cellulaires et animaux », indique son CV sur le site  de l’Université Nice-Sofia-Antipolis. Elle est notamment à l’origine de la création du futur campus étudiant à Cannes prévu pour la rentrée 2019. Il formera notamment un millier d’étudiants autour des métiers de l’audiovisuel, du cinéma et des jeux-vidéos.

Les questions d’enseignement supérieur et de recherche étaient jusqu’ici tenues par un secrétaire d’Etat rattaché au ministère de l’Éducation nationale. Frédérique Vidal remplace ainsi Thierry Mandon qui occupait ce poste depuis juin 2015. La nouvelle ministre s’y voit adjoindre l’innovation. Il s’agit d’ « un excellent signal adressé à la communauté universitaire », se félicite la Conférence des Présidents d’Université dans un communiqué.

Des chantiers importants à traiter

Plusieurs sujets chauds attendent Frédérique Vidal. Le 8 mai, la pétition Le hasard ne décidera pas de mon avenir ! a été lancée. Elle a déjà collecté plus de 9.000 signatures. Elle s’indigne contre une circulaire officialisant le tirage au sort dans les licences universitaires en tension (Staps, PACES, Droit ou encore en Psychologie). Celle-ci a été publiée en toute discrétion durant l’entre-deux-tours de l’élection présidentielle. « L’Etat démontre par cette circulaire l’aveu d’échec de notre système éducatif », insistent les lanceurs d’alerte. Ils demandent l’abrogation de cette circulaire et une « réforme ambitieuse » pour « permettre à tous les jeunes titulaires du BAC d’accéder aux études supérieurs ».

Par ailleurs, la ministre devra prendre à bras le corps le sujet du chômage, la diminution des postes de permanents dans les organismes de recherche et à l’université au profit de postes précaires. Elle devra ainsi redorer le blason de l’université et de la recherche française pour éviter la fuite de nos jeunes cerveaux à l’étranger.

La passation de pouvoirs entre Frédérique Vidal et Thierry Mandon est prévue pour jeudi matin, juste avant le premier Conseil des ministres du gouvernement d’Edouard Philippe.

Par Matthieu Combe, journaliste scientifique

Nicolas Hulot, ministre de la transition écologique et solidaire !

C’est un petit séisme dans le monde écologiste. Nicolas Hulot avait refusé plusieurs postes et têtes de ministère, que cela soit sous Jacques Chirac, Nicolas Sarkozy ou François Hollande. Il avait aussi renoncé à se présenter à la Présidentielle en 2007 au profit d’un pacte écologique signé par les principaux candidats. Il était ensuite entré dans la course à la Primaire écologiste en 2011, mais avait été battu à plate couture par Eva Joly.

Nicolas Hulot avait finalement accepté le poste bénévole d’envoyé spécial du président François Hollande pour la protection de la planète de décembre 2012 à fin janvier 2016. L’objectif était de mobiliser l’opinion internationale sur l’urgence de la crise écologique et de parvenir à un accord à la COP21. A 62 ans, il entre pour la première fois dans un gouvernement.

Nicolas Hulot, représentant des ONG

Emmanuel Macron a entendu les attentes des organisations environnementales. Dans une lettre ouverte datée du 9 mai dernier, 8 ONG environnementales, dont le WWF, la fondation Nicolas Hulot et France nature environnement, appelaient Emmanuel Macron à mettre en place un grand ministère de l’Environnement. A sa tête, elles demandaient un ministre d’État, « numéro deux dans l’ordre protocolaire ». En nommant Nicolas Hulot, Macron fait appel à une personne de la société civile, respectée dans le monde associatif. Dans l’ordre protocolaire, Nicolas Hulot est deuxième ministre d’Etat après Gérard Collomb, nommé ministre de l’Intérieur.

Nicolas Hulot aura notamment pour mission d’assurer l’application de la loi de transition énergétique pour la croissance verte. Pour respecter la loi de transition énergétique et l’Accord de Paris, de nombreux défis restent à surmonter. Durant le quinquennat, il faudra aussi trancher plusieurs grands projets, critiqués par les associations environnementales : Notre-Dame des Landes, Cigéo, l’EPR de Flamanville.. Si Nicolas Hulot s’est fermement engagé contre ces projets, ce n’est pas la position d’Emmanuel Macron ni du premier ministre Édouard Philippe.

De futures oppositions entre Nicolas Hulot et Edouard Philippe ?

Edouard Philippe a été directeur des affaires publiques d’Areva entre 2007 et 2010. En tant que député, il s’était d’ailleurs opposé et avait voté contre la Loi Biodiversité et la Loi de transition énergétique pour la croissance verte. Comme l’ensemble des députés de droite. Il s’était aussi prononcé favorablement pour la réouverture du dossier gaz de schiste à l’Assemblée nationale. Cette nomination a été ouvertement critiquée par les ONG qui redoutaient que l’environnement soit relégué au second plan durant le prochain quinquennat.

L’entrée de Nicolas Hulot au gouvernement fera certainement taire les critiques de ces derniers jours. Par cette décision, Emmanuel Macron montre qu’il entend bien faire de la transition écologique l’une de ses priorités. Si celle-ci occupait une faible part dans son programme, elle était au coeur des projets de Benoît Hamon et de Jean-Luc Mélenchon.

Ségolène Royal émue, continuera « le combat climatique»

Au micro de BFMTV, Ségolène Royal s’est montrée très émue. Elle reconnait l’implication de Nicolas Hulot et pense que « ce ministère sera entre de bonnes mains ». « Un travail formidable l’attend », juge-t-elle. Elle a néanmoins regretté ne pas pouvoir continuer son travail dans un autre ministère. A présent, elle fait part de son intention de créer son entreprise dans le domaine de la croissance verte et de la finance verte « pour passer des discours aux actes ». « Je vais continuer le combat climatique, parce que c’est l’engagement de toute une vie », prévient-elle.

Nicolas Hulot est farouchement opposé aux traités commerciaux transatlantiques, défend l’agriculture biologique et l’agroécologie. Il est opposé au projet d’aéroport de Notre-Dame-des-Landes et adepte de la réduction du nucléaire au profit des énergies renouvelables.

Par Matthieu Combe, journaliste scientifique

Smart Manufacturing Summit 2017

L’ÉVÉNEMENT DES DÉCIDEURS DE L’INDUSTRIE DU FUTUR

► 5 Conventions d’affaires : Un planning de 34 plages horaires vous est affecté : 5 conventions d’affaires se déroulent conjointement, sélectionnez des participants au sein des différents meetings pour constituer votre agenda de rendez-vous qualifiés et préprogrammés idéal :

  • ADDITIVE & PROTOTYPING DAYS : Rendez-vous d’affaires et exposition sur les Technologies et Process pour l’Usine du Futur
  • OPTICS & PHOTONICS DAYS : Rendez-vous d’affaires et exposition sur les technologies Optiques et Photoniques
  • MECHATRONICS DAYS : Rendez-vous d’affaires et exposition sur les systèmes Mécaniques, Mécatroniques et Robotiques.
  • ELECTRONICS & EMBEDDED DAYS : Rendez-vous d’affaires et exposition sur les technologies de l’Electronique et des Systèmes Embarqués
  • INDUSTRIAL EFFICIENCY DAYS : Rendez-vous d’affaires et exposition dédiés aux Green technologies, Waste & Smart buildings

► 6 villages thématiques sont à votre disposition pour développer vos réseaux informels

  • IT & CONNECTIVITY SOLUTIONS : Exposition dédiée aux systèmes avancés de production, CPS, M2M, Big Data et Cyber-sécurité
  • OPEN INNOVATION VILLAGE : Exposition dédiée au développement et solutions d’Open Innovation
  • IOT & ROBOTICS : Exposition dédiée au Numérique, la Connectivité et la Robotisation dans l’Industrie
  • OPTICS & PHOTONICS : Exposition dédiée sur les technologies Optiques et Photoniques
  • LE VILLAGE DES GRANDS DONNEURS D’ORDRES : Entre deux rendez-vous, rencontrez en rdv informels les grands comptes à la recherche de solutions innovantes !
  • CYBER SECURITY : Exposition dédiée aux solutions de sécurité numérique : Machines, IOT, EDI, Mobilité, sites…

► Un Congrès

Ce congrès sera animé par les VP de grands groupes présentant leurs avancées et projets relatifs à leur démarche de Smart Manufacturing.

► Un Start-up Challenge

Parce que l’innovation est au cœur de toutes les stratégies, 10 start-up & PME seront sélectionnées par un comité d’experts et concourront pour gagner les prix “Start-up challenge”. Thématiques : Toutes thématiques liées à l’Industrie du Futur.

► Organisation

SMS17 est organisé par : CAP’TRONIC, CAP DIGITAL, l’AFOP, ASTech, MOV’EO, RAVI, le COMITE MECANIQUE Ile-de-France

Avec le soutien de : L’Europe, la région Ile-de-France, L’Alliance pour l’Industrie du Futur, le CNOP, OpticsValley.

► POUR EN SAVOIR PLUS :

TÉLÉPHONE : +33 (0)1 46 90 19 05 / E-MAIL : [email protected] / SITE : www.smart-manufacturing-summit.com

Projection du son : la supériorité des Stradivarius remise en question

La projection du son est la capacité d’un instrument à remplir l’espace lors d’un concert, à porter jusqu’au fond d’une salle ou à passer au-dessus d’un orchestre. Elle est particulièrement  importante par les solistes. La projection des violons italiens des XVIIe et XVIIIe siècles, et notamment celle des Stradivarius, est souvent considérée comme supérieure à celle des violons plus récents. L’équipe de recherche dont fait partie Claudia Fritz, chercheuse CNRS à l’Institut Jean Le Rond d’Alembert (CNRS/UPMC), en collaboration avec le luthier américain Joseph Curtin, a donc voulu vérifier cette supériorité présumée lors de deux expériences ayant fait appel à 137 auditeurs : 55 dans un auditorium à Paris, 82 dans une salle de concert newyorkaise. Les auditeurs devaient juger neuf paires de violons – constituées d’un violon ancien et d’un violon récent – suivant deux critères : la préférence personnelle et la projection sonore. Afin de ne pas influencer les jugements, les expériences ont été menées en double aveugle, en dissimulant la nature de chaque instrument aux violonistes et au public.

Les résultats de l’étude montrent qu’en moyenne, les auditeurs préfèrent les violons récents aux Stradivarius et trouvent qu’ils projettent davantage. De plus, à l’instar des violonistes, l’auditoire ne parvient pas à distinguer systématiquement les deux types de violons. Deux études menées en aveugle par la même équipe, en 2010 et en 2012, avaient en effet montré que les violonistes préféraient les instruments récents aux célèbres violons italiens, en étant toutefois incapables de les différencier.

Cette étude révèle que, contrairement aux idées reçues, les solistes auraient intérêt à privilégier les violons récents pour leurs concours, leurs auditions et leurs concerts, à condition que la provenance de leur instrument reste inconnue du jury et des auditeurs. Par ailleurs, inciter les violonistes à effectuer des tests en aveugle leur permettrait de porter leur choix sur un instrument sans être influencés par le prestige associé à un célèbre nom de luthier.

Source : cnrs

Innorobo 2017 ouvre ses portes

Du 16 au 18 mai, la septième édition du salon Innorobo reprend ses quartiers aux Docks de Paris, situés au nord de la capitale. Quelque 150 exposants y présenteront leurs travaux et innovations en matière de robotique, de drones, d’impression 3D et d’intelligence artificielle. L’édition précédente, qui pour la première fois se déroulait à Paris et non plus à Lyon, avait accueilli environ 10 000 visiteurs d’une quarantaine de nationalités. Sans doute les organisateurs espèrent-ils faire au moins aussi bien…

A mesure que la transformation robotique gagne l’industrie, le transport ou encore les services à la personne, ce salon se veut de plus en plus un événement orienté «business» et un espace de débats et d’échanges entre tous les acteurs de la filière. A ce titre, des sessions interactives nommées Flipped Pitch sont à la disposition des entreprises et organismes publics qui souhaitent exposer leurs problématiques, technologiques ou économiques, et trouver une solution auprès d’experts en robotique.

Comme à son habitude, Innorobo sera ponctué d’interventions et de conférences qui aborderont plusieurs thématiques d’importance. A commencer par les États Généraux de la Robotique, qui se dérouleront lors de la première journée. En perspective : état du marché de la robotique en France et bilan des dernières actions de l’État pour inciter les entreprises à s’équiper. Une réflexion sera également menée sur les métiers et la formation en robotique.

Le 17 mai sera mis à l’honneur le métier méconnu d’intégrateur, qui sert d’intermédiaire entre le fabricant du robot et le client, par exemple l’entreprise, qui en fera l’usage. Des intégrateurs auront l’occasion de parler de l’évolution de leur profession et des nouveaux enjeux et opportunités qui y sont liés. Enfin, la dernière journée mettra l’accent sur les relations entre la robotique et le monde de l’éducation.

Soucieux du rayonnement du salon à l’international, les organisateurs ont par ailleurs invité des délégations coréenne et chinoise à promouvoir leur savoir-faire. La Corée du Sud est en effet le leader mondial dans le secteur de la robotique de services et la Chine représente le premier marché mondial de la robotique industrielle, avec 27% des 253 750 robots achetés en 2015 (source Fédération Internationale de la Robotique). En Europe, les industries allemandes puis italiennes s’équipent le plus, loin devant les françaises, malgré une progression de 3 % des achats.

Frédéric Monflier

Comment une faille Windows a rendu possible une cyberattaque mondiale

Un grand classique : lancer une attaque informatique le vendredi soir quand les entreprises commencent à fermer et à mettre en « pause » leur sécurité… C’est ce qui s’est passé avec la cyberattaque baptisée « WanaCrypt ». C’est l’un des noms du code malveillant qui s’est propagé à très grande échelle vendredi à partir de 3 h 24 (ET).

Rapidement, près de 200.000 ordinateurs situés dans au moins 150 pays ont été touchés par ce virus de type « rançongiciel » (ou ransomware). Schématiquement, ce code malveillant infecte l’ordinateur par l’intermédiaire d’une pièce jointe à un email et chiffre (ou crypte) toutes les données enregistrées et partagées. Pour les récupérer, les pirates réclament une rançon, en l’occurrence 300 dollars, à payer en bitcoins. Ce lundi matin, « 160 transactions avaient été enregistrées, pour un total de 23,89 bitcoins, l’équivalent de 37.767 euros », indique le quotidien Les Échos.

I loveYou, Slammer…

Les victimes sont principalement des entreprises. « En Europe, c’est la Grande-Bretagne qui a été la plus sévèrement touchée : le système informatique du NHS, le service de santé britannique, a été quasi paralysé par le logiciel. Dans de nombreux hôpitaux, les opérations non urgentes ont dû être repoussées ; l’administration ne sait pas encore si des données ont été perdues. Ailleurs en Europe, plusieurs grandes entreprises ont été touchées, dont l’opérateur Telefonica en Espagne, les chemins de fer allemands, et Renault, qui a connu des perturbations sur des chaînes de montage. La Russie et l’Inde ont également été particulièrement touchées en nombre d’ordinateurs infectés », précise Le Monde.

Si la propagation a été très rapide c’est parce que les pirates ont profité d’une faille de sécurité de Microsoft Windows dont l’existence n’a été révélée que très récemment. Elle figurait parmi un ensemble d’outils de piratage appartenant à la NSA (l’agence de renseignement américaine) qui ont été révélés début 2017 par un groupe mystérieux se faisant appeler « The Shadowbrokers ». L’éditeur avait mis à disposition un correctif pour y pallier depuis mars. Mais comme toujours, de nombreuses entreprises ne les appliquent pas ou avec beaucoup de retard. Et surtout, ce patch ne concernait pas Windows XP, le système d’exploitation vieux de 15 ans, mais encore présent dans de nombreuses entreprises et en particulier chez des industriels. Dans l’urgence, Microsoft en a sorti un samedi.

Cette propagation a également été facilitée par le recours à une vieille technique : le ver informatique. Il s’agit d’un virus particulier car il est capable d’exploiter les fonctionnalités réseaux que les autres ne font pas. Il peut en effet se diffuser tout seul via des services de messagerie instantanée ou de courrier électronique. Le principal vecteur de propagation est la pièce-jointe à un email.

Ce type de code malveillant a fait des ravages au début des années 2000. Qui se souvient encore du ver « IloveYou » qui s’est propagé via des pièces jointes en mai 2000 et a infecté plus de 45 millions d’ordinateurs dans le monde.

Trois ans plus tard, ce sera autour Blaster/Lovsan. Au mois d’août 2003, ce ver se répand sur toute la toile en quelques minutes en exploitant une faille de Windows rendue publique… le 16 juillet 2003. Afin qu’il ne soit pas repéré, son concepteur a diffusé 5 autres variantes en moins de 60 jours.  Enfin, le même mois, Sapphire/Slammer  infecte en 10 minutes quelque 75 000 serveurs dans le monde et bloque 13.000 distributeurs automatiques de billets de la Bank of America pendant plusieurs heures aux États-Unis.

Wanacrypt n’atteindra peut-être pas ce niveau. Ce week-end, un jeune anglais a déclaré avoir trouvé par hasard une parade pour stopper sa propagation. Mais les pirates pourraient proposer rapidement une version 2…

Par Philippe Richard

Le maïs MON 810 sans risques ?

Le groupe de travail sur les OGM de l’Efsa a évalué le rapport annuel 2015 de Monsanto portant sur le suivi environnemental post-commercial du maïs MON 810. Son avis est publié le 8 mai 2017. Ce maïs sécrète la protéine Cry1Ab, une toxine insecticide, autrement appelée Bt. « Les données de surveillance [au Portugal et en Espagne fournies par Monsanto à l’EFSA] n’indiquent pas une diminution de la sensibilité des ravageurs du maïs à la protéine Cry1Ab durant la saison 2015 », conclut l’agence sanitaire européenne. Autrement dit, les insectes ne sont pas encore devenus résistants à cet OGM. Par ailleurs, aucun effet indésirable n’a été observé chez l’homme ou l’animal.

Au final, l’Efsa estime qu’il n’y a aucune preuve qui pourrait invalider les évaluations précédentes sur la sécurité du maïs MON 810.

Toutefois, le groupe de travail réitère ses recommandations précédentes pour améliorer la méthodologie. Elle considère que la sensibilité de détection pour surveiller la résistance des insectes est pour le moment insuffisante.

Le maïs MON810 en Europe et dans le monde

Dans l’Union Européenne, 4 pays ont cultivé le maïs génétiquement modifié de Monsanto en 2016. Pour un total de 136.363 hectares, en hausse de 17 % par rapport à 2015, selon l’ISAAA, un organisme international de promotion des OGM. En première position se trouve l’Espagne, avec 129.081 hectares. Puis le Portugal (7.069 hectares), la Slovaquie (138 hectares) et la République Tchèque (75 hectares). En 2016, la Roumanie a totalement arrêté la culture des OGM . Elle cultivait 770 hectares de MON810 en 2014, mais plus que 2,5 hectares en 2015. Mis à part l’Espagne où les surfaces continuent leur progression, les OGM enregistrent un recul dans les autres pays européens.

Le maïs est le deuxième OGM le plus cultivé au monde derrière le soja. En 2016, 26% du maïs cultivé dans le monde était transgénique. Cette même année, la surface mondiale des cultures d’OGM a atteint 185,1 millions d’hectare, en hausse de 3% par rapport à 2015. Sur 26 pays qui cultivent des OGM dans le monde, le top 5 sont les Etats-Unis, le Brésil, l’Argentine, le Canada et l’Inde. Aux Etats-Unis, en Argentine, au Brésil, au Canada, en Afrique du Sud et en Uruguay, plus de 90% du maïs cultivé est génétiquement modifié.

Par Matthieu Combe, journaliste scientifique

Vie privée : que faire si vous avez été piraté

Se faire pirater (sur Internet) peut virer au cauchemar, comme l’a vécu Matt Honan, journaliste américain, en 2012. Il avait alors perdu le contrôle de ses comptes et avait vu toutes les données de son ordinateur supprimées.

Ses comptes Gmail, Twitter et Apple avaient été piratés par un hacker, “Phobia”. Le pirate avait tenté de détourner le compte Twitter du journaliste en utilisant l’adresse email rattachée au compte. Pour pirater cette adresse email, le hacker a d’abord réussi à prendre contrôle de “l’adresse de secours” utilisée par Gmail – un compte iCloud. Et ainsi de suite – tous les comptes de Mat Honan étant rattachés. Une fois hacké, Mat Honan s’est bien entendu dépêché de sécuriser ses comptes.

A la chasse aux e-mails suspects

Que faire, si vous avez, vous aussi, été piraté ? Tout d’abord, changez les mots de passe, et si possible, les nom d’utilisateur de tous vos comptes – y compris (surtout) ceux que vous n’utilisez presque pas. Ces derniers comptes sont les plus exposés, car de l’immobilité naît le risque.

Ensuite, inspectez minutieusement vos boites mails – la boîte “messages envoyés” et la corbeille, à la recherche d’une activité suspecte, ou d’informations confidentielles que vous auriez partagé. Par exemple, si vous avez commis l’imprudence d’envoyer un RIB, ou encore un mot de passe par e-mail, à quelqu’un de confiance ou à vous-même, supprimez-vite le message en question.

Si vous trouvez des emails envoyés qui ne sont pas de vous, contactez vite le destinataire, pour lui indiquer qu’il s’agit d’un piratage, et qu’il ne faut surtout pas y répondre, ou cliquer sur les liens (sûrement frauduleux) proposés dans le message.

Vérifiez ensuite dans les paramètres de votre webmail (Gmail ou autre) si aucune adresse e-mail extérieure et inconnue n’est rattachée à votre compte (ce qui permettrait, par exemple, à un hacker discret de recevoir sur sa boite mail, des copies de vos messages) – et agissez le cas échéant. Prévenez ensuite vos amis, une fois la situation sous contrôle.

Reprenez la main sur vos comptes

Une fois votre adresse email sécurisée (le plus important), il vous reste désormais à récupérer vos comptes piratés, ceux qui vous sont inaccessibles, même en tentant de réinitialiser les mots de passe. La majorité des services les plus populaires proposent des formulaires à remplir, vous permettant de faire valoir vos droits.

Ainsi, vous trouverez sur Facebook, Twitter, Instagram, Google Plus, YouTube, Gmail, Microsoft Outlook, Yahoo!, Skype, Steam, Orange, et Apple (iCloud, iTunes), des espaces dédiés aux requêtes de récupération de comptes piratés, et de réinitialisation de mots de passe. Des questions de sécurité vous seront probablement posées. Si le service piraté ne propose pas ce genre de formulaire, alors mieux vaut éviter de l’utiliser à nouveau, simple conseil.

Si jamais un hacker a piraté vos comptes “dans les nuages” (iCloud, Drive…), effaçant ensuite les données que vous aviez stockées sur votre tablette ou votre smartphone, comme ce fut le cas pour Mat Honan, vous pouvez les récupérer en vous tournant vers une société spécialisée. Mais attention à vous adresser à un prestataire de confiance, comme Kroll Ontrack.

A l’avenir, soyez prudent

Une fois toutes ces étapes traversées, il ne vous reste plus qu’à adopter une nouvelle hygiène de vie numérique – afin d’éviter de vous faire pirater à nouveau. Tout d’abord, changez de mots de passe régulièrement, tous les 3 mois en moyenne – et utilisez des mots de passe complexes. Ensuite, n’utilisez jamais le même mot de passe pour plusieurs comptes (si vous avez peur d’avoir un trou de mémoire, les coffres-fort de mots de passe sont là pour cela), et ne liez plus vos comptes entre eux.

Limitez également les informations personnelles diffusées en ligne : votre mot de passe peut être facile à deviner pour un pirate informatique s’il se réfère à des informations personnelles, comme votre date de naissance, le nom de votre fils ou de votre conjoint. Ne reliez donc pas vos mots de passe avec des éléments personnels, et faites attention aux informations que vous diffusez sur Internet, susceptibles d’aider un hacker à vous pirater.

Pour sécuriser une fois pour toute vos comptes, l’authentification en deux étapes est un système très efficace : à chaque connexion, un code spécial vous sera demandé. Le service utilisé (Google, Facebook, etc.) vous le transmettra par SMS ou message vocal, sur votre smartphone. Cela peut sembler fastidieux, mais ce système ferme la porte aux pirates.

Enfin, sécurisez vos e-mails, en faisant attention à ce que le protocole de chiffrement des données échangées sur Internet, le TLS (Transport Layer Security), soit utilisé. Il est possible de distinguer une connexion TSL d’une connexion normale : au lieu de commencer par “http”, l’adresse commence par la formule “https”. Vous pouvez aussi utiliser un logiciel de chiffrement des e-mails, comme GnuPG, qui repose sur l’échange de clés publiques et privées.

Par Fabien Soyez

4 transactions via votre carte de crédit pourraient révéler votre identité

Il suffit de 3 « traces numériques », des métadonnées, pour vous identifier dans une masse de données « anonymisées ». C’est ce que révèle une étude effectuée par des chercheurs du MIT.

Il faut donc avoir en sa possession trois traces : les montants dépensés, le type de commerce (restaurant, bar, supermarché) et le code qui représente chaque personne. En clair, selon les chercheurs, qui ont publié leur étude dans la revue Science, les noms des clients, les numéros de carte de crédit, les adresses des magasins et l’heure des transactions sont « effacés », mais cela ne suffit pas à garantir un véritable anonymat.

À partir des 3 informations pré-citées, il est possible d’établir un « modèle de dépenses » (aussi unique qu’une empreinte digitale) et ensuite d’identifier quelqu’un, avec un taux de certitude de 90 %, dans une base de données de 1,1 million de personnes « anonymes ». La base de données utilisée par les scientifiques du MIT, obtenue auprès d’une banque, contenait 3 mois de transactions par cartes de crédit, effectuées dans 10 000 magasins.

Une « attaque de corrélation »

Selon l’étude, 4 renseignements sur une personne (facilement récupérables dans des reçus et des factures) suffisent pour mener une « attaque de corrélation » − en associant (via un algorithme) ces 4 renseignements extérieurs aux 3 données permettant d’établir le « modèle de dépenses » nécessaire à son identification. Par exemple, il suffit de savoir où monsieur X se trouvait (et effectuait des achats) à 4 moments différents, puis de croiser ces informations avec les données correspondantes (stockées dans la base de données), pour retrouver monsieur X et le « ré-identifier ».

Tout est une question de probabilités et de « corrélations statistiques » : un client se rendant dans un magasin de vêtements à un moment donné, puis dans un café l’heure suivante, avant de se rendre dans un restaurant, puis dans une salle de sports, sera presque « unique ». Pour obtenir ce genre de données, les chercheurs ont pour leur part utilisé les « fuites » d’une poignée de gros sites.

« Notre article pointe les limites de l’anonymisation des fichiers de données. Il doit ouvrir le débat technique et réglementaire pour limiter les risques de la diffusion de fichier », explique au Monde Yves-Alexandre de Montjoye, le doctorant du MIT à l’origine de cette étude.

Prudence face au « Big Data »

Pour préserver l’anonymat, rendre les données moins précises ne suffit pas, indiquent les chercheurs, car il suffit à une personne malintentionnée de récupérer des informations externes supplémentaires (pour cela, il suffit de se rendre sur le Web, où les « traces » numériques abondent, en particulier sur les réseaux sociaux, et de les « « aspirer ») pour ré-identifier quelqu’un.

Pour les chercheurs du MIT, la prudence est de mise, et pas question de partager publiquement des ensembles bruts de données de ce type, comme le voudraient les aficionados du « Big Data ». Ainsi, indiquent les scientifiques, ces ensembles de données ne doivent-ils être « libérés » pour analyse que si « l’accès aux enregistrements individuels et l’analyse de corrélation avec des données externes sont bloqués ».

« Le message est que nous devrions repenser et reformuler la façon dont nous pensons à la protection des données. L’ancien modèle d’anonymat ne semble pas être le bon quand on parle de métadonnées à grande échelle », indique Yves-Alexandre de Montjoye au New-York Times. Et de conclure : « l’absence de noms, d’adresses, de numéros de téléphone ou d’autres identifiants évidents dans les données, ne les rend pas anonymes et ne permet pas de les distribuer en toute sécurité au public et aux tiers ».

Par Fabien Soyez

La sécurité du Web face à l’informatique quantique

L’avenir de l’informatique est-il dans les ordinateurs quantiques ? En s’appuyant sur les propriétés quantiques de la matière, ces machines hypothétiques permettraient de réaliser des calculs combinatoires complexes, irréalisables avec les machines actuelles.

A la différence du système numérique classique, qui repose sur des données codées en chiffres binaires, le calcul quantique utilise le “bit quantique”, ou “qubit” – la plus petite unité de stockage d’information quantique. Contrairement au “bit”, qui prend soit la valeur d’un 0, soit la valeur d’un 1, le “qubit” est une combinaison linéaire. Il peut prendre la valeur 0 ou 1, mais aussi les deux ensemble – selon le principe de la superposition d’états quantiques, comme illustré dans l’expérience du chat de Schrödinger, où un atome peut être à la fois intact et désintégré.

Cette technologie, qui devrait permettre de démultiplier le potentiel de calcul, est l’un des chevaux de bataille de Google, qui tente, avec l’université de Santa Barbara, de concevoir un ordinateur quantique. Avec la NASA, la firme a aussi créé la “ Quantum A.I. Lab Team”, avec pour objectif de développer une intelligence artificielle grâce à l’informatique quantique.

La fin du chiffrement asymétrique ?

L’informatique quantique devrait aussi bouleverser le Web actuel, avec des conséquences plus ou moins négatives. Car cette nouvelle technologie permettra, selon l’expert Renaud Lifchitz, de briser le chiffrement asymétrique et les algorithmes RSA, utilisés dans presque tous les domaines touchant la sécurité de la Toile.

“D’ici 25 ans, tous les systèmes asymétriques vont tomber. Il faudra donc trouver une solution alternative”, avait-t-il expliqué en novembre dernier lors de la No Such Conference 2014, à Paris. Le chiffrement RSA repose sur la difficulté de factoriser les grands nombres en nombres premiers, mais avec des calculs quantiques, il deviendrait possible de casser l’algorithme asymétrique.

Pour être la première à profiter de ce type “d’attaques quantiques”, la NSA investit massivement dans un projet baptisé “Penetrating Hard Targets”, destiné à concevoir un ordinateur capable de “briser qui pourrait briser presque tous les types de chiffrements utilisés pour protéger les banques, les transactions en ligne, les entreprises et les documents gouvernementaux dans le monde entier”, indique le Washington Post.

Code du sac à dos et chiffrement quantique

Face à ces menaces, deux mathématiciens, Nathan Hamlin et William Webb, effectuent des recherches en “cryptographie quantique”. Ils auraient conçu un code de chiffrement capable de résister aux piratages reposant sur des ordinateurs quantiques. Pour cela, ils ont modifié un algorithme remontant aux années 1970 – le “knapsack code”.

Ce problème d’optimisation combinatoire (en français, le “problème du sac à dos”), très difficile à résoudre, “fut un temps envisagé comme un outil de chiffrement, mais cette idée fut abandonnée quand la clé publique créée fut cassée”, explique William Webb, à la Washington State University. Les chercheurs ont “réalisé des corrections dans la base du code”, comblant de nombreux “points faibles”, jusqu’à concevoir un nouvel algorithme, qui n’utilise que des clés publiques, et qui serait capable, affirment-ils, de déjouer les attaques quantiques.

D’ici à la validation du code de Hamlin et Webb par leurs pairs, le chiffrement quantique permet, d’ores et déjà, d’échanger en toute sécurité des clés privées. Il utilise les propriétés de la physique quantique pour établir des protocoles de chiffrement – par exemple, dans le cas du Protocole BB84, en envoyant des photons polarisés par fibre optique. Seul hic : si cette technologie, déjà utilisée par de nombreuses entreprises, est très efficace, elle reste difficilement applicable au Web, en raison des distances de  transmission quantique des clés de chiffrement – pour l’instant, la distance record est de 67 kilomètres.

Par Fabien Soyez

Les conseils d’un hacker pour rester anonyme sur le web

Avec un titre comme « The art of invisibility », et la photo de Kevin Mitnick, l’éditeur ne prend pas de risques : le dernier livre de ce célèbre hacker va se vendre facilement. La période est en effet propice à ce type d’ouvrage tant nous sommes surveillés et épiés par des régies publicitaires, les GAFA, voire même pour certains par des agences de renseignement. Il suffit de lire le livre de Tristan Nitot pour s’en rendre compte.

S’adressant à un public un peu plus « averti » que celui de Tristan Nitot, le livre de Kevin Mitnick donne des conseils très précis. Avec une constance : être pragmatique (d’aucuns parleront plutôt de paranoïa…). Il est vrai que le monsieur connaît son domaine. Sous le pseudo « Le Condor », en référence au film de Sydney Pollack Les Trois Jours du condor, Kevin Mitnick est le plus célèbre des hackers. Né en 1963 sous le soleil californien, il se fait repérer dès l’âge de 17 ans. Il décroche sa première condamnation (trois mois de détention en centre de redressement) pour avoir pénétré le central téléphonique de Pacific Bell à Los Angeles et détourné des lignes téléphoniques à titre personnel (une technique appelée « phreaking », contraction de phone et de freaks).

Mais cette première condamnation ne refroidit pas le garnement. Quelques mois plus tard, il récidive en pénétrant les réseaux de Fujitsu, Motorola, Nokia et Sun Microsystems. Une sorte d’échauffement avant de s’attaquer, en 1982, au Pentagone en s’infiltrant dans l’ordinateur du commandement de la défense aérienne américaine ! Le FBI mettra deux ans avant de mettre la main dessus en 1995…

Une discipline de fer

Quels sont ses principaux conseils ? Première étape, acheter en cash un ordinateur portable pour être sûr de n’avoir aucune trace de ses précédentes activités sur le web. Ensuite, pas question d’installer Windows (système d’exploitation trop curieux pour cet expert). Il faut plutôt utiliser la distribution Tails Linux qui laisse très peu de traces et qui intègre Tor Browser. Ce dernier deviendra votre navigateur par défaut.

Oubliez également d’utiliser ce PC pour faire vos achats ou consulter vos emails : il ne doit servir qu’à des connexions anonymes. « Ne vous loguez jamais à un site ou une application sous votre réelle identité (…). Les sites utilisent fréquemment des techniques de fingerprinting, matériel pour minimiser la fraude, ce qui permettra d’identifier votre ordinateur quand vous vous connecterez sur les mêmes sites de façon anonyme », explique Kevin Mitnick. Pour les achats, il faut donc oublier sa carte bancaire et opter pour des bitcoins (l’anonymat est poussé à l’extrême en les achetant avec des cartes cadeaux ou prépayées anonymes comme Paysafecard). Quant aux emails, il conseille d’ouvrir un compte sur protonmail.com (un site de messagerie très sécurisé en Suisse).

Autre conseil, pas de surf depuis sa box à domicile. Privilégiez les bornes Wi-fi publiques (bibliothèque, café…). « Votre fournisseur d’accès pourrait obtenir l’adresse MAC de votre ordinateur anonyme », écrit le hacker. L’adresse MAC est l’identifiant de la carte réseau de l’ordinateur qui sera automatiquement transmise au routeur Wi-Fi pour établir la connexion.

Voici quelques-uns de ses conseils, car pour être vraiment anonyme, il faut une discipline de fer afin que cet anonymat soit global. « C’est vraiment dur de vivre une double vie. Je le sais. Je l’ai fait », explique Kevin Mitnick.

Philippe Richard

Débris spatiaux : peut-on vraiment les détruire ?

Du 18 au 21 avril se tenait à Darmstadt (Allemagne), au centre opérationnel de l’ESA, la 7eme conférence européenne sur les débris spatiaux. L’occasion de faire le point sur cette gestion des déchets un peu particulière. Si l’estimation des experts évalue à 29000 le nombre d’objets de plus de 10cm en orbite autour de la Terre et à 750000 le nombre d’objets de plus d’un centimètre, le chiffre des objets entre 1mm et 1cm est encore plus vertigineux : 166 millions ! Sachant qu’à une vitesse de 10km/s, l’impact est équivalent  l’explosion d’une grenade, il est facile de comprendre que pour les satellites en fonctionnement les conséquences peuvent être dramatiques.

D’où vient ce nuage de déchets ?

Au-delà de la stratosphère, voici donc la débrisphère. Ces débris sont les déchets laissés par les plus de 5000 lancements qui ont eu lieu entre 1957 et 2017: il s’agit de restes des étages de lancement ou d’éléments associés, d’anciens satellites hors d’usage, de particules issues des dégradations des éléments déjà en orbite et pour une bonne part d’explosions. Parmi tous ces débris, à peu près 18000 sont aujourd’hui suivi par un système de surveillance international. Jusqu’à maintenant les collisions sont rares, même si celle entre le satellite iridium-33 et Cosmos-2251 le 10 février 2009 a marqué les esprits, mais cette probabilité ne fait que grandir et les acteurs de secteur spatial craignent le syndrome de Kessler (du nom de son théoricien, l’astrophysicien de la Nasa Don Kessler) ou collisions en cascade. Selon ce principe, chaque collision engendre plus de débris augmentant la probabilité d’une autre collision etc. Et au final, les débris seront majoritairement issus de collisions plus de des déchets issus de nouveaux lancements. La plus grande concentration de débris se trouvant entre 800-1000 km et 1400 km de la Terre.

Eviter les collisions et les dégâts terrestres

L’agence spatiale européenne a développé des outils qu’elle continue d’améliorer pour détecter, surveiller, caractériser les différents débris (qu’ils soient artificiels ou naturels) et pour modéliser ce “nuage” dont la connaissance devient essentielle pour planifier les lancements et assurer un accès à l’espace sûr. En moyenne, l’ESA exécute une douzaine de manœuvres d’évitement de collisions par an. Quant aux ré-entrées non contrôlées d’objets dans l’atmosphère, ils sont tout de même scrutés même si le risque pour la population ou les infrastructures est aujourd’hui très faible (un homme a 60 000 fois plus de chances d’être touché par la foudre que par un débris spatial). L’atmosphère réduit en poussière les débris spatiaux et pour ceux qui résistent ils ont trois chances sur quatre de tomber sur une surface océanique ou non habitée.

Une politique d’atténuation

En attendant de savoir ce que l’on peut faire avec les débris déjà existants, la politique internationale consiste à atténuer les effets des lancements actuels (entre 50 et 70 par an). Un guide de bonnes pratiques a été rédigé en 2002 et sert de modèle pour les législations nationales concernant les débris spatiaux. Et depuis 2011, il existe une norme ISO (24113) qui définit certaines exigences techniques. L’un des axes de prévention consiste notamment à prévoir la fin de vie des satellites soit en organisant leur retour sur Terre soit en les éloignant de l’orbite terrestre. A ce sujet, l’ESA a d’ailleurs développé un outil à disposition de tous, DRAMA (Debris risk assessment and mitigation analysis), qui permet d’évaluer les risques des différentes options possibles pour la fin de vie d’un satellite.

L’obligation de prévoir des protections

L’étude des impacts d’objets submillimétriques en hypervitesse a révélé les dégâts que peuvent engendrer des débris spatiaux, y compris très petits.

Tests effectués à la Nasa :

L’impact d’un corps d’une dizaine de centimètre peut causer la désintégration totale d’un satellite en orbite car suite à l’impact, l’énergie dégagée peut suffire à rompre la structure en elle-même. Pour s’en protéger, la station spatiale internationale possède des boucliers, constitués d’une double couche de panneaux métalliques espacés de 10cm et on prévoit de tels systèmes sur la plupart des satellites autour des équipements cruciaux à leur fonctionnement.

Supprimer les débris ?

Mais comme le laisse présager le modèle de collision en cascade, la prévention des débris ne peut suffire. Il faut aussi trouver des moyens de supprimer les débris déjà existants. Et si toute la communauté internationale planche sur le sujet, les solutions techniques ne sont pas encore évidentes. Pour preuve l’échec en janvier dernier d’un prototype japonais de nettoyeur spatial qui devait déployer une tige électromagnétique sensée attirer les déchets avant de les réintroduire dans l’atmosphère terrestre. Au niveau européen, la première mission opérationnelle sur le sujet est prévue en 2023 avec le lancement de e-Deorbit qui doit capturer un vieil objet de l’Esa et contrôler sa réentrée. Les systèmes mécaniques qui doivent effectuer la capture sont encore à l’étude. Beaucoup de solutions sont envisagées : du filet à papillon spatial, à l’aspirateur magnétique, au harpon ou au bras robotique. Par ailleurs, d’autres pistes sont explorées par les chercheurs telle que la technologie de destruction ou de déviation par laser (voir encadré)

Un super-laser pour les débris spatiaux ?

Des physiciens australiens (Macquarie University) ont créé un super-laser dont le principe de fonctionnement doit permettre de créer des lasers suffisamment puissants pour servir non seulement à des fins militaires (destructions de drones ou de missiles) mais aussi pour éliminer des déchets spatiaux ou propulser des engins spatiaux. L’étude est parue dans Laser & Photonics Reviews. Pour obtenir leur super-laser ils ont concentré plusieurs lasers sur un même point où ils ont placé un cristal de diamant ultra-pur. Outre l’effet d’accumulation, le diamant présente aussi la capacité à dissiper rapidement la chaleur résiduelle, un des principaux obstacles rencontrés pour créer des super-lasers.

Par Sophie Hoguin

Sweetch Energy surfe sur l’énergie osmotique

0,8 kWh par m3

Sweetch Energy a développé une technologie destinée à produire de l’électricité à partir de gradients de salinité. Elle consiste à récupérer l’énergie de mélange lorsque deux solutions de salinités différentes se rencontrent, à l’instar de l’eau douce et de l’eau de mer au niveau des estuaires. Bruno Mottet., docteur en physique et chimie des matériaux, travaillait à la base sur la problématique du dessalement de l’eau quand en 2015, il décide de créer Sweetch-Energy à Rennes avec deux autres chercheurs. L’innovation réside dans l’utilisation de membranes, issues du CNRS, d’un milliardième de mètres d’épaisseur. L’eau s’écoule à travers les membranes qui sépare les ions de la solution concentrée et génère de petites charges électriques. Sur la base des concentrations salines de ces deux types d’eau, il y aurait théoriquement un gisement d’énergie de l’ordre de 0,8kWh par m3. Bruno Mottet estime que son idée permettrait de faire baisser de 25% le coût de dessalement des usines. Les leaders du secteur tels que Suez Environnement ou Veolia se sont déjà rapprochés de la start-up.

Levée de fonds et recrutement

Grâce à sa technologie originale, Sweetch Energy a été lauréate du Concours Mondial d’Innovation, vainqueur du Cleantech Open France et primée lors du Concours iLAB du Ministère de l’Education Nationale de l’Enseignement Supérieur et de la Recherche. Des distinctions qui ont favorisé la levée d’1,4 millions d’euros réalisée par la start-up auprès de GO CAPITAL Amorçage II, un fonds interrégional dédié aux start-ups innovantes du Grand Ouest. Elle est également soutenue à hauteur de 700 000 euros par Bpi France. Ces fonds serviront à donner les moyens à la compagnie de passer de l’échelle nanométrique à des versions industrielles du procédé. En cas de succès, un autre débouché pourra alors être envisagé : installer des centrales électriques sur les estuaires d’ici une dizaine d’années.  En attendant, Sweetch Energy, installée au Biopôle de Rennes, prévoit de recruter deux ingénieurs spécialisés sur les matériaux et la mécanique des fluides.

Par Romain Chicheportiche

Ville de demain : les métros automatiques joueront un rôle majeur

En 2030, le métro automatique sera démocratisé dans les smart cities et les « Mega Cities ». Selon Wavestone, il s’agit de la solution la plus performante pour répondre au défi du transport de masse sur les trajets les plus fréquentés. « Grande cadence de transport, rapidité, régularité, sécurité, réduction des coûts d’exploitation, adaptabilité de l’offre et flexibilité dans les ressources humaines » sont ses principaux avantages. Le cabinet de conseil prévoit que ce marché va exploser d’ici moins de 5 ans. Principalement dans les grandes métropoles pour relier les centre-ville aux zones péri-urbaines et pour mailler le coeur de ville des mega cities d’Asie, d’Afrique et d’Amérique du Sud qui verront le jour d’ici 2030.

La France, en pole position

« La France est aujourd’hui en 1ère place du marché du métro automatique dans le monde », assure Wavestone. Le tissu industriel est fortement impliqué dans son développement au côté des autorités. La France détient le plus de kilomètres de lignes automatisées (120 km), suivi par le Canada (93,2 km),  Singapour (76,5 km) et les Emirats Arabes Unis (74,6 km). Les lignes automatisées sont à Lille, Paris, Toulouse, Lyon et Rennes. Si Lille est la mieux équipée en France avec 44 km de lignes automatisées (en 5e position mondiale), elle est loin derrière Vancouver et ses 86,8 km.

Les opérateurs de transport français sont ceux qui opèrent le plus de réseaux dans le monde (23,1%) suivis par les italiens (19,2%). La filiale de la SNCF Keolis est leader en termes de kilomètres exploités et de nombre de stations dans le monde avec 104 km et 137 stations. La RATP est 12e en termes de kilomètres exploités (26 km) et 8e en termes de stations (34).

Les métros français bien placés

Wavestone a comparé les différentes lignes de métros automatiques selon trois axes : la performance de l’infrastructure et du matériel roulant, la fiabilité et la qualité du service et l’innovation adoptée par les différents opérateurs. Concernant la performance globale, les lignes 1 et 2 du métro de Lille arrivent en première position. Suivies de près par Londres et la ligne A de Toulouse.

En matière de propreté, les lignes de Lyon, Barcelone, Rennes et Taipei sont les pus appréciées des usagers. Lyon atteint 99,3 % d’avis positifs, contre moins de 60 % pour Milan. Concernant la sûreté, les lignes de Copenhague, Dubaï et Taipei arrivent en tête avec des taux de satisfaction usager qui dépassent 90%. Une distinction pour la RATP : ses innovations au service des voyageurs (informations contextualisée, services mobiles, connexion réseau…) arrivent en tête, au côté de l’opérateur TBM du métro de Barcelone.

Des lignes compétitives

Les coûts d’investissement – lignes, gares et matériel roulant compris – sont en moyenne supérieurs pour les lignes automatisées. Ils s’élèvent ainsi à 144 millions d’euros par kilomètre contre 129 millions d’euros par kilomètre pour un métro conventionnel. Néanmoins, le métro automatique réduit considérablement les coûts opérationnels de l’exploitation : 0,69 millions d’euros en moyenne par kilomètre, contre 1,15 millions d’euros pour un métro classique. Après 30 ans d’exploitation, l’investissement initial dans les infrastructures est donc compensé par la baisse des coûts opérationnels.

En 2025, l’Asie devrait représenter 33% des kilomètres de lignes automatiques, l’Europe 30% et le Moyen Orient 25%. Le Grand Paris Express prévoit notamment 205 km de lignes de métros automatiques en banlieue et 72 nouvelles gares entre 2018 et 2030.

Par Matthieu Combe, journaliste scientifique

Total renforce sa présence sur le secteur pétrolier
 au Sénégal

Bloc contesté

Le premier accord est un contrat de recherche et de partage de production d’hydrocarbures sur le bloc « Rufisque Offshore Profond » d’une superficie de 10 357 km2, dont Total sera opérateur à hauteur de 90%, aux côtés de la Société Nationale des Pétroles du Sénégal (Petrosen), qui détiendra les 10% restants. Il a été contesté par la compagnie australienne African Petroleum Corporation, qui rappelle dans un communiqué avoir elle-même signé un accord identique en 2011 et affirme « qu’il est toujours valable tant que le Sénégal n’a pas légalement mis en œuvre de procédure de résiliation ».

Le second accord concerne une coopération entre Total, Petrosen et le Ministère de l’Energie et du Développement des Energies Renouvelables de la République du Sénégal, aux termes duquel Total réalisera une étude de la zone en mer très profonde, en vue d’en déterminer le potentiel d’exploration et de devenir opérateur d’un bloc d’exploration. Interrogé par l’AFP, Patrick Pouyanné, pdg de Total, a estimé que l’investissement devrait « se chiffrer autour environ de 100 millions de dollars pour pouvoir faire des travaux à la fois d’étude sismique puis aller forer. Si c’est un succès, on forera plusieurs puits, donc l’investissement pourra se chiffrer à plusieurs centaines de millions de dollars ».

Intégration verticale

Ces accords permettent à la Major française d’être désormais présente sur toute la chaîne pétrolière au Sénégal. De l’exploration et la production en amont, à la distribution de produits pétroliers en aval où Total est n°1 grâce notamment à un réseau de 174 stations-service, sans oublier le raffinage et le transport. Une marque de fabrique du groupe français.

Interrogé sur le limogeage du ministre de l’Énergie, annoncé à peu près au même moment, le patron de Total a exclu tout lien avec les contrats. Aucune explication officielle n’a été donnée au départ de Thierno Alassane Sall, réputé proche du président et membre de son parti, l’Alliance pour la République (APR). Un communiqué du porte-parole du gouvernement a seulement annoncé qu’un décret du 2 mai mettait fin aux fonctions du ministre et que le Premier ministre, Mahammed Boun Abdallah Dionne, ajoutait le portefeuille à ses fonctions actuelles.

Romain Chicheportiche

PSA avance sur les véhicules autonomes

Tests sur routes ouvertes

Le partenariat prévoit que nuTonomy intègre son logiciel de conduite autonome et son système de capteurs sur le modèle Peugeot 3008 du constructeur en vue de tester les véhicules autonomes sur routes ouvertes à Singapour. Le projet se déroulera en plusieurs phases. Dans la phase initiale, nuTonomy va installer son logiciel ainsi que des capteurs dédiés et des plateformes de calcul dans les voitures prédisposées par les équipes Innovation du Groupe PSA. nuTonomy prévoit une intégration complète de son système véhicule autonome (VA) d’ici à l’été 2017. Les expérimentations de conduite autonome débuteront à Singapour en septembre prochain si tout va bien.

PSA s’intéresse de plus en plus à ces technologies qui rendront l’acte de conduire de moins en moins répandus. Cette collaboration s’inscrit ainsi dans le cadre du programme AVA (« Autonomous Vehicle for All ») de PSA, qui vise à proposer des solutions de mobilité à la demande et complètement autonomes. Pour l’instant, le constructeur français développe des systèmes d’aide à la conduite sur lesquels le conducteur a toujours la possibilité de reprendre la main. Mais cela pourrait changer à mesure que la technologie prend le pas sur le conducteur. PSA travaille notamment sur un système de conduite automatisé gérant la vitesse et la direction de la voiture, en s’adaptant aux limites légales de vitesse. Ce système est prévu pour prendre le contrôle du véhicule s’il détecte un manque d’attention du conducteur en cas de fatigue, pour réduire le risque d’accident.

Course technologique

Considéré encore il y a quelques années comme un projet quelque peu futuriste, le véhicule autonome intéresse de plus en plus les constructeurs français. Valeo va ainsi tester son propre système dans les rues de Paris dans les prochains jours. La jeune entreprise lyonnaise Navya a déployé plus de 35 navettes autonomes et revendique le transport de 130 000 passagers dans le monde (des Etats-Unis à Singapour en passant par la Nouvelle-Zélande). Mais ce marché n’intéresse pas que les constructeurs automobiles, loin s’en faut. Le défi technologique et le besoin de traitement de big data a attiré d’autres curieux. Ainsi la firme Apple a obtenu l’autorisation il y a deux semaines des autorités américaines pour tester son système autonome sur une Lexus blanche. General Motors, Tesla, Volkswagen, Ford, BMW, Mercedes-Benz, Google ou encore Uber sont eux-aussi sur les rangs pour tester leur technologie. Une multiplication des projets qui laisse présager l’émergence d’une ou plusieurs systèmes concurrents.

Romain Chicheportiche

La transition énergétique à l’épreuve du prochain quinquennat !

La loi de transition énergétique est très riche et diverse. Elle fixe les grands axes de la politique environnementale de la France jusqu’en 2050. D’un côté, il y a les questions d’évolution du mix énergétique, de la rénovation des bâtiments et de la lutte contre la précarité énergétique. De l’autre, la lutte contre toutes sortes de gaspillages. De l’individualisation des frais de chauffage dans les immeubles collectifs  jusqu’à l’interdiction des sacs plastiques de caisse à usage unique et la création du délit d’obsolescence programmée, elle est à l’origine de nombreuses avancées.

Ségolène Royal se félicite !

À une semaine de l’investiture du prochain Président de la République, Ségolène Royal dresse le bilan de son action. Selon la ministre, la France est désormais à « l’avant-garde de la lutte contre le changement climatique ». Les textes d’application de la loi de transition énergétique sont presque tous publiés. Les 19 ordonnances ont été présentées en Conseil des ministres. Leur ratification est « en bonne voie », assure la ministre. Sur les 162 décrets prévus, 98% ont été soumis au Conseil d’Etat ou mis en signature et 95% ont été publiés.

La transition énergétique est enclenchée au niveau national et local. 554 territoires sont labellisés « Territoire à Energie Positive pour la Croissance Verte ». En tant que tels, ils béfécient d’un soutien financier (750 millions d’euros sur 3 ans) pour  financer des projets en lien avec l’efficacité énergétique, la mobilité durable, l’économie circulaire, les énergies renouvelables, la biodiversité et la sensibilisation et l’éducation à l’environnement.

La transition énergétique en questions

Côté énergie, la loi vise notamment la réduction de la part du nucléaire dans la production d’électricité à 50 % en 2025 (au lieu de 72,3% en 2016). Elle plafonne la capacité du parc nucléaire à sa puissance actuelle de 63,2 gigawatts (GW). La consommation énergétique primaire en énergies fossiles baissera de 30% en 2030.

Par ailleurs, la France devra fortement diminuer sa consommation énergétique. Le texte prévoit une baisse de 50 % de la consommation énergétique en 2050 par rapport à 2012, avec un objectif intermédiaire de 20 % en 2030. Cela sera notamment atteint par la rénovation de l’ensemble des bâtiments à l’horizon 2050 en fonction des normes basse consommation. Pour cela, il est prévu la rénovation énergétique de 500 000 logements par an à compter de 2017. Les émissions de gaz à effet de serre devront également être divisées par quatre d’ici 2050 par rapport à 1990. Un objectif intermédiaire de baisse de 40% est fixé pour 2030.

Le nucléaire et les énergies fossiles seront lentement remplacés par les énergies renouvelables qui représenteront 32 % de la consommation finale d’énergie d’ici 2030. 40 % pour l’électricité, 38 % pour la chaleur, 15 % pour les carburants et 10 % pour le gaz. Pour avantager les énergies renouvelable, le texte prévoit de quadrupler entre 2016 et 2030 le prix du carbone. De 22 euros la tonne de CO2 à 100 euros, en passant par un objectif intermédiaire de 56 euros en 2022.

Macron vs. Le Pen : quid du prochain quinquennat ?

Le prochain locataire de l’Elysée arrivera à une période charnière. Son quinquennat jusqu’en 2022 sera capital pour l’atteinte de l’ensemble de ces objectifs. D’ores et déjà, Marine Le Pen a fait savoir que si elle était élue, elle ne réduirait pas la part du nucléaire et ne fermerait pas la centrale de Fessenheim. Elle mettra la priorité sur la fin des énergies fossiles. Elle déclare vouloir développer les énergies renouvelables  compétitives, mais uniquement si elles sont produites en France. Elle souhaite néanmoins instaurer un moratoire sur le développement de l’éolien, car elle considère les éoliennes comme une pollution visuelle. Elle est hostile au rapprochement de la fiscalité du diesel sur celle de l’essence.

A l’opposé, Emmanuel Macron s’est engagé à respecter l’ensemble des dispositions de cette loi. Notamment concernant la réduction de la part du nucléaire, le développement de toutes les énergies renouvelables et le prix du carbone. Le candidat d’En Marche projette ainsi doubler le parc éolien et solaire lors de son quinquennat. Il s’engage à respecter la fermeture de la centrale de Fessenheim, conditionnée à la mise en service de l’EPR de Flamanville. Pour la fermeture des 18 réacteurs prévus pour respecter la loi de transition énergétique, il se référera à l’avis de l’Autorité de sûreté nucléaire. Il souhaite en plus rapprocher la fiscalité de l’essence et du diesel et mettre fin au charbon durant le quinquennat. Il considère que le cadre est désormais bien posé par la loi. Il ne souhaite pas rentrer dans une surenchère d’objectifs qui ne seront pas atteints, mais essayera déjà de respecter les objectifs actuels.

Par Matthieu Combe, journaliste scientifique

La loi de Moore est-elle dépassée ?

La finesse de gravure aura-t-elle une limite ? Alors que deux fondeurs, TSMC et Samsung, commencent à commercialiser des gravures en 10 nm, des chercheurs du Massachusetts Institute of Technology (MIT) associés à l’Université de Chicago affirment que l’on peut descendre jusqu’à… 7 nanomètres (7 nm).

De quoi modifier la fameuse loi empirique dite de Moore, du nom de l’ingénieur américain qui en 1965 constate que les progrès en matière de puces électroniques sont réguliers et homogènes . D’où cette fameuse loi : le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Et elle s’est révélée très juste : la densité des transistors sur le marché a doublé tous les 1,96 an.

Néanmoins, Intel rencontre des difficultés à graver toujours plus fin. Résultat, le géant des puces a officiellement annoncé que ce cycle durerait trois ans, ce qui est déjà le cas pour les puces 14nm. Et il a tenu à préciser que toutes les gravures en 10 nm ne se valaient pas…

Comment les chercheurs du MIT et de l’Université de Chicago ont-ils relevé ce défi et passer sous la barre des 10 nm? Schématiquement, la technique actuelle consiste à faire fondre des modèles de circuits sur des galettes de silicium via des masques utilisant des ondes électromagnétiques. L’équipe de chercheurs se base sur une technologie d’autoassemblage de fils de gravure sur des puces et la  lithographie par ultra-violet extrême (EUV – Extreme Ultra Violet). Un réseau de lignes est produit par un procédé conventionnel à faisceau d’électrons. L’addition d’un copolymère à bloc et d’une couche de finition conduit à quadrupler le nombre de lignes. Ensuite, la couche de finition est décapée, laissant apparaître le nouveau motif de fines lignes.

Ce n’est pas la première fois que des annonces sont faites à propos d’une puce très fine obtenue par  EUV. En 2008, des chercheurs de l’Université d’Aix-la-Chapelle, de l’Institut Fraunhofer d’ingénierie laser d’Aix-la-Chapelle et de la société Philips s’étaient appuyés sur cette solution pour repousser les limites. Plus récemment, en 2015, IBM avec GlobalFoundries et Samsung avait mis au point une puce fonctionnelle gravée en 7 nm avec le même procédé.

Philippe Richard

Recrutements : un bon premier trimestre et des perspectives en hausse

Le contexte général de l’emploi plutôt favorable est souligné par l’enquête annuelle de Pôle Emploi sur les “Besoins de main-d’oeuvre” (BMO), qui annonce que “les intentions de recrutement des employeurs progressent de 8,% en 2017 après une croissance de +5,1% en 2016, soit près de 2 millions d’embauche potentielles”. Ceci concernant tous les secteurs comme les services aux entreprises dont la progression pour 2017 est de 9,3% après +8% l’an dernier et dont le secteur représente désormais presque un quart des projets de recrutements. Mais aussi dans le secteur de la construction (104000 projets d’embauche, +22,5% par rapport à 2016) ou l’industrie où les besoins sont en hausse de 8,7% en 2017 après une progression de 2,6% en 2016.

L’embauche des cadres reste dynamique

Concernant les cadres, près de six entreprises sur dix ont recruté au moins un cadre au cours du premier trimestre 2017 révèle le baromètre trimestriel de l’Apec sur le marché de l’emploi. Et le deuxième trimestre devrait lui aussi être favorable à l’emploi des cadres puisque 55% des entreprises interrogées dans cette enquête envisagent de recruter au deuxième trimestre, ce recrutement étant sûr pour 73% d’entre elles. Cependant, on s’en doute, l’optimisme n’est pas de mise de façon égale pour tous les secteurs.

L’ingénierie/R&D voit gris ?

Le moral des entreprises est dans l’ensemble stable ou meilleur notamment dans le secteur de l’informatique où près des deux tiers des entreprises jugent leur environnement économique meilleur (+20 pts par rapport à mars 2016) alors que que l’ingénierie-R&D voit son taux d’entreprises pessimistes augmenter de 5 pts passant à 20%. Pour autant, les entreprises de l’ingénierie sont 82% à avoir recruté au premier trimestre et sont 87% à envisager de recruter un cadre au deuxième trimestre 2017 et pour 25% d’entre elles, l’embauche est motivée par un développement d’activité. Dans l’informatique, le niveau des recrutements est toujours au maximum avec 94% des entreprises qui ont recruté et 96% qui l’envisagent pour le deuxième trimestre, principalement pour des développement d’activité (60%). Dans l’industrie, la stabilité prévaut : 60% de recrutements effectifs et envisagés, mais là, la première motivation est le remplacement de départs.

Difficulté de recrutement

L’analyse du troisième trimestre 2016 montre que certains secteurs continuent d’avoir des difficultés à recruter. Les tensions sont particulièrement fortes dans l’informatique (75% des recrutements sont jugés difficiles selon l’Apec et +62% selon les chiffres de Pôle Emploi), dans la production industrielle et les travaux et chantiers (77%), et ils restent élevés dans les Etudes, recherche et développement (51%) mais ont néanmoins baissé de 11 points par rapport à 2015.

Par Sophie Hoguin

Le jeu risqué de Trump en Corée

Des manœuvres et un bouclier anti-missiles

La montée des tensions en Asie du nord-est est liée à l’arrivée fin avril du porte-avions américain Carl Vinson et d’un sous-marin nucléaire dans le port coréen de Pusan. Ce mardi 2 mai, le porte-parole de la défense sud-coréenne, Moon Sang-gyun, a annoncé le déploiement de deux bombardiers américains B-1B lors d’une conférence de presse, ajoutant que l’exercice s’inscrivait dans le cadre des efforts de dissuasion face à la Corée du nord. En effet, les armées américaines et coréennes réalisent régulièrement des exercices en cette période de l’année.

Mais l’arrivée au pouvoir de l’imprévisible de Donald Trump a mis fin de facto à ce qu’il appelait « la patience stratégique » de l’administration Obama. Le président américain prévenant même qu’il était prêt à agir seul : « toutes les options sont sur la table ». Des propos qui ont naturellement inquiété le gouvernement chinois : « Nous sommes opposés au déploiement du système Thaad en Corée du Sud. Nous appelons les parties en présence à arrêter ce déploiement immédiatement et nous prendrons fermement les mesures nécessaires pour défendre nos intérêts », a déclaré devant la presse le porte-parole du ministère chinois des affaires étrangères, Geng Shuang.

Korea map
Carte géostratégique de la Corée du Nord

Prolifération nucléaire

Le cas nord-coréen est un exemple classique du risque lié à la prolifération nucléaire. Kim Jong-un et avant lui son père (Kim Jong-il), considère l’arme nucléaire comme le moyen de dissuasion ultime permettant la survie du régime communiste. Le régime de Pyongyang développe donc depuis des années un programme nucléaire visant à mettre en place toute une batterie de missiles de courte, moyenne et longue portée dotée de charges nucléaires (voir carte). C’est la raison pour laquelle Donald Trump a fait pressé l’installation du fameux bouclier anti-missiles. « L’administration Trump craint que la Corée du Nord finisse par développer un missile intercontinental qui représenterait une menace pour son territoire. Les États-Unis considèrent sérieusement à présent la possibilité de frappes préventives sur le Nord », expliquait Cheong Seong-chang, chercheur à l’Institut Sejong à Séoul à nos confrères de Mediapart.

Un cas de figure qui laisserait craindre d’énormes pertes des deux côtés de la frontière. En effet, malgré le bouclier Thaad, la Corée du nord représente selon les experts la 4ème plus grande armée du monde avec 1,19 million de soldats et officiers, et une réserve de 5,7 millions de miliciens. L’armée nord-coréenne est assise sur un vétuste mais impressionnant stock d’armes issu de la Guerre Froide (6 000 blindés, 500 avions de combat, 70 sous-marins…) sans compter les 21 000 pièces d’artillerie bunkerisées à la frontières. La chute du régime entraînerait par ailleurs des millions de réfugiés que les pays voisins ne souhaitent pas forcément accueillir.

Négociation géopolitique ?

Il n’est guère aisé d’interpréter le déploiement militaire américain et dans le même temps l’annonce de Donald Trump qui a surpris ce lundi expliquant être prêt à parler au dictateur nord-coréen : « La plupart des politiques ne diraient jamais cela, mais je vous dis que si les conditions étaient réunies, je le rencontrerais […]. Je serais honoré de le faire ». Un dialogue prôné par Pékin, seul véritable allié du régime nord-coréen. La Chine n’a rien à gagner de la fin du statu quo qui permet de maintenir la division d’une Corée concurrente. Le locataire de la Maison-Blanche, qui se présente comme un expert en négociation, cherche peut-être à user du dossier coréen, en laissant planer le risque de conflit, pour obtenir des concessions notamment économiques de la part du gouvernement chinois. Toujours est-il que cette pression supplémentaire va sans doute renforcer la volonté du régime de Pyongyang de s’équiper le plus tôt possible d’une force de dissuasion opérationnelle.

A noter qu’en pleine crise diplomatique, la Corée du sud organise elle-aussi son élection présidentielle. Malgré les vives tensions les favoris à l’élection, Moon Jae-in et Ahn Cheol-soo, se sont tous deux déclarés en faveur d’une reprise du dialogue avec le voisin du nord.

Romain Chicheportiche

Challenge Industrie du Futur

L’idée est simple, inviter les startups françaises à soumettre un  projet disruptif et innovant afin de participer activement à la transformation de l’usine de demain.

Le challenge « Industrie du Futur » a vocation à impulser la conception et le déploiement de nouvelles technologies qui pourront améliorer la performance et la qualité des services des industriels.

Il s’agit in fine pour SKF et Atos d’être réactifs face aux  attentes du marché, tout en permettant à de jeunes startups d’optimiser, voire de faciliter les transformations qui touchent toutes les parties prenantes du secteur de l’industrie.

Les thématiques du challenge traitent, par exemple, des matériaux du futur, des nouveaux procédés de fabrication, de l’usine connectée et de son écosystème, ou bien encore du Machine Learning.

L’intérêt du challenge pour les startups candidates

La philosophie de ce challenge est de veiller à un intérêt gagnant-gagnant pour l’ensemble des parties, en stimulant le niveau de réflexion avec l’ensemble des différents contributeurs.

A l’issue de la première phase de sélection, mi-juillet, 12 finalistes verront leur projet accompagné par des « experts métier », jusqu’à la finale (8 novembre 2017).

Durant cette phase d’approfondissement, 12 startups françaises pourront ainsi adapter leur projet au contexte industriel des organisateurs et bénéficier de leur support.
Lors de la finale, les finalistes feront leur présentation devant les dirigeants de SKF en France et de Atos, de Techniques de l’Ingénieur et de nombreux partenaires de la région Centre -Val de Loire.

Quatre prix distincts seront décernés, avec à la clé pour les startups les plus prometteuses, la perspective d’une dotation financière pouvant aller jusqu’à 5.000 €.

Les délais pour le dépôt des projets

Fin des dépôts des candidatures – le 30 juin 2017.

  • Annonce des 12 startups sélectionnées et invitées à présenter leur projet devant les dirigeants de SKF,  Atos et Techniques de l’ingénieur – le 17 juillet 2017.
  • Phase d’approfondissement entre les startups finalistes et les « experts métier » – du 17 juillet au 3 novembre 2017.
  • La grande finale se tiendra le 8 novembre 2017, à la SKF Solution Factory, à St-Cyr-sur-Loire (37).

Frédéric Ponson, directeur ingénierie chez SKF France et Steve Péguet, directeur de l’innovation chez Atos France, vous en disent plus sur le challenge.

Retrouvez tous les détails du challenge Industrie du Futur sur : agorize.com/industrie-du-futur

Les vitrimères en passe de (vraiment) révolutionner l’industrie des plastiques

Présenté fin 2011 à la communauté internationale dans un article de Science publié par le laboratoire de matière molle et chimie de l’ESPCI Paris/CNRS, les vitrimères avaient déjà fait sensation à l’époque (Best chemistry 2011 par l’hebdomadaire Chemical & Engineering News de l’American Chemical Society puis prix de l’inventeur européen de l’office européen des brevets en 2015 à Ludwik Leibler, directeur du laboratoire).

Mais au fait, c’est quoi déjà un vitrimère ?

Les vitrimères sont une nouvelle catégorie de matériaux organiques légers et résistants qui une fois durcis peuvent être refondus et remoulés comme le verre tout en présentant des propriétés mécaniques supérieures au verre. Ils allient donc les qualités des composés thermoplastiques (famille de plastiques qui peuvent être refondus et remoulés donc recyclés) aux composés thermodurcissables qui présentent de bonnes propriétés mécaniques, chimiques et thermiques mais ne peuvent pas être réutilisés (si on les chauffe de nouveau, ils brûlent mais ne fondent pas).

Le vitrimère présenté en 2011 était fabriqué à base d’epoxy. Il a aussitôt intéressé les secteurs du bâtiment, de l’aéronautique, de l’automobile ou de l’électronique qui s’en sont servis pour créer de nouveaux matériaux composites.

Une nouvelle réaction de métathèse

Mais que manquaient-ils aux vitrimères pour être parfaits ? La possibilité de les produire avec les mêmes ingrédients que les plastiques actuels et la possibilité de les produire avec les outils industriels existants et aux mêmes cadences de production énonce le CNRS dans son communiqué. Et c’est justement ce que viennent de rendre possible les chercheurs du laboratoire de matière molle et chimie de l’ESPCI Paris/CNRS. Leurs travaux ont été publiés dans un article de Science du 7 avril 2017. En s’appuyant sur la métathèse (c’est-à-dire une réaction d’échange d’atomes entre molécules) de dioxaborolanes, ils ont réussi à fabriquer des vitrimères à partir de polymères courants et très différents tels que le poly(méthacrylate de méthyle) – autrement dit le PMMA qui correspond au bien connu Plexiglas®, le polystyrène ou le polyéthylène haute densité (PE-HD). Cette réaction est rapide, efficace et les composés obtenus montrent des propriétés chimiques, mécaniques et thermiques supérieures aux composés de départ. Elle est applicable à tous les polymères dont le squelette est carboné avec des liaisons carbone-carbone simples, c’est-à-dire à 75% des plastiques. En outre, “la réaction ne nécessite pas de catalyseur, ce qui constitue un réel avantage économique et écologique”, précise le communiqué. Cette découverte a fait l’objet de plusieurs brevets déposés par l’ESPCI.

Le beurre et l’argent du beurre

Ces nouveaux vitrimères se présentent comme des matériaux hautes performances. A titre d’exemple, les chercheurs illustrent cette qualité par une expérience simple: Plongé dans de l’eau savonneuse, un échantillon de polyéthylène se craquèle en 30h contre 350h pour le vitrimère de polyéthylène. Sachant qu’un quart des craquelures et ruptures de plastiques et composites sont dus au contact avec un liquide, l’utilisation des vitrimères seraient alors une alternative très intéressante pour différentes applications allant des canalisations à des dispositifs médicaux ou des pièces automobiles.

Par ailleurs, les chercheurs se sont aperçus que la réaction de métathèse pouvait aussi avoir lieu entre deux vitrimères de plastiques à l’origine incompatibles. Formant alors des alliages dont les propriétés peuvent s’avérer encore meilleures que les composants d’origine en matière d’imperméabilité, de résistance aux chocs ou de rigidité. Cela ouvre tout un nouveau pan de recherche en chimie des matériaux.

Mais cerise sur le gâteau, cette propriété de pouvoir faire des alliages permet aussi de s’affranchir d’une autre contrainte des plastiques actuels: le tri sélectif selon la nature du plastique. En effet, jusqu’alors pour recycler un plastique il faut les trier selon leur nature. Avec les vitrimères, ce tri devient inutile puisqu’on peut les marier entre eux. Dès lors le recyclage des plastiques pourrait devenir plus rentable et bien plus facile à mettre en oeuvre.

Sophie Hoguin

Des véhicules électriques pas si écolo ?

La voiture propre n’existe pas. Pour fabriquer une voiture, il faut toujours extraire des ressources et consommer de l’énergie. Ensuite, il faut pouvoir la faire rouler et la recycler en fin de vie. Alors, quand il est question de voiture électrique, quels sont les freins majoritaires? Il est souvent avancé que les principaux freins sont à chercher du côté d’un prix d’achat trop élevé, une trop faible autonomie et un réseau de bornes de recharge insuffisant.

Des chercheurs de l’Université de technologie de Queensland, en Australie, ont voulu prendre le problème différemment. Puisque les voitures électriques sont vendues comme des alternatives vertes, leurs performances environnementales doivent bien avoir un rôle important dans l’acte d’achat. Pour évaluer cet aspect, ils ont mené 40 entretiens auprès d’utilisateurs finaux de véhicules électriques. En parallèle, ils ont réalisé une enquête auprès de 167 participants à des tests de conduite avec un véhicule électrique à batterie. Et ils sont arrivés à une conclusion surprenante. En réalité, les performances environnementales permettent de mieux prédire si une personne est susceptible ou non d’acheter un véhicule électrique que son prix ou son autonomie.

Autrement dit, si peu de personnes achètent des véhicules électriques, c’est avant tout parce qu’elles ne les considèrent pas si écologiques que cela.

Lier développement des énergies renouvelables et des véhicules électriques

Pour comparer des véhicules entre eux, il faut s’intéresser aux émissions sur route liées au carburant utilisé, mais aussi les émissions du puits à la roue, incluant toutes les émissions liées à la production, au traitement, à la distribution et à l’utilisation du carburant. Le lien entre véhicules électriques et énergies renouvelables est capital, car ceux-ci sont vendus sur le principe de « zéro émission ».

« Par exemple, un véhicule à essence produit 119 g de CO2 équivalent par kilomètre [gCO2e/km], dont la plupart sont des émissions sur route, précise l’auteur principal de cette étude, Kenan Degirmenci. En comparaison, un véhicule électrique produit zéro émission sur route ». Évidemment, cela n’est pas si simple. Pour un véhicule électrique, les émissions dépendent directement du mix électrique du pays où il est rechargé.  « Si l’électricité pour charger un véhicule électrique est générée à partir de charbon, il émet 139 gCO2e/km du puits à la roues, contre seulement 9 gCO2e/km avec de l’électricité produite à partir de sources d’énergies renouvelables », complète-t-il. Pour constituer une véritable alternative, la majorité des participants à l’étude considèrent donc que l’électricité alimentant les voitures doit être produite grâce à des sources renouvelables.

Bannir les véhicules électriques en lien avec le charbon

L’agence internationale de l’énergie expliquait en 2014 que les véhicules électriques permettent une économie nette de CO2 uniquement si leur batterie est chargée avec de l’électricité dont l’intensité de carbone est inférieure à 700 gCO2e par kilowattheure. Ce qui n’est pas le cas des pays qui dépendent en grande partie du charbon pour leur production d’électricité.

Les experts le savent depuis longtemps : en 2008, l’AIE avait calculé qu’une voiture électrique émettait 112 gCO2e/km avec le mix électrique moyen européen, mais 255 gCO2e/km lorsque l’électricité était produite à partir de charbon. Avec un objectif européen de 95 gCO2e/km pour les véhicules thermiques neufs en 2020, une voiture électrique émettra donc plus de CO2 qu’une voiture thermique neuve à cet horizon. Ce qui confirme qu’en l’absence de déploiement massif d’énergies renouvelables à grande échelle, l’aspect écologique des véhicules électriques reste surévalué. Ce qui a changé est que les consommateurs en ont désormais aussi conscience. Désormais, plus les énergies renouvelables se développeront, plus les consommateurs accepteront facilement d’adopter ces véhicules.

Par Matthieu Combe, journaliste scientifique