Des batteries Lithium qui durent longtemps. Vraiment très longtemps.

Un automobiliste français standard parcourt environ 15.000 kilomètres par an, c’est-à-dire une quarantaine de kilomètres par jour. Une voiture thermique à pétrole permet de parcourir environ 300.000 kilomètres. Grand maximum.

Il reste 94% de la capacité de la batterie de la Tesla Model S après qu’elle ait parcouru 200.000 kilomètres selon la dernière mise à jour (15 Mai 2017) d’une étude néerlandaise menée par une communauté de propriétaires de ce véhicule. La capacité de stockage de la batterie baisse de 1% tous les 45.000 kilomètres. En extrapolant on peut estimer que le seuil des 92% sera atteint au bout de 300.000 kilomètres et celui des 80% au bout de 780.000 kilomètres. Ce qui correspond à un demi-siècle pour un automobiliste standard.

Capture d’écran 2017-05-18 à 11.57.03

Il y a 4 ans Elon Musk avait révélé que des simulations menées en laboratoire par les ingénieurs Tesla sur une batterie de 85 kWh avaient permis de réaliser 800.000 kilomètres. « Cela pourrait s’avérer erroné mais nous avons une batterie qui a permis de réaliser un demi-million de miles au laboratoire » avait déclaré avec prudence Elon Musk au média USA Today. Cela avait suscité rires et moqueries de la part des sceptiques, y compris des journalistes spécialisés automobiles et des « experts », qui pensaient que l’électrique n’était valable que pour les voiturettes de golf.

Puis dans une note publiée sur le blog de Tesla il y a 2 ans Elon Musk a indiqué que l’objectif de l’entreprise était de produire un groupe motopropulseur (powertrain) capable de résister à 1,6 millions de kilomètres. Cette révélation est passée relativement inaperçue. Mais « pourquoi achèteriez-vous une voiture capable de parcourir 1 million de miles ? » interroge Tony Seba, professeur de l’université Stanford, dans une tribune publiée sur le blog du think-tank RethinkX et intitulée « L’avance de Tesla est-elle encore plus importante qu’on ne le pense ? »

Un million de miles ?

Cela semble relever du non-sens quand on adopte un état d’esprit conservateur. Mais pas dans le cadre d’une approche innovante de la mobilité. Ce n’est pas un hasard si les géants Apple, Google et Uber investissent aussi massivement dans la conduite autonome.

Une start-up californienne, Tesloop, organise des voyages en Tesla S et X, notamment entre Los Angeles et Las Vegas. Il s’agit d’un usage intensif des batteries: une de leurs Model S a parcouru 450.000 kilomètres en 20 mois, soit environ 730 kilomètres par jour en moyenne (l’aller-retour LA/LV fait 860 kilomètres). Ceci avec la voiture la plupart du temps remplie de passagers et de bagages. Et à vitesse élevée, sur autoroute.

Il restait à la batterie de ce véhicule Tesloop 94% de sa capacité de stockage initiale au bout de 320.000 kilomètres. Et non pas au bout de 200.000 kilomètres comme dans l’étude néerlandaise. Comment expliquer la différence ? Deux facteurs dégradent les batteries : l’usage et le temps (le nombre d’années). En roulant beaucoup chaque jour le facteur temps devient marginal. Les batteries Tesla sont actuellement garanties 8 ans mais ceci pour un kilométrage « illimité ».

« Les données provenant des utilisateurs intensifs des batteries suggèrent qu’elles durent bien plus longtemps sur le terrain que ce qui était estimé » soulignent les auteurs de l’étude RethinkX. « Proterra a identifié une tendance historique portant sur un progrès de 5-6% par an de leur performance. Chanje Energy (ex Nohm) s’attend à ce que les batteries puissent durer 800.000 kilomètres dès 2021. Et Tesloop s’attend à ce qu’elles durent encore plus longtemps » affirment-ils sur la base d’interviews avec Proterra, Chanje Energy et Tesloop entre Janvier et Mars 2017.

Les batteries des concurrents, comme par exemple Nissan, « ont 3 fois moins de capacité (de stockage ndlr) que celle d’une Tesla » souligne Pierre Langlois, Docteur en Physique et spécialiste de la mobilité au Québec. « Elles doivent donc être rechargées 3 fois plus souvent. Par ailleurs, elles n’ont pas un bon système de gestion thermique de la batterie comme les véhicules de Tesla. » Au final les batteries des concurrents se dégradent plus vite.

Tesloop, avec son offre City-to-City, démontre que le dogme distillé par le lobby pétrolier selon lequel la voiture électrique est adaptée pour les petites distances urbaines et pas pour les longs trajets est vraiment infondé. « Je ne suis pas sûr que tout le monde pourra s’offrir une Tesla » ironisent parfois certains acteurs. Or, précisément, il ne sera pas nécessaire d’acheter une Tesla pour en jouir. Et elle sera librement accessible à toutes et à tous, quel que soit leur âge, leur état de santé ou leur niveau socio-économique.

RethinkX a fait le calcul. Dans l’hypothèse conservatrice d’un groupe motopropulseur capable de résister à 600.000 miles et d’une batterie à 300.000 miles, soit un seul changement de batterie, alors le coût kilométrique global des A-EV (voitures électriques autonomes), à partir de 2020, sera 10 fois inférieur à celui des voitures thermiques classiques. Ces dernières ne peuvent parcourir qu’une distance deux fois inférieure. Au mieux. S’il s’avérait nécessaire de changer 2 fois la batterie (batterie de 200.000 miles) au lieu d’une seule fois, l’impact serait de l’ordre de trois cents par mile estime RethinkX.

On estime en France que le prix de revient kilométrique (PRK) d’une Renault Twingo thermique est de 56 c€. Avec Tesloop (Tesla S) le coût global est d’environ 13 c€ par kilomètre dès à présent rapporte RethinkX (plus précisément entre 20 et 25 US cents par mile).

Une voiture électrique à batterie n’est constituée que de 20 pièces mobiles, contre 2000 pour une voiture thermique. Il en résulte des frais de maintenance beaucoup plus faibles.

Le géant américain Goodyear a signé un partenariat avec Tesloop dans la perspective de développer des pneus spécifiquement adaptés à un usage de type TaaS (« Transportation as a Service »). Actuellement les pneus coûtent « environ un cent par mile » a déclaré le PDG de Tesloop, Rahul Sonnad, à l’occasion d’une conférence organisée par la banque Morgan Stanley.

Par ailleurs une voiture capable de self-driving génère beaucoup moins d’accidents qu’une voiture qui n’est pas autonome, d’où des frais d’assurance bien plus faibles.

En outre une voiture électrique est trois fois plus efficiente qu’une voiture thermique pétrolière, d’où une facture « carburant » également plus faible. Mais pour Tony Seba c’est la durée de vie élevée des voitures à batterie qui est le facteur le plus important pour l’équation économique.

Il suffira de cliquer sur son smartphone pour qu’un A-EV vienne vous chercher. Et qu’il vous permette de réaliser une économie d’un facteur 10. Plus besoin d’attendre à une station de métro ou de bus aux horaires parfois non adaptés à vos besoins, notamment le dimanche, et parfois éloignée de votre domicile ou de votre lieu de travail. Plus besoin de perdre du temps pour aller faire le plein d’essence ou de diesel, de trouver une place de parking, de payer le garagiste, de payer une assurance, de rembourser un prêt auto, de payer des amendes, de nettoyer la voiture, et aussi de passer le permis de conduire. Et le tout en évitant d’enrichir des pays peu respectueux des droits humains fondamentaux ainsi que d’être co-responsable des marées noires et de la pollution de l’air.

Nul besoin d’être prophète pour percevoir que cette nouvelle forme de mobilité va provoquer un énorme rush estime Tony Seba. Même les personnes propriétaires d’une voiture n’achèteront plus de pétrole : ils la laisseront au garage car cela leur coûtera beaucoup moins cher. Il y a un siècle certains pensaient que l’attachement entre l’homme et le cheval rendra impossible le remplacement de la voiture à cheval par la voiture à moteur. Aujourd’hui certains affirment la même chose à propos de la voiture individuelle privée. Des services que Rethink qualifie de pré-TaaS, comme par exemple Uber ou Lyft, ont démontré qu’il y avait une demande très forte pour ce type de mobilité.

Capture d’écran 2017-05-30 à 16.06.01
Production des piles 2170 de Tesla

Le plein d’électrons en 5 minutes

A l’occasion du CUBE Tech Fair qui a eu lieu du 10 au 12 Mai 2017 à Berlin, une strart-up israélienne, StoreDot, a démontré qu’il est possible de charger en 5 minutes une batterie permettant de parcourir 300 miles (480 kilomètres). Lors des trajets Los Angeles / Las Vegas sur autoroute avec Tesloop, les Tesla S ne font qu’une seule charge, en milieu de voyage. Cela permet aux voyageurs d’aller aux toilettes, de prendre un café et de se dégourdir les jambes.

Charger une batterie de 100 kWh avec un ultra-chargeur de 350 kW (3,5C), permettant ainsi de faire une bonne partie du plein en une quinzaine de minute, cela aura-t-il un impact sur la durée de vie des batteries ? « Avec du 4C l’impact est vraiment marginal » affirme Marion Perrin, directrice du service stockage et systèmes électriques au sein du CEA, département des technologies solaires. « Avec du 7C cela commence un peu à chauffer ». Les super-chargeurs Tesla d’ancienne génération ont une puissance de 120 kW. Mais Elon Musk a annoncé l’arrivée d’une nouvelle génération bien au-delà de 350 kW.

Y aura-t-il assez de Lithium ?

Une batterie Tesla consomme aujourd’hui 0,8 kg de Lithium par kWh de stockage, et 0,6 kg en 2030 indique RethinkX. Les réserves mondiales sont estimées à 30 millions de tonnes au coût actuel, mais elles sont bien supérieures si l’on accepte un coût supérieur. Et « si c’était cher le lithium, on le recyclerait » a déclaré Marion Perrin. Si le coût devenait élevé, l’extraction du lithium de l’eau des océans deviendrait également rentable, mais cela ne sera pas utile.  « Le lithium, est un stock, pas un flux » insiste Tony Seba. Après avoir parcouru 500.000 kilomètres avec une batterie, le lithium est toujours là. Et il est recyclable.

Si les 32 millions de voitures françaises étaient remplacées par 3 millions d’A-EV partagés et équipés d’une batterie de 60 kWh en moyenne, alors le calcul est simple : les besoins seraient de 108.000 tonnes de lithium. La population française pesant 1% de la démographie mondiale, on peut estimer que 10,8 millions des tonnes suffiront.

Capture d’écran 2017-05-30 à 16.06.21
Encroûtement cobaltifères. Photographie prise à bord du navire océanographique Jean Charcot, dans le port de Papeete (Tahiti) en 1986.

« Tesla ferait bien de s’intéresser d’un peu plus près à la contrainte à venir sur la disponibilité de cobalt » a conseillé publiquement l’ingénieur Nicolas Meilhan, membre des Econoclastes, sur un réseau social. Il s’agit effectivement du seul élément potentiellement limitant. Mais il existe différentes chimies de batterie au lithium. Si Tesla utilise des batteries contenant du Cobalt, cet élément n’est pas indispensable. En outre les encroûtement cobaltifères, notamment dans les fonds océaniques de la Polynésie française, en contiennent de grandes quantités.

L’approche TaaS, qui permet de diviser par 10 le nombre de voitures, a un intérêt majeur dans la perspective de réduire la demande en matières premières. Elle permet aussi d’envisager la libération d’importantes surfaces dans les villes : celles des parkings. Les espaces libérés en question ont souvent une haute valeur immobilière.

Think again

L’étude publiée par RethinkX a eu un important écho dans la presse anglophone. Mais pas dans la presse française. « Pourquoi des personnes très intelligentes ne parviennent pas à anticiper les vagues disruptives ? ». Tony Seba a fait de cette thématique le cœur de ses travaux de recherche.

En 1911 Ferdinand Foch, commandant suprême des forces alliées durant la première guerre mondiale, avait déclaré que « Les avions sont des jouets intéressants mais n’ont aucune utilité militaire ». En 1928, et jusqu’en 1940, la France lançait la construction de la ligne Maginot pour se protéger rappelle Tony Seba. La ligne Maginot était considérée par les meilleurs experts militaires français comme infranchissable, ils en étaient très fiers. Pendant ce temps-là l’Allemagne nazie a mis en place la Luftwaffe, son armée de l’air. Résultat : il n’a fallu à Adolf Hitler que 6 semaines pour conquérir Paris.

« Les politiques, les insiders et les experts qui pensaient que le futur était linéaire, incrémental, juste une extention du passé, ont sous-évalué l’arrivée d’une disruption technologique (l’aviation) et ont fait des choix pour le futur basés sur des notions mainstream du passé, avec des conséquences massives pour l’Europe et le monde pour les générations à venir » analyse Tony Seba.

Au Royaume-Uni le lobby des voitures à cheval a tenté en 1865 de bloquer l’émergence de la voiture à moteur dite « self-propelled vehicule ». C’est l’origine du mot « auto-mobile » : être capable d’être mobile par soi-même, sans être tiré par un cheval. Le « locomotive act » imposait aux voitures motorisées d’être accompagnées de trois personnes. Deux à bord et une devant la voiture pour agiter un drapeau rouge (« Red flag act »). Attention danger. Et elles n’avaient pas le droit de dépasser 2 miles (3,2 km/h) en ville.  Le Royaume-Uni a par conséquent bloqué cette innovation qui cependant n’a pas disparu. Elle a simplement ressuscité aux USA.

L’industrie automobile est en bonne partie à l’origine de la puissance économique et militaire américaine. En 1950 les USA produisaient la moitié des voitures à l’échelle mondiale. « Durant la seconde guerre mondiale Ford a construit, à lui seul, 6790 bombardiers B24, 282.354 jeeps et 42.676 camions » rappelle Tony Seba. Les USA ont libéré l’Europe, y compris la France, du nazisme.

Pour Tony Seba le groupe Volkswagen qui annonce vouloir faire des voitures à batterie tout en continuant en réalité à investir massivement dans la voiture diesel, se comporte comme quand Kodak parlait de la photo numérique tout en continuant à investir massivement dans la photo argentique. Kodak a fait faillite.

Une voiture d’un écosystème TaaS permet de remplacer 10 voitures fumantes privées. Le facteur d’amplification est donc massif. RethinkX ? Repenser (re-think) le facteur X. Car la disruption de la voiture pétrolière par la voiture à batterie va être bien plus rapide qu’estimé jusqu’à présent.

Tony Seba, dans son livre « Solar trillions » publié en 2010, avait prédit une chute rapide du coût du solaire photovoltaïque permettant d’atteindre 3,5 ¢/kWh dès 2020. Ni l’Agence Internationale de l’Energie ni Greenpeace n’avaient été capables de prédire une baisse aussi rapide. Ce chercheur indépendant a mis au point une méthode d’analyse des technologies disruptives basée sur l’analyse de nombreuses ruptures technologiques qui se sont produites dans divers secteurs dans le passé.

Le déclin du pétrole

Pour Tony Seba l’émergence de l’A-EV va avoir des effets « catastrophiques » pour l’industrie pétrolière et de son prolongement, c’est à dire l’industrie de la voiture thermique. La croissance mondiale de la demande en pétrole pourrait être stoppée dès 2021 à 100 millions de barils par jour.

La multinationale pétrolière Total, dans le cadre d’une réflexion basée sur la croissance de la voiture électrique privée et n’intégrant pas du tout l’émergence du TaaS, a estimé lors du dernier sommet BNEF à New-York que ce virage n’arrivera pas avant 2030. 

Capture d’écran 2017-05-30 à 16.15.30
Les bus du californien Proterra ont une autonomie supérieure à 500 kilomètres

Selon RethinkX, au contraire, la demande en pétrole aura chuté à 70 millions de barils par jour en 2030. Cette asphyxie du marché pétrolier par l’émergence rapide du TaaS aura des effets en jeu de domino. Les pays dont l’économie repose en bonne partie sur une rente pétrolière, comme par exemple la Russie, l’Arabie Saoudite, le Venezuela et le Nigéria, pourraient beaucoup souffrir de cette disruption.

Vers des voitures de 10-12 places

Disposer de véhicules autonomes de niveau 5 (dès 2019 selon Elon Musk) est-il indispensable pour que la disruption commence ? Tesloop a déjà prouvé que non avec des véhicules offrant 3 places pour les passagers. Ceci même en devant payer un chauffeur 15 dollars de l’heure, un coût qui sera réduit à zéro dès l’arrivée des A-EV.

L’entreprise californienne Proterra a mis au point des bus 100% électriques à batterie de 50 places capables de parcourir 560 kilomètres quand ils sont remplis de passagers. Ni les bus thermiques au diesel, au gaz fossile ou au biogaz, ni les bus à hydrogène ne peuvent rivaliser au niveau compétitivité. La croissance du marché des bus à batterie est fulgurante, notamment en Chine.

Mais Elon Musk pense que des voitures de 10 ou 12 places suffiront : « je ne suis pas sûr que le projet de bus ait vraiment du sens » a déclaré le PDG de Tesla le 3 mai 2017. La Tesla X compte 7 places. Avec l’arrivée de la mobilité 100% autonome chercher à diluer le coût du salaire du chauffeur en augmentant le nombre de sièges dans un bus n’a plus aucun sens. Quatre Super-Tesla X d’une douzaine de places chacune sont bien plus flexibles et éviteront de faire rouler des bus parfois à moitié ou aux trois-quarts vides.

Dans ses conférences Tony Seba explique que la conduite 100% autonome permet de réduire d’un facteur 3 la surface consommée par les véhicules sur les routes en synchronisant les freinages et les accélérations des véhicules. Un « train » de 4 super-Tesla X roulant à la queue leu-leu ne prend pas beaucoup plus de place qu’un bus de 50 places.

Tesla développe aussi des semi-remorques pour le transport des marchandises. Peut-être seront-ils commercialisés en reprenant le business-model de BetterPlace reposant sur des robots capables d’échanger les batteries très rapidement. C’est ce croient savoir Ravi Shanker, expert en logistique, et Adam Jonas, analyste de la banque Morgan Stanley.

Sur ce marché aussi, et peut-être encore davantage que sur les autres compte-tenu des volumes kilométriques et énergétiques en question, le stockage batterie a vraiment du sens. Etant donné que les semi-remorques seront 100% autonomes (et donc sans chauffeur à payer) le temps passé pour échanger la batterie ou pour faire le plein avec l’ultra-fast charging n’aura aucune importance. Et ceci même si la batterie ne permet au semi-remorque de ne parcourir que 400 kilomètres.

Pour les opérateurs de flottes de véhicules autonomes « seul le coût et l’efficience ont de l’importance » expliquait en juin 2015 Brad Templeton qui a fait partie de l’équipe travaillant sur la Google Car. « Les Robocars (A-EV) s’en fichent du temps qu’il faut pour recharger ».

Une marée non pas noire mais électrique

Le 16 mai 2017, en direct d’un évènement innovation du groupe Volvo, Colin Mckerracher, analyste spécialisé transport de BNEF, a souligné que la vitesse d’impact de l’électrification sur les camions, les bus et les engins de construction était au centre des débats. « La chute du coût des batteries lithium-ion va se répandre vers d’autres sources de demande en carburant » a estimé l’expert. 

Colin Mckerracher a partagé la photo d’une machine excavatrice intégralement électrique et alimentée par une batterie lithium, et une autre photo d’un camion-poubelle Volvo équipé de lidars pour la conduite autonome.

Pour ce spécialiste « la chose la plus intéressante est la mise en place de coalitions d’intérêts entre entreprises qui sont à présent en faveur de la voiture électrique. Les compagnies minières et électriques s’associent contre les compagnies pétrolières ».

Ensemble les géants du lithium, du nickel, du cobalt, du graphite, du phosphate, du fer, du cuivre mais aussi ceux du nucléaire, de l’hydroélectricité, du solaire et de l’éolien et enfin bien sûr ceux de l’informatique, pèsent en effet très lourd. Dans un rapport récent sur la Chevy Bolt (General Motors) la banque UBS considère la voiture électrique à batterie comme « la catégorie de voiture la plus disruptive depuis la Model T de Ford ».

Capture d’écran 2017-05-30 à 16.15.42
Morgan Stanley table sur 30% de kilomètres partagés en 2030. RethinkX, 95%

« De nombreux éléments nous ont suggéré la préparation soutenue d’un assaut du marché de la mobilité partagée, autonome et électrique par de grosses entreprises du secteur de la technologie » a déclaré en mai 2017 Adam Jonas, directeur de la recherche sur l’industrie automobile au sein de la banque d’investissement Morgan Stanley qui gère 2 trillions de dollars d’actifs dans le monde entier. Morgan Stanley a publié le 16 avril 2016 le rapport-phare « Global Investment Implications of Auto 2.0 »

Ford, groupe qui est historiquement à l’origine de la révolution automobile américaine, est fortement engagé dans cette bataille de Titans. Papy fait de la résistance. Conscient de la menace Daimler a formé en avril 2017 une alliance avec Bosch pour développer des voitures complètement autonomes, et a annoncé parallèlement que la voiture électrique à batterie était à présent au centre de la stratégie du groupe. Le géant chinois Byd est aussi de la partie. Tout comme Renault qui vient de racheter la branche R&D d’Intel en France (Toulouse et Sophia Antipolis).

« Nous croyons que la concurrence la plus importante pour Tesla viendra en fin de compte des entreprises tech les plus grandes et au capital le plus important à l’échelle mondiale » a affirmé Adam Jonas. « Beaucoup de ces entreprises – telles que Alphabet, Apple et d’autres – sont déjà en train de tester des véhicules pleinement autonomes sur les routes ».

Alphabet, une filiale de Google, a en effet commencé a tester en avril 2017, via son unité Waymo, des voitures 100% autonomes avec des passagers réels. Apple, la plus grande capitalisation boursière du monde avec une valeur qui dépasse à présent 800 milliards de dollars, a reçu en avril 2017 l’autorisation de tester des voitures 100% autonomes sur les routes publiques de Californie.

Olivier Daniélo

inOUI, le futur du train grande vitesse de la SNCF

L’offre classique TGV représente encore 95% des voyages à grande vitesse. Mais la SNCF compte développer son offre low-cost OUIGO lancée en 2013. L’objectif affiché est de la faire passer d’une part de marché actuelle de 5% à 25% en 2020. Pour cela, l’offre OUIGO va être déployée sur tous les grands axes dans les trois prochaines années. Ainsi, 30 destinations seront accessibles sur ces trains en 2020, contre 14 aujourd’hui. Et 34 rames seront aux couleurs OUIGO, contre 8 actuellement.

La SNCF n’abandonne pas pour autant son offre premium. Elle lance pour cela sa nouvelle marque inOUI pour mettre un nouveau nom sur une offre mal identifiée. « On a engagé une transformation en profondeur vers la qualité de service avec un programme d’investissement majeur », se félicite Rachel Picard, directrice Voyages SNCF. Le coût estimé pour ces nouveaux services? 2,5 milliards d’euros d’investissements. Ceux-ci ont notamment porté sur le matériel, avec 1,5 milliards d’euros pour les rames Océane entre Paris et Bordeaux. Ils ont aussi été consacrés au digital, avec 300 millions d’euros pour installer le WiFi à bord. Et enfin sur l’humain, avec 5.000 employés formés à un programme de nouvelle relation client. Avec ces nouveaux services, la SNCF espère avoir 15 millions de clients supplémentaires d’ici 2020.

InOui, quelles différences avec un simple TGV ?

La ligne Paris-Lyon bénéficie aujourd’hui de matériel et de personnel dédié. « C’est un laboratoire où on met en place l’expérience de voyage TGV que nous voulons pour demain partout », explique Rachel Picard. Grâce aux nouveaux services testés, la SNCF y a observé une hausse de 10% de la satisfaction client. Il y a notamment « le WiFi à bord, l’annonce du conducteur qui se présente et qui nous dit quand on tape les 300 km/h », explicite la directrice.

Mais plus concrètement, qu’est-ce qu’inOUI? C’est un train connecté, avec WiFi gratuit à bord. Fin 2017, 80% des voyageurs y auront accès. Il s’agit aussi de rames plus confortables : des sièges rénovés, des prises électriques, un bar et des toilettes relookées. Et de nouveaux services. Il sera possible de géolocaliser la position du train sur smartphone, envoyer un message au chef de bord ou encore commander un menu au bord et être servi à sa place. Les contrôles à bord seront remplacées par des portes d’embarquement en gare. Ces nouvelles portes seront installées dans les principales gares d’ici fin 2018.

Le déploiement des nouvelles rames se fera progressivement, ligne par ligne. Cela commencera le 2 juillet prochain avec l’axe Paris-Bordeaux. A l’automne viendra le tour de l’axe Paris-Lyon, puis en fin d’année, celui de l’axe Paris-Lille. En 2018, les rames seront déployées en direction de Strasbourg, Marseille, Rennes et Nantes. Les axes restants seront équipés en 2019. Les trains iDTGV seront, eux, arrêtés peu à peu d’ici la fin 2017.

Un nouveau site voyages-sncf.com

Le premier site de e-commerce français, voyages-sncf.com, deviendra OUI.sncf à l’automne 2017. Le site deviendra un compagnon de voyage pour lever les obstacles qui peuvent empêcher les clients de voyager. « Nous allons mener trois combats : plus de clarté dans le choix, plus de personnalisation dans l’accompagnement vers le voyage et plus d’envie de voyage », prévient Franck Gervais, directeur général voyages-sncf.com. Notamment pour trouver la meilleure offre selon le prix  (entre OUIgo, inOUI, OUIbus, OUIcar et les autres moyens de transport), la durée du trajet et les services offerts en fonction de sa flexibilité. L’objectif est d’atteindre un volume d’affaires de 5 milliards d’euros en 2020 et devenir la marque de voyage préférée des Européens.

Par Matthieu Combe, journaliste scientifique

La robotique française se solidarise

L’union fait la force. C’est la raison triviale mais essentielle qui a motivé la naissance de la Fédération Française des Clusters de la Robotique (ou FFC Robotique), annoncée il y a quelques semaines et actée le 16 mai, à l’occasion de l’ouverture du salon Innorobo. Cinq clusters régionaux, qui regroupent des entreprises de l’ensemble de filière robotique (industrielle, services et drones) ont décidé de s’organiser à l’échelon national, et donc de changer de dimension. «L’enjeu est d’étendre cette démarche collaborative au-delà du périmètre de la région, dont la taille est insuffisante, confie Philippe Roussel, le délégué général. Nous voulons agréger les bonnes idées, les bonnes pratiques, en utilisant ce qui se fait de mieux dans chaque cluster.» Les cinq clusters à l’origine de la FFC Robotique, qui couvrent aujourd’hui 48 % du territoire de la métropole, sont Aquitaine Robotics (Nouvelle-Aquitaine), Coboteam (Auvergne Rhône-Alpes), Proxinnov (Pays de la Loire), Robotics Place (Occitanie) et enfin le Réseau 3R, réparti sur tout le territoire français.

Priorité au business

Alors que les pôles de compétitivité se concentrent sur la recherche et le développement, la FFC Robotique, à l’image des clusters qui la composent, a des visées opérationnelles et économiques. Dans son plan de bataille, elle se donne pour mission d’appuyer le développement des entreprises robotiques, en particulier celui des intégrateurs. Les clusters étant souvent à l’initiative des PME, une structure nationale a aussi l’intérêt de peser davantage dans les relations avec les grands donneurs d’ordre et surtout les investisseurs, quand il est question de chercher des plans de financement. Cette fédération s’attachera en outre à labelliser les projets considérés comme les plus méritants, à promouvoir la filière à l’international et à soutenir la création de nouveaux clusters régionaux. La région Hauts-de-France, qui a contribué à la genèse de cette association loi 1901, est pressentie pour en bénéficier la première.

Enfin, la FFC Robotique souligne l’importance de s’impliquer dans les cursus de formation et d’encourager l’enseignement de la robotique dans les écoles. «En Chine, les élèves sont initiés très tôt à la robotique et des concours ont lieu dans les écoles primaires, les collèges, les lycées. On pourrait s’en inspirer en Europe dans les 10 prochaines années» explique un porte-parole. Un travail en amont, donc, mais aussi en aval pour inciter les entreprises à s’équiper et dynamiser un marché robotique français en retrait (à l’exception  de l’industrie automobile) par rapport à ses voisins allemand et italien.

Seuls 3045 robots industriels ont été vendus en France en 2015, selon les chiffres de la Fédération Internationale de la Robotique, soit une croissance assez faiblarde de 3%.

Par Frédéric Monflier

Le robot et le droit, sources de débats

La proximité des mots « droits » et « robots » dans une même phrase soulève régulièrement des interrogations voire des polémiques, de nature parfois très différentes. Premier exemple : les robots ont-ils des droits ? La question de la personnalité juridique pour des machines inconscientes et sans libre arbitre paraît saugrenue de prime abord. Mais elle a (re)fait l’actualité le 16 février dernier, quand le Parlement européen a adopté une résolution «contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique», selon les termes exacts du rapport. La Commission Européenne devra examiner ces recommandations et pourrait proposer prochainement une directive.

C’est peu dire que le sujet divise. Parmi les partisans, l’avocat Alain Bensoussan plaide pour accorder la personnalité juridique aux robots. Maître de conférences en droit à l’Université d’Artois, Nathalie Nevejans, auteure du volumineux «Traité de droit et d’éthique de la robotique civile», ne partage pas cette opinion et s’inquiète de son impact concernant la responsabilité : «les fabricants des robots pourraient être dédouanés en cas d’incident. A mon sens, il n’y a pas d’urgence à adopter de nouveaux textes juridiques. En revanche, le législateur doit se pencher sur les questions éthiques. Peut-on placer un robot d’assistance auprès d’une personne âgée sans son consentement ? Qui a accès aux données à caractère personnel ? De quel pouvoir de décision dispose le robot face à la liberté de choix des individus ?…». Les débats animés devraient fleurir au rythme de l’expansion de la robotique de service dans la société.

Le cobot n’est pas hors la loi

Un tout autre aspect en matière juridique fait l’objet d’une controverse : est-il légal de travailler avec un robot ? Là encore, ce questionnement semble hors de propos puisque la robotique industrielle se répand depuis longtemps dans les usines. Mais, en plein avènement, le robot collaboratif suscite davantage de perplexité, car il s’affaire sur le poste de travail à proximité immédiate de l’opérateur. Des rumeurs ont même circulé sur l’interdiction du «cobot», soupçonné d’être dangereux. Pourtant, un cadre juridique existe et règlemente son utilisation. « La directive Machines de 2006 s’applique aussi à la robotique collaborative, même si lors de sa mise sur le marché, le robot collaboratif est une quasi-machine dont l’application n’est pas encore définie, insiste Nathalie Nevejans. Cette directive fixe les exigences essentielles de santé et de sécurité, tandis que la normalisation détaille les spécifications techniques. La confusion provient du fait que la règlementation estime que le contact avec la machine est dangereux, ce qui suggère à certains que la collaboration entre le robot et l’homme est dangereuse. Or, le contact dangereux doit se comprendre seulement comme le contact imprévu. »

Les intégrateurs sont en première ligne pour le respect de ces obligations : ils ont la charge de configurer sur site le cobot, de réaliser l’analyse de risques, de rédiger le certificat de conformité puis d’apposer le marquage CE. Cependant, bien que leur visite ne soit pas obligatoire, l’Inspection du travail et des organismes de certification (Apave, Bureau Veritas…) entretiennent parfois l’incertitude et jettent alors les intégrateurs dans l’embarras vis-à-vis de leur clientèle. L’administration cherche à clarifier la situation en publiant bientôt un guide, avec le concours entre autres de l’UIMM (Union des industries et métiers de la métallurgie). «Ce document officiel, sans modifier les textes existants, rappellera le cadre de la directive Machines, les conditions de son application et l’apport des normes de sécurité, à l’instar de ce qu’ont fait les Allemands» confie Franck Gambelli, directeur environnement/sécurité/conditions de travail à l’UIMM.

Par Frédéric Monflier

Etats-Unis: un incendie nucléaire à 2000 milliards de dollars ?

Les Etats-Unis ont 99 réacteurs nucléaires répartis sur leur territoire. Le pays n’a pas opté, comme la France, pour le retraitement de ses assemblages de combustible. Une fois usés, ils s’accumulent donc dans les piscines de refroidissement à proximité des réacteurs avant envoi pour stockage final. Comme le pays a décidé de prolonger la durée de vie de la plupart de ses réacteurs de 40 ans à 60 ans, ces piscines sont surchargées.

Selon une étude publiée le 26 mai dans Science, le risque d’incendie d’une de ces piscines est clairement sous-estimé. « Les bassins surchargés sont très vulnérables au feu et peuvent libérer d’énormes quantités de matières radioactives dans l’atmosphère », préviennent les auteurs. Ces conséquences dramatiques pourraient notamment être déclenchées par un séisme important ou une attaque terroriste.

Inaction de la Commission de réglementation nucléaire des États-Unis

L’étude dénonce l’inaction de la Commission de réglementation nucléaire des États-Unis (NRC). Suite à la catastrophe de Fukushima, le NRC a bien étudié une proposition pour interdire la surcharge des piscines de stockage du combustible usé. Elle visait à transférer tout le combustible usé stocké dans ces piscines depuis cinq ans vers d’autres sites de stockage temporaires.

Le NRC a alors estimé qu’un incendie dans une piscine de stockage de taille moyenne entraînerait des dommages évalués à 125 milliards de dollars. Un montant exhorbitant comparé au surcoût d’une telle disposition, évalué à 50 millions de dollars par piscine. Néanmoins, la commission américaine a estimé qu’un tel incendie était hautement improbable. Elle n’a donc pas jugé nécessaire d’obliger les centrales nucléaires à désemplir leurs piscines.

Les auteurs de l’Université de Princeton dénoncent une analyse biaisée. Selon leurs travaux, l’analyse coût-bénéfice de la NRC a jugé qu’un incendie n’engendrerait pas de contaminations radioactives au-delà de 50 miles (80,5 km). L’agence a aussi affirmé qu’une zone contaminée pourrait être nettoyée en un an. « Ces deux suppositions sont incohérentes avec l’expérience accumulée grâce aux accidents de Tchernobyl et de Fukushima », dénoncent les scientifiques.

Un incendie radioactif qui pourrait coûter 2000 milliards de dollars

Les auteurs estiment qu’un incendie dans une piscine surchargée pourrait libérer suffisamment de matières radioactives pour contaminer une zone deux fois plus grande que celle du New Jersey. Ils évaluent le montant d’un tel accident à 2.000 milliards de dollars. C’est 16 fois plus que les évaluations de la NRC ! La responsabilité de l’industrie nucléaire étant limitée à 13,6 milliards de dollars, les contribuables américains devraient assumer la quasi-totalité des coûts. Cet accident pourrait aussi forcer environ 8 millions de personnes à déménager pendant plusieurs années.

Pour éviter le pire, les auteurs appellent le Congrès américain à mettre en oeuvre l’interdiction de surcharger les piscines. Ils suggèrent aussi que les Etats qui subventionnent les réacteurs nucléaires réagissent pour ne délivrer ces subventions qu’aux réacteurs qui acceptent de transférer leur combustible usé.

Par Matthieu Combe, journaliste scientifique

OCDE: lutter contre le réchauffement bénéficie au PIB !

Les pays du G20 représentent 85% du PIB mondial et 80% des émissions de CO2. Traiter simultanément la question du changement climatique et de la croissance économique permettrait d’accroître leur PIB de 1 % d’ici 2021 et 2,8 % d’ici 2050. L’OCDE exhorte les pays du G20 à intégrer les objectifs climatiques dans les réformes pour favoriser la croissance économique.

L’objectif est d’allouer les ressources et les investissements dans le cadre de réformes structurelles pour recentrer ainsi « l’investissement dans les infrastructures à faibles émissions et résilientes face au climat », prévient l’OCDE. Les dispositions nécessaires passent notamment par l’adoption d’une taxe carbone, la réforme des subventions aux énergies fossiles et le recours aux marchés publics pour stimuler l’innovation bas carbone. Par ailleurs, il convient de prendre de nouvelles initiatives pour « verdir » le système financier, comme l’a fait récemment la France en lançant la première obligation verte souveraine.

Il y a mieux. En prenant en compte l’élimination des coûts dus aux externalités négatives du changement climatiques (inondations, tempêtes, etc.), l’augmentation nette du PIB en 2050 est proche de 5% projette l’OCDE. « Loin d’être un frein, l’intégration de l’action climatique à la politique en faveur de la croissance peut avoir un effet économique positif », estime donc Angel Gurría, Secrétaire général de l’OCDE dans un communiqué.

Tout retard mènerait à une baisse du PIB

Retarder le passage à l’action entraînerait au contraire une baisse du PIB. Selon le rapport, une action climatique globale ne commençant qu’après 2025 entraînerait une perte de PIB de 2 % en moyenne au bout de dix ans pour les pays du G20. Car cela nécessiterait des mesures plus strictes, prises dans l’urgence, entraînant « des perturbations économiques et environnementales plus profondes », présage l’OCDE.

La plupart des pays du G20 ont sous-investi dans leurs infrastructures ces dernières années. Pour limiter le réchauffement à 2°C en 2100, l’OCDE estime qu’il faudra « des investissements dans les infrastructures de 6 900 milliards USD par an entre aujourd’hui et 2030 ». C’est « seulement 10% de plus qu’une croissance intensive en carbone », calcule l’OCDE. Un surcoût qui serait plus que compensé par les économies d’énergies fossiles permises par ces nouvelles infrastructures moins énergivores. L’OCDE estime ces économies à 1.700 milliards de dollars au total.

Certains pays peuvent être récalcitrants, craignant une récession. C’est notamment le cas des pays exportateurs nets d’énergies fossiles. Mais l’OCDE tient à les rassurer. « ll est possible, en lançant l’éventail d’actions qui convient, de faire en sorte qu’une croissance bas carbone compense les conséquences sur l’économie et l’emploi de la mise en œuvre des mesures d’atténuation », assure-t-elle.

Par Matthieu Combe, journaliste scientifique

Revue du web #102 : les vidéos les plus étonnantes du mois

Une peau artificielle pour les robots

Des chercheurs américains viennent de créer une nouvelle peau artificielle munie de capteurs afin de doter les robots du sens du toucher.

 

Le nouveau casque de réalité virtuelle de Google

Google a annoncé la commercialisation d’un nouveau casque de réalité virtuelle autonome : WorldSense.

 

Des éoliennes qui battent des ailes comme des colibris

Des chercheurs tunisiens ont mis au point des éoliennes qui imitent le vol stationnaire du colibri. Résultat attendu : des éoliennes puissantes et moins dangereuses pour les oiseaux.

 

Un saut en parachute depuis un drone

Aerones, une entreprise qui commercialise des drones, a organisé un saut en parachute impressionnant. Une première mondiale.

 

Désormais, il est possible de marcher sur l’eau

Rien de magique, hélas. Il suffit de mélanger de la maïzena et de l’eau.

Par I. T

La robotique va révolutionner la médecine selon Axel Kahn

« Demain, la part humaine  dans la pratique de la médecine sera incroyablement réduite », prédit Axel Kahn. Mais elle ne sera pas nulle pour autant ! Pour désengorger les salles d’attente, le patient passera d’abord par une multitude d’appareils de nouvelles générations. Ils palperont les organes, feront des imageries de qualité. Ensuite, des robots feront des prises d’échantillon (sang, urine…). Les différents résultats seront analysés par des intelligences artificielles qui, en comparant avec les antécédents du malade, pourront donner leur diagnostic. Il sera associé à une probabilité et les traitements les plus probables à suivre.  « La part de l’humain sera dans la gestion de cet ensemble », assure l’expert. C’est inéluctable.

Des formations médicales à revoir en profondeur

Le rôle du médecin sera davantage centré sur le contact avec le patient et sur l’accompagnement de celui-ci dans sa maladie. « Cela signifie qu’il va sérieusement falloir revoir les études médicales, car une partie extrêmement importante du travail de médecin demain sera l’aspect de l’accompagnement, de la psychologie, du dialogue et du contact », prévient Axel Kahn. « L’équilibre entre les sciences humaines et sociales et les parties technicielles dans les études de médecine devront être sérieusement reconsidérées », précise-t-il.

Car il ne faut pas penser que le parcours de santé sera intégralement robotisé et confié aux seuls robots. Il y aura évidemment quelques robots dans certains cas, comme des robots-infirmiers ou des robots distributeurs de médicaments. Ou encore des robots en maison de retraite pour assurer une présence continue aux côtés des résidents et apaiser leurs angoisses. Mais ceux-ci resteront à la marge pour Axel Kahn. Car « l’accompagnement du patient, le contact, les regards qui se croisent » sont essentiels, insiste-t-il. C’est ce qu’il appelle la « calinothérapie » ou la « bisouthérapie ». Selon les professionnels de santé, près de la moitié de l’efficacité thérapeutique n’est en effet pas liée aux gestes techniques, mais à l’écoute et au dialogue qui s’instaure entre le médecin et son patient.

Par ailleurs, au moins 30% des déterminants morbides de santé sont liés au mal-être psychologique. Un mal-être qui entraîne des conduites à risques: drogue, alimentation, alcoolisme, stress… et toutes les affections qui y sont associées. « Cette société informatique uberisée ne va pas faire diminuer le stress et ce mal-être », assure Axel Kahn. « L’idée selon laquelle on peut tout pré-programmer et tout confier à une machine est complètement stupide. C’est ne pas considérer ce que sont les mécanismes en particulier de la morbidité », conclut-il.

Par Matthieu Combe, journaliste scientifique

Transfert de technologies : de l’innovation spatiale au secteur médical

« Le programme de transfert de technologies de l’Agence spatiale Européenne a pour but de faciliter les retombées des innovations spatiales afin de booster la compétitivité européenne, trouver de nouveaux débouchés et augmenter la capacité d’innovation des entreprises européenne », prévient Nicolas Louée, consultant senior de la société In Extenso Innovation Croissance. « L’idée est aussi que le grand public comprenne les retombées de la recherche spatiale au quotidien : si on prend l’exemple du médical, le progrès spatial peut aider à sauver des vies ! », insiste-t-il.

Comment est organisé le transfert de technologies ?

Le programme de transfert de technologies comporte un premier pilier visant à valoriser la propriété intellectuelle de l’agence via 450 brevets couvrant 150 inventions et déposés par les chercheurs. L’ESA se repose également sur un réseau de « brokers » pour augmenter le nombre de transferts réalisés chaque année. Ces entreprises sont des « courtiers en technologies », résume Nicolas Louée. Ces derniers assurent le transfert de technologies de l’ensemble du tissu industriel spatial européen (laboratoires, PME, start-up…). « À l’échelle de son pays, chaque broker sert de lien entre des donneurs de technologies du domaine spatial et les entreprises en recherche de solution en dehors de ce secteur, détaille l’expert. Leur rôle est de sélectionner une liste de technologies pertinentes et d’amorcer le transfert de technologies. »

Le programme s’appuie aussi sur un réseau de 13 incubateurs répartis un peu partout en Europe afin d’accompagner le transfert de technologies via la création de start-ups. Aujourd’hui, ce sont plus de 350 porteurs de projets qui ont été accompagnés au travers de ce dispositif.

Concrètement, sur la période 2013-2016, le réseau européen de broker a réalisé plus de 40 transferts pour un montant de 7 millions d’euros, recensé près de 250 innovations spatiales à fort potentiel de valorisation dans des applications terrestres, partagé 60 cas de transferts remarquables et rencontré une centaine de sociétés non spatiales par an pour échanger sur leurs besoins. Sur ce créneau, l’Hexagone est particulièrement performant. « En tant que broker, nous sommes multi-technologies et multi-secteurs d’application. Nous avons la charge de transférer n’importe quelle typologie de technologie développée dans le spatial, que cela soit l’optique, la télécommunication, les matériaux, les systèmes d’assemblage… pour trouver des applications dans le médical, le nucléaire, l’automobile, l’aéronautique, etc. », complète Nicolas Louée.

Financé par l’Agence Spatiale Européenne, les brokers ont pour objectif d’assurer un certain nombre de transferts par an. « Pour In Extenso Innovation Croissance, l’objectif de transfert de technologies se situe entre 2 et 4, suivant les années », précise Nicolas Louée.

Des success stories dans le médical !

À l’occasion de sa conférence, Nicolas Louée donne plusieurs exemples de transferts ayant eu lieu en Europe dans le secteur médical. Ainsi, l’entreprise  Aabam a développé CondorScan, une mini caméra qui filme l’intérieur de la bouche et réalise en temps réel une empreinte des dents en 3D. Elle utilise une technologie développée au CNES pour les satellites Pléiades d’observation de la Terre. Au lieu de reconstituer en 3D la surface de la terre, la technologie reconstitue ici l’intérieur d’une bouche !

A l’Université de Maastricht, le vent extérieur de la clinique faisait vibrer les microscopes. Dans ces conditions, une  chirurgie de l’oeil sur cinq était impossible. C’est en s’intéressant au téléscope Darwin qui détecte les exoplanètes qu’un broker néerlandais a trouvé la solution. La technologie permet d’amortir automatiquement les vibrations à ultra-basse fréquence dans les microscopes chirurgicaux. Elle pourra aussi être appliquée aux autres opérations de précision, comme la chirurgie du cerveau, des neurones ou de petits vaisseaux sanguins.

Par ailleurs, Crossject s’est inspiré de la propulsion spatiale pour injecter des médicaments par voie intradermique, sous-cutanée et intramusculaire, sans aiguille. Ce système d’injection pyrotechnique Zeneo a été adapté de la solution de la Société Nationale des poudres et explosifs (SNPE) développée pour la propulsion d’Ariane.

Actuellement, une start-up française développe une méthode pour détecter de façon précoce le cancer de la vessie. Cela passe par l’analyse en fluorescence de l’urine, adaptée d’une technologie pour améliorer l’analyse et le traitement des images hyperspectrales par satellite.

Par Matthieu Combe, journaliste scientifique

E.vone, la chaussure connectée pour les seniors !

Yvonne est la belle-mère de Franck Cherel, Directeur général de Parade, fabricant français de chaussures de sécurité et de travail depuis 1978. À 79 ans, elle adore voyager à l’étranger. Suite à une chute dans son jardin, Franck a imaginé une chaussure connectée pour les seniors. Parade a réutilisé une technologie développée pour ses chaussures de sécurité afin de détecter les chutes. Le nom était tout trouvé : place à E.vone pour les femmes et à E.van pour les hommes.

Plus d’inquiétude à avoir, le dispositif électronique envoie automatiquement un message d’alerte aux proches et aux services d’urgence en cas de chute. Les chaussures E.vone et e-Van sont fabriquées dans une usine de Jarzé (49), dans le Maine et Loire. Pour laisser libre cours à l’imagination des seniors, les stylistes ont imaginé 26 modèles et déclinaisons.

Une chaussure connectée pour rassurer

La semelle d’E.vone et d’E.van renferme un petit dispositif électronique. Il contient une batterie, une carte SIM et un GSM pour pouvoir lancer l’alerte dans plus de 120 pays. S’y ajoutent un GPS pour fournir la géolocalisation et plusieurs capteurs (gyroscope, accéléromètre, capteur de pression) pour suivre les mouvements. Enfin, le dispositif renferme un vibreur pour informer et rassurer le porteur en cas de besoin.

Lorsqu’un mouvement jugé anormal est détecté, le vibreur s’actionne. Le porteur a quelques secondes pour se relever ou taper trois fois du pied sur le sol. Sans réponse, le dispositif appelle les numéros préprogrammés. Un appel pour appeler au secours, avec une géolocalisation précise. Lorsque l’alarme est bien prise en compte à l’autre bout de la chaîne, la chaussure vibre à nouveau pour notifier au porteur que des secours sont en route.

E.Vone primée et en route pour Las Vegas

Dévoilée en février 2017, E.vone a reçu le Trophée SilverEco de l’innovation en mars 2017. « Désormais, nous cherchons à présenter notre invention au CES de Las Vegas 2018 », prévient Anne Bluteau, directrice marketing de Parade.  Sa commercialisation débutera d’ailleurs à cette occasion, en janvier 2018.

Pour le moment, l’autonomie de la batterie s’élève entre 15 jours et 1 mois. Il faut donc la recharger sur un port USB. « Pour la version 2, notre objectif est d’atteindre une autonomie d’au moins un an en passant sur les nouveaux réseaux moins énergivores, détaille Julien Fortumeau, responsable Marketing digital de Parade. Au lieu de s’accrocher au réseau 2G/GSM nous allons travailler sur les réseaux LORA ou SigFox développés spécifiquement pour les objets connectés ». Grâce à une communication à bas débit et sans passer par un téléphone mobile, l’utilisation de ces réseaux demande beaucoup moins d’énergie. L’autonomie des périphériques qui y sont connectés est ainsi largement augmentée.

Pour acheter une telle paire de chaussure, il faudra débourser entre 110 et 150 euros. Un prix auquel il faudra ajouter un abonnement mensuel, compris entre 40 et 60 euros.

Par Matthieu Combe, journaliste scientifique

Comment va-t-on fabriquer des briques sur la Lune ?

Depuis plusieurs années, l’agence spatiale européenne, l’Esa, développe le concept de village lunaire: « J’ai l’intention de construire une base permanente sur la Lune: ce sera une station ouverte pour différents Etats participants, des pays des quatre coins du monde, » explique ainsi le directeur général de l’ESA, Jan Wörner. Et depuis quelques mois, ce projet prend forme de diverses manières. Que ce soit par des avancées technologiques ou par des pourparlers plus ou moins poussés comme ceux que la Chine a eu à la fin du mois d’avril avec l’Esa.

Comment habiter la Lune ?

Parmi les questions qui se posent pour coloniser la Lune, celle de l’habitat est l’une des premières bien sûr. Si la communauté scientifique et technique du monde entier rivalise d’inventivité et de créativité pour mettre au point un habitat immédiatement opérationnel à l’arrivée (modules gonflables, lander transformable, habitations pliables etc.), il est peu probable que l’on puisse facilement emmener des tonnes de matériaux pour construire sur place. Alors des chercheurs européens, dans le cadre du projet RegoLight financé par Horizon 2020 s’intéressent à la manière dont on pourrait fabriquer des briques pour construire de nouveaux édifices in situ. Ils en sont à la preuve du concept avec les premières pièces fabriquées à partir d’une imitation de poussières de Lune.

ESA–G. Porter
ESA–G. Porter

Poussière tu étais, brique tu seras !

Les briques ont été fabriquées à partir de poussières de roches volcaniques terrestres simulant la taille des grains et la composition de la poussière lunaire. Sur une table d’impression 3D à laquelle est couplée un four solaire, de fines couches du matériau de 0,1 mm sont cuites à 1000°C jusqu’à obtenir la forme désirée.

 Le four utilisé a été celui du DLR, le centre aérospatial allemand à Cologne qui est composé de 147 miroirs incurvés qui concentre la lumière du soleil. En cas d’absence de soleil, celui-ci a été simulé par une batterie de lampes à xénon (comme on en trouve sur les projecteurs de cinéma). Une brique de 20x10x3 cm est construite en 5 heures. Les briques ainsi créées dont dures comme du gypse, elles vont à présent être soumises à plusieurs tests de résistance mécanique.

Des tests en conditions spatiales

Ces premières briques ont été fabriquées en conditions atmosphériques terrestres, mais le projet européen RegoLight va plus loin. L’opération doit maintenant être reproduite dans des conditions lunaires : sous vide et avec des températures extrêmes. En outre, le projet se penche aussi sur l’utilisation de ces briques en cherchant quelle forme est la plus adéquate pour construire facilement des édifices à partir de la brique de base. Le projet a testé plus de treize formes en partant d’une base pyramidale.

Ces travaux sont dans la continuité de ceux du projet “lunar 3D printing project” qui visait à imprimer en 3D des structures complètes mais qui devait encore faire face à plusieurs inconvénients techniques comme par exemple la nécessité d’ajouter des sels pour servir de liant. Cette fois, la principale source d’énergie et le matériau sont uniquement lunaire.

Par Sophie Hoguin

Quelle stratégie pour mobiliser la biomasse française ?

La Stratégie nationale de mobilisation de la biomasse (SNMB) vise à appliquer la loi de transition énergétique pour la croissance verte et atteindre les objectifs de la programmation pluriannuelle de l’énergie (PPE). Les objectifs de la PPE pour 2018 concernant le développement du bois-énergie (540 MW) sont déjà atteints avec ses 591 mégawatts (MW) fin 2016. La filière est à 75 % du scénario bas 2023 (790 MW), mais encore loin du scénario haut (1040 MW). Pour la méthanisation, l’objectif est de passer de 85 MW en 2014 à 137 MW en 2018 et entre 237 MW et 300 MW d’ici 2023. Pour l’électricité produite à base de déchets, biogaz et stations d’épuration, l’objectif s’élève à 1350 MW en 2018 et 1500 MW en 2023, contre 1200 MW en 2014. Enfin, la production de chaleur renouvelable à base de biomasse devrait passer de 10,7 millions de tonnes équivalent pétrole (Mtep) en 2014, à 12 Mtep en 2018, et entre 13 et 14 Mtep en 2023.

Assurer les différents usages de la biomasse

La stratégie nationale définit un cadre global pour guider les mesures opérationnelles qui seront inscrites dans les schémas régionaux biomasse encore en cours d’élaboration. Elle se concentre sur des ressources jugées prioritaires : biomasse forestière, agricole, effluents d’élevage et déchets. Notamment, elle vise à déterminer les sources d’approvisionnement et à prévenir les conflits d’usage avec les autres filières (construction, chimie, fibres…). Cette stratégie s’attache ainsi à prévenir les impacts potentiellement négatifs, qu’ils soient économiques, sociaux ou environnementaux.

Son contenu et sa bonne articulation avec une quinzaine de documents ou d’orientations stratégiques – PPE, stratégie nationale bas carbone, documents portant sur la filière forêt-bois et sur la filière déchets, etc. – ont été définis par le décret du 19 août 2016. La stratégie porte sur 18 régions : la métropole, la Guadeloupe, la Guyane, la Martinique, La Réunion et Mayotte.

Trouver de nouvelles sources de biomasse

Selon le rapport, l’offre nationale de biomasse suffira à répondre à la demande pour atteindre les scénarios de la PPE pour 2018 et 2023. En revanche, d’ici 2030 et 2050, la mobilisation des ressources identifiées « ne suffit pas à satisfaire les scénarios de demande, y compris en intégrant un développement important de l’économie circulaire qui viendra réduire le besoin de biomasse neuve », précise le texte. Ainsi, « le besoin de recherche, de développements de nouvelles ressources et innovations est manifeste », alertent les auteurs. Cela passera par exemple par le fait de « conforter la valorisation matériau des feuillus, développer de nouvelles ressources comme les algues, massifier l’économie circulaire ».

Par Matthieu Combe, journaliste scientifique

Référendum : les Suisses ont approuvé la sortie du nucléaire

À la question « Acceptez-vous la loi du 30 septembre 2016 sur l’énergie ?», les Suisses ont répondu « oui » à 58,2%. La participation s’est élevée à 42,3% pour cette  révision de la loi sur l’énergie. Par ce geste, ils approuvent la première étape de la Stratégie énergétique 2050 du pays. Fin novembre 2016, les Suisses avaient rejeté par référendum la limitation de la durée de vie des réacteurs nucléaires à 45 ans.

Les mesures entérinées visent à réduire la consommation énergétique et améliorer l’efficacité énergétique. Les objectifs sont de baisser la consommation énergétique moyenne par personne et par an de 16 % d’ici 2020, et de 43 % d’ici 2035 par rapport à 2000. Selon l’Office fédéral de l’énergie (OFEN), la consommation individuelle d’énergie a déjà baissé de 14,5% depuis 2000. La loi interdit aussi la construction de nouvelles centrales nucléaires. Les 4 centrales nucléaires du pays (pour 5 réacteurs) pourront néanmoins continuer à produire de l’électricité tant que leur sûreté sera garantie, pour une durée de vie totale de 50 à 60 ans.

Un mix électrique qui va se diversifier

D’après les Statistiques de l’énergie OFEN, en 2015, la production électrique suisse était de 66 térawattheures (TWh). 59,9% provient de centrales hydrauliques (39,5 TWh). Les centrales nucléaires comptent pour 33,5% de la production (22,1 TWh), les centrales thermiques pour 4% (2,4 TWh). Le photovoltaïque, le biogaz, le bois et les éoliennes ne représentent que 2,6% (1,7 TWh).

Cette nouvelle loi veut développer les énergies renouvelables hors hydraulique pour atteindre 4,4 TWh en 2020 et au moins 11,4 TWh en 2035. L’objectif est de maintenir la production hydraulique, en moyenne, au moins à 37,44 TWh en 2035.

Première étape d’un long processus !

Le projet avait été accepté par le Parlement en septembre 2016, mais le premier parti de Suisse, l’Union démocratique du centre (UDC) avait réussi à organiser un référendum contre la nouvelle loi. Il estimait que la mise en oeuvre du texte entraînerait des coûts élevés, menacerait l’approvisionnement énergétique et défigurerait le paysage avec la multiplication des éoliennes et des panneaux solaires.

Suite à la catastrophe de Fukushima en mars 2011, la Suisse projetait une sortie du nucléaire vers 2034. Durant plusieurs années, les autorités ont travaillé sur la stratégie énergétique 2050. Sa mise en oeuvre en prévue par étapes.

Par Matthieu Combe, journaliste scientifique

Un nouveau matériau pour purifier le gaz naturel

Le gaz naturel extrait du sol a besoin que l’on élimine l’eau et le CO2 qu’il contient, afin que seul le méthane reste présent. Cette séparation s’opère grâce à divers matériaux comme les zéolites, des cristaux d’aluminosilicates incroyablement poreux. Bien que très efficaces, ils demandent beaucoup d’énergie pour être régénérés entre chaque utilisation. Des chercheurs de l’université KAUST, de l’Institut Lavoisier Versailles et de l’Institut Charles Gerhardt Montpellier sont parvenus à concevoir un nouveau matériau extrêmement stable et facilement recyclable : KAUST-8. Il appartient à la famille des metal organic frameworks (MOF), des matériaux cristallins composés d’ions métalliques et de ligands organiques. Ce nouveau MOF est formé d’unités métalliques d’aluminium fluorés associés à des ligands pyrazine.

KAUST-8 se présente sous la forme d’un réseau tridimensionnel générant des tunnels si petits (0,36 nanomètre) qu’ils n’autorisent pas les molécules de méthane à pénétrer à l’intérieur. Les molécules d’eau et de dioxyde de carbone peuvent cependant y accéder et rester piégées par interactions avec des sites distincts : l’eau sur les sites métalliques d’aluminium et le dioxyde de carbone vers les atomes de fluor et la pyrazine, prédit par des simulations numériques. KAUST-8 est ainsi capable de purifier le gaz naturel avec des performances bien meilleures que celles des autres tamis moléculaires couramment employés. Ces travaux montrent également qu’il est possible de moduler les propriétés structurales et chimiques des MOF afin de les adapter à la séparation de molécules de taille plus grande, d’un intérêt majeur dans le domaine de l’énergie et de l’environnement.

Source : cnrs

Votre invitation sur SMART ENERGIES 2017 Expo & Summit, les 6 et 7 juin 2017

SMART ENERGIES SUMMIT

Smart Energies Summit a développé une programmation pointue visant à mettre en lumière les architectes du changement, qui participent jour après jour à l’écriture du futur de l’énergie.

DES CONFÉRENCES STRATÉGIQUES & RETOURS D’EXPÉRIENCE : Des CEO aux Top Dirigeants… Inspirez-vous des acteurs emblématiques de la scène intelligence énergétique en prenant part à des débats stratégiques d’avant-gardes ! Découvrez sans plus attendre les temps fort de ce sommet d’exception :

  1. Un paysage énergétique sous influence peer-to-peer…
  2. Les acteurs de la rupture façonnent le nouveau monde de l’énergie…
  3. Utilities, un métier en mutation…

Smart Energies Summit, c’est :

  • Plus de 30 conférences stratégiques et visionnaires
  • Plus de 40 speakers emblématiques
  • Plus de 500 décideurs attendus

Profitez de 30% de réduction sur votre accès Full Pass Conférences
avec TECHNIQUES DE L’INGÉNIEUR

SMART ENERGIES EXPO

Smart Energies Expo a pour ambition de vous offrir un panorama exhaustif des technologies et solutions qui bousculeront demain les modèles de performance en place ! Retours d’expériences, démos, ateliers…

Réservez gratuitement votre accès pour l’Expo !

DES ATELIERS : Bénéficiez de l’expertise projet et techno d’acteurs emblématiques de l’intelligence énergétique hexagonale, qui vous accompagneront demain sur l’ensemble de vos problématiques de transformation et de performance au travers d’une série de présentation de 30 minutes. Découvrez les sujets qui seront au cœur des débats de nos 5 pavillons thématiques :

  1. Digital Energy
  2. Smart grids, infrastructure
  3. Stockage et EnR
  4. Efficacité énergétique
  5. Smart Home / Smart Building

Smart Energies Expo, c’est :

  • Plus de 90 ateliers opérationnels et applicatifs
  • Plus de 130 speakers experts de la révolution énergétique
  • Plus de 80 marques leaders de l’intelligence énergétique
  • Plus de 4 000 décideurs attendus

L’EXPÉRIENCE SMART ENERGIES 2017 C’EST AUSSI …

LES SMART AWARDS : Inspirez-vous des projets d’intelligence énergétique les plus innovants et performants de la filière française et internationale !

DES RENDEZ-VOUS D’AFFAIRES : Smart Energies 2017 se positionne via sa plateforme exclusive de rendez-vous d’affaires comme la première place de marché hexagonale dédiée à l’intelligence énergétique. De l’identification de partenaires stratégiques au développement de votre réseau d’affaires, partez à la rencontre des acteurs les plus pointus de la scène intelligence énergétique nationale en les challengeant sur vos problématiques.

NETWORKING : Avec plus de 4 000 décideurs attendus dont 60% d’utilisateurs, Smart Energies 2017 est le rendez-vous B2B des professionnels qui façonnent la filière énergie de demain ! De l’échange de Best Practices entre pairs au développement d’opportunités business, l’évènement s’impose comme le temps fort incontournable de cette année 2017 !

Drivers For Change : la révolution est en marche, l’êtes-vous ?

RÉSERVEZ SANS PLUS ATTENDRE VOS 6 & 7 JUIN 2017 POUR PRENDRE PART AU RENDEZ-VOUS DE RÉFÉRENCE DE L’INTELLIGENCE ÉNERGÉTIQUE !

En savoir plus sur Smart Energies Summit et Smart Energies Expo.

Le robot social se professionnalise

L’annonce avait fait du bruit l’an dernier sur le salon Innorobo : Pepper, le robot-égérie de Softbank Robotics (qui avait absorbé le français Aldebaran), proclamait son arrivée officielle sur la scène européenne. Le groupe japonais, ciblant en priorité les entreprises, avait décidé du même coup de l’entourer d’un programme Partenaires. Objectif : attirer des spécialistes qui aideraient Pepper à s’installer dans le paysage économique professionnel, à l’instar de ce qui se passe déjà au Japon.

pepper

En France, Hoomano, qui développe des logiciels pour la robotique sociale (qui interagit avec les humains), a par exemple «adapté» Pepper aux besoins de la SNCF et Darty, pour guider le voyageur ou dynamiser la relation client en magasin. A voir sa progression, ce programme est un succès. «Nous comptions 23 partenaires au lancement il y a un an, rappelle Nicolas Boudot, directeur commercial Europe Moyen Orient Afrique de SoftBank Robotics. Ils sont aujourd’hui 70 dans toute l’Europe.» Des conditions sont imposées – achat d’un robot au minimum, formation de 5 jours… – en contrepartie d’un support technique dédié, d’un soutien marketing, etc.

Les profils de ces «compagnons de route» sont variés. «Ce sont des entreprises de services numériques généralistes comme GFI Informatique, et d’autres qui adressent des marchés verticaux plus spécifiques, explique Nicolas Boudot. Leur rôle consiste à ajouter la dernière brique et à façonner une solution-métier.» Ce modèle commercial à valeur ajoutée est à l’oeuvre depuis un bout de temps en robotique industrielle ou dans d’autres filières de la robotique de service, où les intégrateurs jouent un rôle intermédiaire entre le fabricant du robot et l’usine ou l’entreprise qui s’équipe. Dans une filière telle que la distribution informatique professionnelle, l’organisation est proche et implique des revendeurs, des ESN et des intégrateurs qui connaissent précisément les attentes des entreprises-clientes. Bien que les volumes de vente ne soient pas – encore – comparables, le fait que la robotique sociale commence à se structurer de la même manière est assurément un signe de maturité sur un marché assez nouveau.

Buddy à la conquête du B2B

C’est d’autant plus vrai que Softbank Robotics n’est pas un cas isolé en France. Malgré des ressources et une publicité sans commune mesure, la société française Blue Frog a dévoilé lors d’Innorobo 2017 son propre programme Partenaires, impliquant le robot Buddy. Celui-ci, dont la phase d’industrialisation se finalise, devrait arriver dans les magasins d’ici à la fin de l’année, à un prix de 1290 € TTC. «Mais un canal B2B et des applications professionnelles sur mesure sont envisagés, déclare Rodolphe Hasselvander, le fondateur de Blue Frog. Des intégrateurs comme Hoomano, One Point, Conserto et Awabot pourront répondre aux besoins des entreprises-clientes.» Il est question d’accueil, d’accompagnement interactif dans le monde de l’éducation… «Des producteurs de contenu (Nathan, Ubisoft…), des entreprises qui veulent inclure Buddy dans leur offre de services et des experts du Smart Home (Somfy, Delta Dore) nous ont également rejoints» poursuit Rodolphe Hasselvander. Une personne a été recrutée pour superviser cette stratégie.

buddy1140

La société limougeaude Cybedroid adopte une posture moins officielle pour sa dernière création humanoïde, Leenby. «Il est difficile de mettre en place un équipe dédiée et de formaliser un programme Partenaires, alors que nous sommes une toute petite équipe, confie Fabien Raimbault, le PDG. Cela ne nous empêche pas de travailler depuis l’été 2016 avec Hocaro, qui utilise notre robot à destination des EHPAD (Etablissement d’hébergement pour les personnes âgées dépendantes) ou encore Inbenta, qui le configure pour l’accueil en agence bancaire. Nous conservons en revanche un schéma de vente directe pour les particuliers. Mais il n’est pas question de brûler les étapes.» Une démarche prudente mais raisonnable pour des fabricants de robots qui ne sont généralement que des start-ups.

Par Frédéric Monflier

Recherche et innovation : quels chantiers pour Frédérique Vidal ?

Après avoir suivi une maîtrise de biochimie à l’Université de Nice, un DEA en virologie fondamentale à l’Institut Pasteur, et un doctorat en sciences de la vie à nouveau à Nice, Frédérique Vidal est engagée en tant que maître de conférences en 1995 par l’Université de Nice. Elle y devient Professeur en sciences de la vie dans cette même université  en 2004. Puis, elle gravit doucement les échelons. Elle devient notamment directrice du département Sciences de la vie de 2005 à 2008. Puis directrice de la faculté des sciences de 2009 à 2012. Avant de prendre la tête de l’Université niçoise en 2012.

Présidente d’Université dont l’action est reconnue, elle avait été réélue en avril 2016 pour un nouveau mandat de 4 ans. Elle est par ailleurs experte pour l’Agence d’évaluation de la recherche et de l’enseignement supérieur (AÉRES) depuis 2007. Et pour l’Union européenne dans le cadre de l’université euro-méditerranéenne depuis 2010. Un engagement européen chéri par Emmanuel Macron.

Une généticienne pour un nouveau ministère

« Son activité dans le domaine de la recherche est concentrée sur la génétique moléculaire, discipline très expérimentale, avec la mise en place de modèles cellulaires et animaux », indique son CV sur le site  de l’Université Nice-Sofia-Antipolis. Elle est notamment à l’origine de la création du futur campus étudiant à Cannes prévu pour la rentrée 2019. Il formera notamment un millier d’étudiants autour des métiers de l’audiovisuel, du cinéma et des jeux-vidéos.

Les questions d’enseignement supérieur et de recherche étaient jusqu’ici tenues par un secrétaire d’Etat rattaché au ministère de l’Éducation nationale. Frédérique Vidal remplace ainsi Thierry Mandon qui occupait ce poste depuis juin 2015. La nouvelle ministre s’y voit adjoindre l’innovation. Il s’agit d’ « un excellent signal adressé à la communauté universitaire », se félicite la Conférence des Présidents d’Université dans un communiqué.

Des chantiers importants à traiter

Plusieurs sujets chauds attendent Frédérique Vidal. Le 8 mai, la pétition Le hasard ne décidera pas de mon avenir ! a été lancée. Elle a déjà collecté plus de 9.000 signatures. Elle s’indigne contre une circulaire officialisant le tirage au sort dans les licences universitaires en tension (Staps, PACES, Droit ou encore en Psychologie). Celle-ci a été publiée en toute discrétion durant l’entre-deux-tours de l’élection présidentielle. « L’Etat démontre par cette circulaire l’aveu d’échec de notre système éducatif », insistent les lanceurs d’alerte. Ils demandent l’abrogation de cette circulaire et une « réforme ambitieuse » pour « permettre à tous les jeunes titulaires du BAC d’accéder aux études supérieurs ».

Par ailleurs, la ministre devra prendre à bras le corps le sujet du chômage, la diminution des postes de permanents dans les organismes de recherche et à l’université au profit de postes précaires. Elle devra ainsi redorer le blason de l’université et de la recherche française pour éviter la fuite de nos jeunes cerveaux à l’étranger.

La passation de pouvoirs entre Frédérique Vidal et Thierry Mandon est prévue pour jeudi matin, juste avant le premier Conseil des ministres du gouvernement d’Edouard Philippe.

Par Matthieu Combe, journaliste scientifique

Nicolas Hulot, ministre de la transition écologique et solidaire !

C’est un petit séisme dans le monde écologiste. Nicolas Hulot avait refusé plusieurs postes et têtes de ministère, que cela soit sous Jacques Chirac, Nicolas Sarkozy ou François Hollande. Il avait aussi renoncé à se présenter à la Présidentielle en 2007 au profit d’un pacte écologique signé par les principaux candidats. Il était ensuite entré dans la course à la Primaire écologiste en 2011, mais avait été battu à plate couture par Eva Joly.

Nicolas Hulot avait finalement accepté le poste bénévole d’envoyé spécial du président François Hollande pour la protection de la planète de décembre 2012 à fin janvier 2016. L’objectif était de mobiliser l’opinion internationale sur l’urgence de la crise écologique et de parvenir à un accord à la COP21. A 62 ans, il entre pour la première fois dans un gouvernement.

Nicolas Hulot, représentant des ONG

Emmanuel Macron a entendu les attentes des organisations environnementales. Dans une lettre ouverte datée du 9 mai dernier, 8 ONG environnementales, dont le WWF, la fondation Nicolas Hulot et France nature environnement, appelaient Emmanuel Macron à mettre en place un grand ministère de l’Environnement. A sa tête, elles demandaient un ministre d’État, « numéro deux dans l’ordre protocolaire ». En nommant Nicolas Hulot, Macron fait appel à une personne de la société civile, respectée dans le monde associatif. Dans l’ordre protocolaire, Nicolas Hulot est deuxième ministre d’Etat après Gérard Collomb, nommé ministre de l’Intérieur.

Nicolas Hulot aura notamment pour mission d’assurer l’application de la loi de transition énergétique pour la croissance verte. Pour respecter la loi de transition énergétique et l’Accord de Paris, de nombreux défis restent à surmonter. Durant le quinquennat, il faudra aussi trancher plusieurs grands projets, critiqués par les associations environnementales : Notre-Dame des Landes, Cigéo, l’EPR de Flamanville.. Si Nicolas Hulot s’est fermement engagé contre ces projets, ce n’est pas la position d’Emmanuel Macron ni du premier ministre Édouard Philippe.

De futures oppositions entre Nicolas Hulot et Edouard Philippe ?

Edouard Philippe a été directeur des affaires publiques d’Areva entre 2007 et 2010. En tant que député, il s’était d’ailleurs opposé et avait voté contre la Loi Biodiversité et la Loi de transition énergétique pour la croissance verte. Comme l’ensemble des députés de droite. Il s’était aussi prononcé favorablement pour la réouverture du dossier gaz de schiste à l’Assemblée nationale. Cette nomination a été ouvertement critiquée par les ONG qui redoutaient que l’environnement soit relégué au second plan durant le prochain quinquennat.

L’entrée de Nicolas Hulot au gouvernement fera certainement taire les critiques de ces derniers jours. Par cette décision, Emmanuel Macron montre qu’il entend bien faire de la transition écologique l’une de ses priorités. Si celle-ci occupait une faible part dans son programme, elle était au coeur des projets de Benoît Hamon et de Jean-Luc Mélenchon.

Ségolène Royal émue, continuera « le combat climatique»

Au micro de BFMTV, Ségolène Royal s’est montrée très émue. Elle reconnait l’implication de Nicolas Hulot et pense que « ce ministère sera entre de bonnes mains ». « Un travail formidable l’attend », juge-t-elle. Elle a néanmoins regretté ne pas pouvoir continuer son travail dans un autre ministère. A présent, elle fait part de son intention de créer son entreprise dans le domaine de la croissance verte et de la finance verte « pour passer des discours aux actes ». « Je vais continuer le combat climatique, parce que c’est l’engagement de toute une vie », prévient-elle.

Nicolas Hulot est farouchement opposé aux traités commerciaux transatlantiques, défend l’agriculture biologique et l’agroécologie. Il est opposé au projet d’aéroport de Notre-Dame-des-Landes et adepte de la réduction du nucléaire au profit des énergies renouvelables.

Par Matthieu Combe, journaliste scientifique

Smart Manufacturing Summit 2017

L’ÉVÉNEMENT DES DÉCIDEURS DE L’INDUSTRIE DU FUTUR

► 5 Conventions d’affaires : Un planning de 34 plages horaires vous est affecté : 5 conventions d’affaires se déroulent conjointement, sélectionnez des participants au sein des différents meetings pour constituer votre agenda de rendez-vous qualifiés et préprogrammés idéal :

  • ADDITIVE & PROTOTYPING DAYS : Rendez-vous d’affaires et exposition sur les Technologies et Process pour l’Usine du Futur
  • OPTICS & PHOTONICS DAYS : Rendez-vous d’affaires et exposition sur les technologies Optiques et Photoniques
  • MECHATRONICS DAYS : Rendez-vous d’affaires et exposition sur les systèmes Mécaniques, Mécatroniques et Robotiques.
  • ELECTRONICS & EMBEDDED DAYS : Rendez-vous d’affaires et exposition sur les technologies de l’Electronique et des Systèmes Embarqués
  • INDUSTRIAL EFFICIENCY DAYS : Rendez-vous d’affaires et exposition dédiés aux Green technologies, Waste & Smart buildings

► 6 villages thématiques sont à votre disposition pour développer vos réseaux informels

  • IT & CONNECTIVITY SOLUTIONS : Exposition dédiée aux systèmes avancés de production, CPS, M2M, Big Data et Cyber-sécurité
  • OPEN INNOVATION VILLAGE : Exposition dédiée au développement et solutions d’Open Innovation
  • IOT & ROBOTICS : Exposition dédiée au Numérique, la Connectivité et la Robotisation dans l’Industrie
  • OPTICS & PHOTONICS : Exposition dédiée sur les technologies Optiques et Photoniques
  • LE VILLAGE DES GRANDS DONNEURS D’ORDRES : Entre deux rendez-vous, rencontrez en rdv informels les grands comptes à la recherche de solutions innovantes !
  • CYBER SECURITY : Exposition dédiée aux solutions de sécurité numérique : Machines, IOT, EDI, Mobilité, sites…

► Un Congrès

Ce congrès sera animé par les VP de grands groupes présentant leurs avancées et projets relatifs à leur démarche de Smart Manufacturing.

► Un Start-up Challenge

Parce que l’innovation est au cœur de toutes les stratégies, 10 start-up & PME seront sélectionnées par un comité d’experts et concourront pour gagner les prix “Start-up challenge”. Thématiques : Toutes thématiques liées à l’Industrie du Futur.

► Organisation

SMS17 est organisé par : CAP’TRONIC, CAP DIGITAL, l’AFOP, ASTech, MOV’EO, RAVI, le COMITE MECANIQUE Ile-de-France

Avec le soutien de : L’Europe, la région Ile-de-France, L’Alliance pour l’Industrie du Futur, le CNOP, OpticsValley.

► POUR EN SAVOIR PLUS :

TÉLÉPHONE : +33 (0)1 46 90 19 05 / E-MAIL : [email protected] / SITE : www.smart-manufacturing-summit.com

Projection du son : la supériorité des Stradivarius remise en question

La projection du son est la capacité d’un instrument à remplir l’espace lors d’un concert, à porter jusqu’au fond d’une salle ou à passer au-dessus d’un orchestre. Elle est particulièrement  importante par les solistes. La projection des violons italiens des XVIIe et XVIIIe siècles, et notamment celle des Stradivarius, est souvent considérée comme supérieure à celle des violons plus récents. L’équipe de recherche dont fait partie Claudia Fritz, chercheuse CNRS à l’Institut Jean Le Rond d’Alembert (CNRS/UPMC), en collaboration avec le luthier américain Joseph Curtin, a donc voulu vérifier cette supériorité présumée lors de deux expériences ayant fait appel à 137 auditeurs : 55 dans un auditorium à Paris, 82 dans une salle de concert newyorkaise. Les auditeurs devaient juger neuf paires de violons – constituées d’un violon ancien et d’un violon récent – suivant deux critères : la préférence personnelle et la projection sonore. Afin de ne pas influencer les jugements, les expériences ont été menées en double aveugle, en dissimulant la nature de chaque instrument aux violonistes et au public.

Les résultats de l’étude montrent qu’en moyenne, les auditeurs préfèrent les violons récents aux Stradivarius et trouvent qu’ils projettent davantage. De plus, à l’instar des violonistes, l’auditoire ne parvient pas à distinguer systématiquement les deux types de violons. Deux études menées en aveugle par la même équipe, en 2010 et en 2012, avaient en effet montré que les violonistes préféraient les instruments récents aux célèbres violons italiens, en étant toutefois incapables de les différencier.

Cette étude révèle que, contrairement aux idées reçues, les solistes auraient intérêt à privilégier les violons récents pour leurs concours, leurs auditions et leurs concerts, à condition que la provenance de leur instrument reste inconnue du jury et des auditeurs. Par ailleurs, inciter les violonistes à effectuer des tests en aveugle leur permettrait de porter leur choix sur un instrument sans être influencés par le prestige associé à un célèbre nom de luthier.

Source : cnrs

Innorobo 2017 ouvre ses portes

Du 16 au 18 mai, la septième édition du salon Innorobo reprend ses quartiers aux Docks de Paris, situés au nord de la capitale. Quelque 150 exposants y présenteront leurs travaux et innovations en matière de robotique, de drones, d’impression 3D et d’intelligence artificielle. L’édition précédente, qui pour la première fois se déroulait à Paris et non plus à Lyon, avait accueilli environ 10 000 visiteurs d’une quarantaine de nationalités. Sans doute les organisateurs espèrent-ils faire au moins aussi bien…

A mesure que la transformation robotique gagne l’industrie, le transport ou encore les services à la personne, ce salon se veut de plus en plus un événement orienté «business» et un espace de débats et d’échanges entre tous les acteurs de la filière. A ce titre, des sessions interactives nommées Flipped Pitch sont à la disposition des entreprises et organismes publics qui souhaitent exposer leurs problématiques, technologiques ou économiques, et trouver une solution auprès d’experts en robotique.

Comme à son habitude, Innorobo sera ponctué d’interventions et de conférences qui aborderont plusieurs thématiques d’importance. A commencer par les États Généraux de la Robotique, qui se dérouleront lors de la première journée. En perspective : état du marché de la robotique en France et bilan des dernières actions de l’État pour inciter les entreprises à s’équiper. Une réflexion sera également menée sur les métiers et la formation en robotique.

Le 17 mai sera mis à l’honneur le métier méconnu d’intégrateur, qui sert d’intermédiaire entre le fabricant du robot et le client, par exemple l’entreprise, qui en fera l’usage. Des intégrateurs auront l’occasion de parler de l’évolution de leur profession et des nouveaux enjeux et opportunités qui y sont liés. Enfin, la dernière journée mettra l’accent sur les relations entre la robotique et le monde de l’éducation.

Soucieux du rayonnement du salon à l’international, les organisateurs ont par ailleurs invité des délégations coréenne et chinoise à promouvoir leur savoir-faire. La Corée du Sud est en effet le leader mondial dans le secteur de la robotique de services et la Chine représente le premier marché mondial de la robotique industrielle, avec 27% des 253 750 robots achetés en 2015 (source Fédération Internationale de la Robotique). En Europe, les industries allemandes puis italiennes s’équipent le plus, loin devant les françaises, malgré une progression de 3 % des achats.

Frédéric Monflier

Comment une faille Windows a rendu possible une cyberattaque mondiale

Un grand classique : lancer une attaque informatique le vendredi soir quand les entreprises commencent à fermer et à mettre en « pause » leur sécurité… C’est ce qui s’est passé avec la cyberattaque baptisée « WanaCrypt ». C’est l’un des noms du code malveillant qui s’est propagé à très grande échelle vendredi à partir de 3 h 24 (ET).

Rapidement, près de 200.000 ordinateurs situés dans au moins 150 pays ont été touchés par ce virus de type « rançongiciel » (ou ransomware). Schématiquement, ce code malveillant infecte l’ordinateur par l’intermédiaire d’une pièce jointe à un email et chiffre (ou crypte) toutes les données enregistrées et partagées. Pour les récupérer, les pirates réclament une rançon, en l’occurrence 300 dollars, à payer en bitcoins. Ce lundi matin, « 160 transactions avaient été enregistrées, pour un total de 23,89 bitcoins, l’équivalent de 37.767 euros », indique le quotidien Les Échos.

I loveYou, Slammer…

Les victimes sont principalement des entreprises. « En Europe, c’est la Grande-Bretagne qui a été la plus sévèrement touchée : le système informatique du NHS, le service de santé britannique, a été quasi paralysé par le logiciel. Dans de nombreux hôpitaux, les opérations non urgentes ont dû être repoussées ; l’administration ne sait pas encore si des données ont été perdues. Ailleurs en Europe, plusieurs grandes entreprises ont été touchées, dont l’opérateur Telefonica en Espagne, les chemins de fer allemands, et Renault, qui a connu des perturbations sur des chaînes de montage. La Russie et l’Inde ont également été particulièrement touchées en nombre d’ordinateurs infectés », précise Le Monde.

Si la propagation a été très rapide c’est parce que les pirates ont profité d’une faille de sécurité de Microsoft Windows dont l’existence n’a été révélée que très récemment. Elle figurait parmi un ensemble d’outils de piratage appartenant à la NSA (l’agence de renseignement américaine) qui ont été révélés début 2017 par un groupe mystérieux se faisant appeler « The Shadowbrokers ». L’éditeur avait mis à disposition un correctif pour y pallier depuis mars. Mais comme toujours, de nombreuses entreprises ne les appliquent pas ou avec beaucoup de retard. Et surtout, ce patch ne concernait pas Windows XP, le système d’exploitation vieux de 15 ans, mais encore présent dans de nombreuses entreprises et en particulier chez des industriels. Dans l’urgence, Microsoft en a sorti un samedi.

Cette propagation a également été facilitée par le recours à une vieille technique : le ver informatique. Il s’agit d’un virus particulier car il est capable d’exploiter les fonctionnalités réseaux que les autres ne font pas. Il peut en effet se diffuser tout seul via des services de messagerie instantanée ou de courrier électronique. Le principal vecteur de propagation est la pièce-jointe à un email.

Ce type de code malveillant a fait des ravages au début des années 2000. Qui se souvient encore du ver « IloveYou » qui s’est propagé via des pièces jointes en mai 2000 et a infecté plus de 45 millions d’ordinateurs dans le monde.

Trois ans plus tard, ce sera autour Blaster/Lovsan. Au mois d’août 2003, ce ver se répand sur toute la toile en quelques minutes en exploitant une faille de Windows rendue publique… le 16 juillet 2003. Afin qu’il ne soit pas repéré, son concepteur a diffusé 5 autres variantes en moins de 60 jours.  Enfin, le même mois, Sapphire/Slammer  infecte en 10 minutes quelque 75 000 serveurs dans le monde et bloque 13.000 distributeurs automatiques de billets de la Bank of America pendant plusieurs heures aux États-Unis.

Wanacrypt n’atteindra peut-être pas ce niveau. Ce week-end, un jeune anglais a déclaré avoir trouvé par hasard une parade pour stopper sa propagation. Mais les pirates pourraient proposer rapidement une version 2…

Par Philippe Richard

Le maïs MON 810 sans risques ?

Le groupe de travail sur les OGM de l’Efsa a évalué le rapport annuel 2015 de Monsanto portant sur le suivi environnemental post-commercial du maïs MON 810. Son avis est publié le 8 mai 2017. Ce maïs sécrète la protéine Cry1Ab, une toxine insecticide, autrement appelée Bt. « Les données de surveillance [au Portugal et en Espagne fournies par Monsanto à l’EFSA] n’indiquent pas une diminution de la sensibilité des ravageurs du maïs à la protéine Cry1Ab durant la saison 2015 », conclut l’agence sanitaire européenne. Autrement dit, les insectes ne sont pas encore devenus résistants à cet OGM. Par ailleurs, aucun effet indésirable n’a été observé chez l’homme ou l’animal.

Au final, l’Efsa estime qu’il n’y a aucune preuve qui pourrait invalider les évaluations précédentes sur la sécurité du maïs MON 810.

Toutefois, le groupe de travail réitère ses recommandations précédentes pour améliorer la méthodologie. Elle considère que la sensibilité de détection pour surveiller la résistance des insectes est pour le moment insuffisante.

Le maïs MON810 en Europe et dans le monde

Dans l’Union Européenne, 4 pays ont cultivé le maïs génétiquement modifié de Monsanto en 2016. Pour un total de 136.363 hectares, en hausse de 17 % par rapport à 2015, selon l’ISAAA, un organisme international de promotion des OGM. En première position se trouve l’Espagne, avec 129.081 hectares. Puis le Portugal (7.069 hectares), la Slovaquie (138 hectares) et la République Tchèque (75 hectares). En 2016, la Roumanie a totalement arrêté la culture des OGM . Elle cultivait 770 hectares de MON810 en 2014, mais plus que 2,5 hectares en 2015. Mis à part l’Espagne où les surfaces continuent leur progression, les OGM enregistrent un recul dans les autres pays européens.

Le maïs est le deuxième OGM le plus cultivé au monde derrière le soja. En 2016, 26% du maïs cultivé dans le monde était transgénique. Cette même année, la surface mondiale des cultures d’OGM a atteint 185,1 millions d’hectare, en hausse de 3% par rapport à 2015. Sur 26 pays qui cultivent des OGM dans le monde, le top 5 sont les Etats-Unis, le Brésil, l’Argentine, le Canada et l’Inde. Aux Etats-Unis, en Argentine, au Brésil, au Canada, en Afrique du Sud et en Uruguay, plus de 90% du maïs cultivé est génétiquement modifié.

Par Matthieu Combe, journaliste scientifique

Vie privée : que faire si vous avez été piraté

Se faire pirater (sur Internet) peut virer au cauchemar, comme l’a vécu Matt Honan, journaliste américain, en 2012. Il avait alors perdu le contrôle de ses comptes et avait vu toutes les données de son ordinateur supprimées.

Ses comptes Gmail, Twitter et Apple avaient été piratés par un hacker, “Phobia”. Le pirate avait tenté de détourner le compte Twitter du journaliste en utilisant l’adresse email rattachée au compte. Pour pirater cette adresse email, le hacker a d’abord réussi à prendre contrôle de “l’adresse de secours” utilisée par Gmail – un compte iCloud. Et ainsi de suite – tous les comptes de Mat Honan étant rattachés. Une fois hacké, Mat Honan s’est bien entendu dépêché de sécuriser ses comptes.

A la chasse aux e-mails suspects

Que faire, si vous avez, vous aussi, été piraté ? Tout d’abord, changez les mots de passe, et si possible, les nom d’utilisateur de tous vos comptes – y compris (surtout) ceux que vous n’utilisez presque pas. Ces derniers comptes sont les plus exposés, car de l’immobilité naît le risque.

Ensuite, inspectez minutieusement vos boites mails – la boîte “messages envoyés” et la corbeille, à la recherche d’une activité suspecte, ou d’informations confidentielles que vous auriez partagé. Par exemple, si vous avez commis l’imprudence d’envoyer un RIB, ou encore un mot de passe par e-mail, à quelqu’un de confiance ou à vous-même, supprimez-vite le message en question.

Si vous trouvez des emails envoyés qui ne sont pas de vous, contactez vite le destinataire, pour lui indiquer qu’il s’agit d’un piratage, et qu’il ne faut surtout pas y répondre, ou cliquer sur les liens (sûrement frauduleux) proposés dans le message.

Vérifiez ensuite dans les paramètres de votre webmail (Gmail ou autre) si aucune adresse e-mail extérieure et inconnue n’est rattachée à votre compte (ce qui permettrait, par exemple, à un hacker discret de recevoir sur sa boite mail, des copies de vos messages) – et agissez le cas échéant. Prévenez ensuite vos amis, une fois la situation sous contrôle.

Reprenez la main sur vos comptes

Une fois votre adresse email sécurisée (le plus important), il vous reste désormais à récupérer vos comptes piratés, ceux qui vous sont inaccessibles, même en tentant de réinitialiser les mots de passe. La majorité des services les plus populaires proposent des formulaires à remplir, vous permettant de faire valoir vos droits.

Ainsi, vous trouverez sur Facebook, Twitter, Instagram, Google Plus, YouTube, Gmail, Microsoft Outlook, Yahoo!, Skype, Steam, Orange, et Apple (iCloud, iTunes), des espaces dédiés aux requêtes de récupération de comptes piratés, et de réinitialisation de mots de passe. Des questions de sécurité vous seront probablement posées. Si le service piraté ne propose pas ce genre de formulaire, alors mieux vaut éviter de l’utiliser à nouveau, simple conseil.

Si jamais un hacker a piraté vos comptes “dans les nuages” (iCloud, Drive…), effaçant ensuite les données que vous aviez stockées sur votre tablette ou votre smartphone, comme ce fut le cas pour Mat Honan, vous pouvez les récupérer en vous tournant vers une société spécialisée. Mais attention à vous adresser à un prestataire de confiance, comme Kroll Ontrack.

A l’avenir, soyez prudent

Une fois toutes ces étapes traversées, il ne vous reste plus qu’à adopter une nouvelle hygiène de vie numérique – afin d’éviter de vous faire pirater à nouveau. Tout d’abord, changez de mots de passe régulièrement, tous les 3 mois en moyenne – et utilisez des mots de passe complexes. Ensuite, n’utilisez jamais le même mot de passe pour plusieurs comptes (si vous avez peur d’avoir un trou de mémoire, les coffres-fort de mots de passe sont là pour cela), et ne liez plus vos comptes entre eux.

Limitez également les informations personnelles diffusées en ligne : votre mot de passe peut être facile à deviner pour un pirate informatique s’il se réfère à des informations personnelles, comme votre date de naissance, le nom de votre fils ou de votre conjoint. Ne reliez donc pas vos mots de passe avec des éléments personnels, et faites attention aux informations que vous diffusez sur Internet, susceptibles d’aider un hacker à vous pirater.

Pour sécuriser une fois pour toute vos comptes, l’authentification en deux étapes est un système très efficace : à chaque connexion, un code spécial vous sera demandé. Le service utilisé (Google, Facebook, etc.) vous le transmettra par SMS ou message vocal, sur votre smartphone. Cela peut sembler fastidieux, mais ce système ferme la porte aux pirates.

Enfin, sécurisez vos e-mails, en faisant attention à ce que le protocole de chiffrement des données échangées sur Internet, le TLS (Transport Layer Security), soit utilisé. Il est possible de distinguer une connexion TSL d’une connexion normale : au lieu de commencer par “http”, l’adresse commence par la formule “https”. Vous pouvez aussi utiliser un logiciel de chiffrement des e-mails, comme GnuPG, qui repose sur l’échange de clés publiques et privées.

Par Fabien Soyez

4 transactions via votre carte de crédit pourraient révéler votre identité

Il suffit de 3 « traces numériques », des métadonnées, pour vous identifier dans une masse de données « anonymisées ». C’est ce que révèle une étude effectuée par des chercheurs du MIT.

Il faut donc avoir en sa possession trois traces : les montants dépensés, le type de commerce (restaurant, bar, supermarché) et le code qui représente chaque personne. En clair, selon les chercheurs, qui ont publié leur étude dans la revue Science, les noms des clients, les numéros de carte de crédit, les adresses des magasins et l’heure des transactions sont « effacés », mais cela ne suffit pas à garantir un véritable anonymat.

À partir des 3 informations pré-citées, il est possible d’établir un « modèle de dépenses » (aussi unique qu’une empreinte digitale) et ensuite d’identifier quelqu’un, avec un taux de certitude de 90 %, dans une base de données de 1,1 million de personnes « anonymes ». La base de données utilisée par les scientifiques du MIT, obtenue auprès d’une banque, contenait 3 mois de transactions par cartes de crédit, effectuées dans 10 000 magasins.

Une « attaque de corrélation »

Selon l’étude, 4 renseignements sur une personne (facilement récupérables dans des reçus et des factures) suffisent pour mener une « attaque de corrélation » − en associant (via un algorithme) ces 4 renseignements extérieurs aux 3 données permettant d’établir le « modèle de dépenses » nécessaire à son identification. Par exemple, il suffit de savoir où monsieur X se trouvait (et effectuait des achats) à 4 moments différents, puis de croiser ces informations avec les données correspondantes (stockées dans la base de données), pour retrouver monsieur X et le « ré-identifier ».

Tout est une question de probabilités et de « corrélations statistiques » : un client se rendant dans un magasin de vêtements à un moment donné, puis dans un café l’heure suivante, avant de se rendre dans un restaurant, puis dans une salle de sports, sera presque « unique ». Pour obtenir ce genre de données, les chercheurs ont pour leur part utilisé les « fuites » d’une poignée de gros sites.

« Notre article pointe les limites de l’anonymisation des fichiers de données. Il doit ouvrir le débat technique et réglementaire pour limiter les risques de la diffusion de fichier », explique au Monde Yves-Alexandre de Montjoye, le doctorant du MIT à l’origine de cette étude.

Prudence face au « Big Data »

Pour préserver l’anonymat, rendre les données moins précises ne suffit pas, indiquent les chercheurs, car il suffit à une personne malintentionnée de récupérer des informations externes supplémentaires (pour cela, il suffit de se rendre sur le Web, où les « traces » numériques abondent, en particulier sur les réseaux sociaux, et de les « « aspirer ») pour ré-identifier quelqu’un.

Pour les chercheurs du MIT, la prudence est de mise, et pas question de partager publiquement des ensembles bruts de données de ce type, comme le voudraient les aficionados du « Big Data ». Ainsi, indiquent les scientifiques, ces ensembles de données ne doivent-ils être « libérés » pour analyse que si « l’accès aux enregistrements individuels et l’analyse de corrélation avec des données externes sont bloqués ».

« Le message est que nous devrions repenser et reformuler la façon dont nous pensons à la protection des données. L’ancien modèle d’anonymat ne semble pas être le bon quand on parle de métadonnées à grande échelle », indique Yves-Alexandre de Montjoye au New-York Times. Et de conclure : « l’absence de noms, d’adresses, de numéros de téléphone ou d’autres identifiants évidents dans les données, ne les rend pas anonymes et ne permet pas de les distribuer en toute sécurité au public et aux tiers ».

Par Fabien Soyez

La sécurité du Web face à l’informatique quantique

L’avenir de l’informatique est-il dans les ordinateurs quantiques ? En s’appuyant sur les propriétés quantiques de la matière, ces machines hypothétiques permettraient de réaliser des calculs combinatoires complexes, irréalisables avec les machines actuelles.

A la différence du système numérique classique, qui repose sur des données codées en chiffres binaires, le calcul quantique utilise le “bit quantique”, ou “qubit” – la plus petite unité de stockage d’information quantique. Contrairement au “bit”, qui prend soit la valeur d’un 0, soit la valeur d’un 1, le “qubit” est une combinaison linéaire. Il peut prendre la valeur 0 ou 1, mais aussi les deux ensemble – selon le principe de la superposition d’états quantiques, comme illustré dans l’expérience du chat de Schrödinger, où un atome peut être à la fois intact et désintégré.

Cette technologie, qui devrait permettre de démultiplier le potentiel de calcul, est l’un des chevaux de bataille de Google, qui tente, avec l’université de Santa Barbara, de concevoir un ordinateur quantique. Avec la NASA, la firme a aussi créé la “ Quantum A.I. Lab Team”, avec pour objectif de développer une intelligence artificielle grâce à l’informatique quantique.

La fin du chiffrement asymétrique ?

L’informatique quantique devrait aussi bouleverser le Web actuel, avec des conséquences plus ou moins négatives. Car cette nouvelle technologie permettra, selon l’expert Renaud Lifchitz, de briser le chiffrement asymétrique et les algorithmes RSA, utilisés dans presque tous les domaines touchant la sécurité de la Toile.

“D’ici 25 ans, tous les systèmes asymétriques vont tomber. Il faudra donc trouver une solution alternative”, avait-t-il expliqué en novembre dernier lors de la No Such Conference 2014, à Paris. Le chiffrement RSA repose sur la difficulté de factoriser les grands nombres en nombres premiers, mais avec des calculs quantiques, il deviendrait possible de casser l’algorithme asymétrique.

Pour être la première à profiter de ce type “d’attaques quantiques”, la NSA investit massivement dans un projet baptisé “Penetrating Hard Targets”, destiné à concevoir un ordinateur capable de “briser qui pourrait briser presque tous les types de chiffrements utilisés pour protéger les banques, les transactions en ligne, les entreprises et les documents gouvernementaux dans le monde entier”, indique le Washington Post.

Code du sac à dos et chiffrement quantique

Face à ces menaces, deux mathématiciens, Nathan Hamlin et William Webb, effectuent des recherches en “cryptographie quantique”. Ils auraient conçu un code de chiffrement capable de résister aux piratages reposant sur des ordinateurs quantiques. Pour cela, ils ont modifié un algorithme remontant aux années 1970 – le “knapsack code”.

Ce problème d’optimisation combinatoire (en français, le “problème du sac à dos”), très difficile à résoudre, “fut un temps envisagé comme un outil de chiffrement, mais cette idée fut abandonnée quand la clé publique créée fut cassée”, explique William Webb, à la Washington State University. Les chercheurs ont “réalisé des corrections dans la base du code”, comblant de nombreux “points faibles”, jusqu’à concevoir un nouvel algorithme, qui n’utilise que des clés publiques, et qui serait capable, affirment-ils, de déjouer les attaques quantiques.

D’ici à la validation du code de Hamlin et Webb par leurs pairs, le chiffrement quantique permet, d’ores et déjà, d’échanger en toute sécurité des clés privées. Il utilise les propriétés de la physique quantique pour établir des protocoles de chiffrement – par exemple, dans le cas du Protocole BB84, en envoyant des photons polarisés par fibre optique. Seul hic : si cette technologie, déjà utilisée par de nombreuses entreprises, est très efficace, elle reste difficilement applicable au Web, en raison des distances de  transmission quantique des clés de chiffrement – pour l’instant, la distance record est de 67 kilomètres.

Par Fabien Soyez

Les conseils d’un hacker pour rester anonyme sur le web

Avec un titre comme « The art of invisibility », et la photo de Kevin Mitnick, l’éditeur ne prend pas de risques : le dernier livre de ce célèbre hacker va se vendre facilement. La période est en effet propice à ce type d’ouvrage tant nous sommes surveillés et épiés par des régies publicitaires, les GAFA, voire même pour certains par des agences de renseignement. Il suffit de lire le livre de Tristan Nitot pour s’en rendre compte.

S’adressant à un public un peu plus « averti » que celui de Tristan Nitot, le livre de Kevin Mitnick donne des conseils très précis. Avec une constance : être pragmatique (d’aucuns parleront plutôt de paranoïa…). Il est vrai que le monsieur connaît son domaine. Sous le pseudo « Le Condor », en référence au film de Sydney Pollack Les Trois Jours du condor, Kevin Mitnick est le plus célèbre des hackers. Né en 1963 sous le soleil californien, il se fait repérer dès l’âge de 17 ans. Il décroche sa première condamnation (trois mois de détention en centre de redressement) pour avoir pénétré le central téléphonique de Pacific Bell à Los Angeles et détourné des lignes téléphoniques à titre personnel (une technique appelée « phreaking », contraction de phone et de freaks).

Mais cette première condamnation ne refroidit pas le garnement. Quelques mois plus tard, il récidive en pénétrant les réseaux de Fujitsu, Motorola, Nokia et Sun Microsystems. Une sorte d’échauffement avant de s’attaquer, en 1982, au Pentagone en s’infiltrant dans l’ordinateur du commandement de la défense aérienne américaine ! Le FBI mettra deux ans avant de mettre la main dessus en 1995…

Une discipline de fer

Quels sont ses principaux conseils ? Première étape, acheter en cash un ordinateur portable pour être sûr de n’avoir aucune trace de ses précédentes activités sur le web. Ensuite, pas question d’installer Windows (système d’exploitation trop curieux pour cet expert). Il faut plutôt utiliser la distribution Tails Linux qui laisse très peu de traces et qui intègre Tor Browser. Ce dernier deviendra votre navigateur par défaut.

Oubliez également d’utiliser ce PC pour faire vos achats ou consulter vos emails : il ne doit servir qu’à des connexions anonymes. « Ne vous loguez jamais à un site ou une application sous votre réelle identité (…). Les sites utilisent fréquemment des techniques de fingerprinting, matériel pour minimiser la fraude, ce qui permettra d’identifier votre ordinateur quand vous vous connecterez sur les mêmes sites de façon anonyme », explique Kevin Mitnick. Pour les achats, il faut donc oublier sa carte bancaire et opter pour des bitcoins (l’anonymat est poussé à l’extrême en les achetant avec des cartes cadeaux ou prépayées anonymes comme Paysafecard). Quant aux emails, il conseille d’ouvrir un compte sur protonmail.com (un site de messagerie très sécurisé en Suisse).

Autre conseil, pas de surf depuis sa box à domicile. Privilégiez les bornes Wi-fi publiques (bibliothèque, café…). « Votre fournisseur d’accès pourrait obtenir l’adresse MAC de votre ordinateur anonyme », écrit le hacker. L’adresse MAC est l’identifiant de la carte réseau de l’ordinateur qui sera automatiquement transmise au routeur Wi-Fi pour établir la connexion.

Voici quelques-uns de ses conseils, car pour être vraiment anonyme, il faut une discipline de fer afin que cet anonymat soit global. « C’est vraiment dur de vivre une double vie. Je le sais. Je l’ai fait », explique Kevin Mitnick.

Philippe Richard

Débris spatiaux : peut-on vraiment les détruire ?

Du 18 au 21 avril se tenait à Darmstadt (Allemagne), au centre opérationnel de l’ESA, la 7eme conférence européenne sur les débris spatiaux. L’occasion de faire le point sur cette gestion des déchets un peu particulière. Si l’estimation des experts évalue à 29000 le nombre d’objets de plus de 10cm en orbite autour de la Terre et à 750000 le nombre d’objets de plus d’un centimètre, le chiffre des objets entre 1mm et 1cm est encore plus vertigineux : 166 millions ! Sachant qu’à une vitesse de 10km/s, l’impact est équivalent  l’explosion d’une grenade, il est facile de comprendre que pour les satellites en fonctionnement les conséquences peuvent être dramatiques.

D’où vient ce nuage de déchets ?

Au-delà de la stratosphère, voici donc la débrisphère. Ces débris sont les déchets laissés par les plus de 5000 lancements qui ont eu lieu entre 1957 et 2017: il s’agit de restes des étages de lancement ou d’éléments associés, d’anciens satellites hors d’usage, de particules issues des dégradations des éléments déjà en orbite et pour une bonne part d’explosions. Parmi tous ces débris, à peu près 18000 sont aujourd’hui suivi par un système de surveillance international. Jusqu’à maintenant les collisions sont rares, même si celle entre le satellite iridium-33 et Cosmos-2251 le 10 février 2009 a marqué les esprits, mais cette probabilité ne fait que grandir et les acteurs de secteur spatial craignent le syndrome de Kessler (du nom de son théoricien, l’astrophysicien de la Nasa Don Kessler) ou collisions en cascade. Selon ce principe, chaque collision engendre plus de débris augmentant la probabilité d’une autre collision etc. Et au final, les débris seront majoritairement issus de collisions plus de des déchets issus de nouveaux lancements. La plus grande concentration de débris se trouvant entre 800-1000 km et 1400 km de la Terre.

Eviter les collisions et les dégâts terrestres

L’agence spatiale européenne a développé des outils qu’elle continue d’améliorer pour détecter, surveiller, caractériser les différents débris (qu’ils soient artificiels ou naturels) et pour modéliser ce “nuage” dont la connaissance devient essentielle pour planifier les lancements et assurer un accès à l’espace sûr. En moyenne, l’ESA exécute une douzaine de manœuvres d’évitement de collisions par an. Quant aux ré-entrées non contrôlées d’objets dans l’atmosphère, ils sont tout de même scrutés même si le risque pour la population ou les infrastructures est aujourd’hui très faible (un homme a 60 000 fois plus de chances d’être touché par la foudre que par un débris spatial). L’atmosphère réduit en poussière les débris spatiaux et pour ceux qui résistent ils ont trois chances sur quatre de tomber sur une surface océanique ou non habitée.

Une politique d’atténuation

En attendant de savoir ce que l’on peut faire avec les débris déjà existants, la politique internationale consiste à atténuer les effets des lancements actuels (entre 50 et 70 par an). Un guide de bonnes pratiques a été rédigé en 2002 et sert de modèle pour les législations nationales concernant les débris spatiaux. Et depuis 2011, il existe une norme ISO (24113) qui définit certaines exigences techniques. L’un des axes de prévention consiste notamment à prévoir la fin de vie des satellites soit en organisant leur retour sur Terre soit en les éloignant de l’orbite terrestre. A ce sujet, l’ESA a d’ailleurs développé un outil à disposition de tous, DRAMA (Debris risk assessment and mitigation analysis), qui permet d’évaluer les risques des différentes options possibles pour la fin de vie d’un satellite.

L’obligation de prévoir des protections

L’étude des impacts d’objets submillimétriques en hypervitesse a révélé les dégâts que peuvent engendrer des débris spatiaux, y compris très petits.

Tests effectués à la Nasa :

L’impact d’un corps d’une dizaine de centimètre peut causer la désintégration totale d’un satellite en orbite car suite à l’impact, l’énergie dégagée peut suffire à rompre la structure en elle-même. Pour s’en protéger, la station spatiale internationale possède des boucliers, constitués d’une double couche de panneaux métalliques espacés de 10cm et on prévoit de tels systèmes sur la plupart des satellites autour des équipements cruciaux à leur fonctionnement.

Supprimer les débris ?

Mais comme le laisse présager le modèle de collision en cascade, la prévention des débris ne peut suffire. Il faut aussi trouver des moyens de supprimer les débris déjà existants. Et si toute la communauté internationale planche sur le sujet, les solutions techniques ne sont pas encore évidentes. Pour preuve l’échec en janvier dernier d’un prototype japonais de nettoyeur spatial qui devait déployer une tige électromagnétique sensée attirer les déchets avant de les réintroduire dans l’atmosphère terrestre. Au niveau européen, la première mission opérationnelle sur le sujet est prévue en 2023 avec le lancement de e-Deorbit qui doit capturer un vieil objet de l’Esa et contrôler sa réentrée. Les systèmes mécaniques qui doivent effectuer la capture sont encore à l’étude. Beaucoup de solutions sont envisagées : du filet à papillon spatial, à l’aspirateur magnétique, au harpon ou au bras robotique. Par ailleurs, d’autres pistes sont explorées par les chercheurs telle que la technologie de destruction ou de déviation par laser (voir encadré)

Un super-laser pour les débris spatiaux ?

Des physiciens australiens (Macquarie University) ont créé un super-laser dont le principe de fonctionnement doit permettre de créer des lasers suffisamment puissants pour servir non seulement à des fins militaires (destructions de drones ou de missiles) mais aussi pour éliminer des déchets spatiaux ou propulser des engins spatiaux. L’étude est parue dans Laser & Photonics Reviews. Pour obtenir leur super-laser ils ont concentré plusieurs lasers sur un même point où ils ont placé un cristal de diamant ultra-pur. Outre l’effet d’accumulation, le diamant présente aussi la capacité à dissiper rapidement la chaleur résiduelle, un des principaux obstacles rencontrés pour créer des super-lasers.

Par Sophie Hoguin

Sweetch Energy surfe sur l’énergie osmotique

0,8 kWh par m3

Sweetch Energy a développé une technologie destinée à produire de l’électricité à partir de gradients de salinité. Elle consiste à récupérer l’énergie de mélange lorsque deux solutions de salinités différentes se rencontrent, à l’instar de l’eau douce et de l’eau de mer au niveau des estuaires. Bruno Mottet., docteur en physique et chimie des matériaux, travaillait à la base sur la problématique du dessalement de l’eau quand en 2015, il décide de créer Sweetch-Energy à Rennes avec deux autres chercheurs. L’innovation réside dans l’utilisation de membranes, issues du CNRS, d’un milliardième de mètres d’épaisseur. L’eau s’écoule à travers les membranes qui sépare les ions de la solution concentrée et génère de petites charges électriques. Sur la base des concentrations salines de ces deux types d’eau, il y aurait théoriquement un gisement d’énergie de l’ordre de 0,8kWh par m3. Bruno Mottet estime que son idée permettrait de faire baisser de 25% le coût de dessalement des usines. Les leaders du secteur tels que Suez Environnement ou Veolia se sont déjà rapprochés de la start-up.

Levée de fonds et recrutement

Grâce à sa technologie originale, Sweetch Energy a été lauréate du Concours Mondial d’Innovation, vainqueur du Cleantech Open France et primée lors du Concours iLAB du Ministère de l’Education Nationale de l’Enseignement Supérieur et de la Recherche. Des distinctions qui ont favorisé la levée d’1,4 millions d’euros réalisée par la start-up auprès de GO CAPITAL Amorçage II, un fonds interrégional dédié aux start-ups innovantes du Grand Ouest. Elle est également soutenue à hauteur de 700 000 euros par Bpi France. Ces fonds serviront à donner les moyens à la compagnie de passer de l’échelle nanométrique à des versions industrielles du procédé. En cas de succès, un autre débouché pourra alors être envisagé : installer des centrales électriques sur les estuaires d’ici une dizaine d’années.  En attendant, Sweetch Energy, installée au Biopôle de Rennes, prévoit de recruter deux ingénieurs spécialisés sur les matériaux et la mécanique des fluides.

Par Romain Chicheportiche

Ville de demain : les métros automatiques joueront un rôle majeur

En 2030, le métro automatique sera démocratisé dans les smart cities et les « Mega Cities ». Selon Wavestone, il s’agit de la solution la plus performante pour répondre au défi du transport de masse sur les trajets les plus fréquentés. « Grande cadence de transport, rapidité, régularité, sécurité, réduction des coûts d’exploitation, adaptabilité de l’offre et flexibilité dans les ressources humaines » sont ses principaux avantages. Le cabinet de conseil prévoit que ce marché va exploser d’ici moins de 5 ans. Principalement dans les grandes métropoles pour relier les centre-ville aux zones péri-urbaines et pour mailler le coeur de ville des mega cities d’Asie, d’Afrique et d’Amérique du Sud qui verront le jour d’ici 2030.

La France, en pole position

« La France est aujourd’hui en 1ère place du marché du métro automatique dans le monde », assure Wavestone. Le tissu industriel est fortement impliqué dans son développement au côté des autorités. La France détient le plus de kilomètres de lignes automatisées (120 km), suivi par le Canada (93,2 km),  Singapour (76,5 km) et les Emirats Arabes Unis (74,6 km). Les lignes automatisées sont à Lille, Paris, Toulouse, Lyon et Rennes. Si Lille est la mieux équipée en France avec 44 km de lignes automatisées (en 5e position mondiale), elle est loin derrière Vancouver et ses 86,8 km.

Les opérateurs de transport français sont ceux qui opèrent le plus de réseaux dans le monde (23,1%) suivis par les italiens (19,2%). La filiale de la SNCF Keolis est leader en termes de kilomètres exploités et de nombre de stations dans le monde avec 104 km et 137 stations. La RATP est 12e en termes de kilomètres exploités (26 km) et 8e en termes de stations (34).

Les métros français bien placés

Wavestone a comparé les différentes lignes de métros automatiques selon trois axes : la performance de l’infrastructure et du matériel roulant, la fiabilité et la qualité du service et l’innovation adoptée par les différents opérateurs. Concernant la performance globale, les lignes 1 et 2 du métro de Lille arrivent en première position. Suivies de près par Londres et la ligne A de Toulouse.

En matière de propreté, les lignes de Lyon, Barcelone, Rennes et Taipei sont les pus appréciées des usagers. Lyon atteint 99,3 % d’avis positifs, contre moins de 60 % pour Milan. Concernant la sûreté, les lignes de Copenhague, Dubaï et Taipei arrivent en tête avec des taux de satisfaction usager qui dépassent 90%. Une distinction pour la RATP : ses innovations au service des voyageurs (informations contextualisée, services mobiles, connexion réseau…) arrivent en tête, au côté de l’opérateur TBM du métro de Barcelone.

Des lignes compétitives

Les coûts d’investissement – lignes, gares et matériel roulant compris – sont en moyenne supérieurs pour les lignes automatisées. Ils s’élèvent ainsi à 144 millions d’euros par kilomètre contre 129 millions d’euros par kilomètre pour un métro conventionnel. Néanmoins, le métro automatique réduit considérablement les coûts opérationnels de l’exploitation : 0,69 millions d’euros en moyenne par kilomètre, contre 1,15 millions d’euros pour un métro classique. Après 30 ans d’exploitation, l’investissement initial dans les infrastructures est donc compensé par la baisse des coûts opérationnels.

En 2025, l’Asie devrait représenter 33% des kilomètres de lignes automatiques, l’Europe 30% et le Moyen Orient 25%. Le Grand Paris Express prévoit notamment 205 km de lignes de métros automatiques en banlieue et 72 nouvelles gares entre 2018 et 2030.

Par Matthieu Combe, journaliste scientifique