Le GDPR fait trembler les entreprises ! L’acronyme anglais du Règlement Général sur la Protection des Données inquiète les professionnels car il impose la mise en place de nombreuses mesures complexes. Ce nouveau Règlement européen (RGPD) n° 2016/679 du 27 avril 2016 sur la protection des données est applicable à compter du 25 mai 2018.
Pour schématiser, il renforce la Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés en vigueur en France. Évolution majeure : la notification des attaques informatiques et des failles de sécurité entrainant des fuites d’informations à caractère personnel.
Avec le GDPR, toutes les entreprises (y compris les sites de e-commerce) auront l’obligation de notifier les violations de données personnelles, contrairement à la Loi de 1978 qui ne concerne que les fournisseurs de services de communications électroniques.
Selon l’article 33 du RGPD, cette notification doit intervenir dans les 72 heures à compter de sa connaissance auprès de l’autorité de contrôle (en l’occurrence, la CNIL) et lorsque la violation est susceptible d’engendrer un risque élevé pour les droits et libertés de la personne. L’entreprise, victime de cette fuite de données, doit également avertir par lettre recommandée avec AR tous ses clients et salariés.
En cas de non-application du RGPD, l’entreprise encourt des sanctions financières allant jusqu’à 4 % du chiffre d’affaires mondial annuel, limité à 20 M€. (Article 83.6 du Règlement).
Par ailleurs, ce règlement renforce la protection des citoyens. Les entreprises doivent obtenir un consentement explicite de la part de l’utilisateur final quant à l’utilisation ou au stockage de ses données privées. Elles doivent permettre la portabilité des données personnelles aux utilisateurs qui en feraient la demande. Ces derniers bénéficient d’un droit à la suppression de ses données personnelles par l’entreprise qui les traite.
Devant de telles contraintes, les entreprises doivent adopter des mesures techniques et organisationnelles appropriées pour garantir que, par défaut, seules les données nécessaires au regard de leurs besoins soient traitées (autrement appelé le « Privacy by Design »). Ces mesures techniques peuvent prendre plusieurs formes :
la pseudonymisation et le chiffrement des données ;
des moyens permettant de garantir la confidentialité, l’intégrité, la disponibilité et la résilience des systèmes et des services de traitement…
Elles doivent obligatoirement nommer un délégué à la protection des données (Data Privacy Officer-DPO). Celui-ci sera le référent et s’assurera de la bonne mise en œuvre et du contrôle des traitements par mandat des utilisateurs et de l’administration.
Pour des nombreuses entreprises, quelles que soient leur taille et activité, ce GDPR est très contraignant et complexe. Résultat, de nombreuses études indiquent qu’elles ne sont pas encore prêtes.
Cette situation, anxiogène pour de nombreux chefs d’entreprise de PME, devrait profiter aux sociétés spécialisées dans la sécurité informatique. D’après le cabinet d’études Canalys, les ventes de licences et d’équipements en protection des systèmes d’information devraient progresser de 16 % (à 11,5 Md$ l’an prochain sur le vieux continent.) l’année prochaine.
Cette même étude signale que de nombreuses PME se tourneront vers leur prestataire de services IT pour ne pas avoir à payer les amendes prévues.
Depuis 2008, PwC mène, en collaboration avec Tech In France et le syndicat national du jeu vidéo (SNJV) une étude annuelle sur le secteur digital qui décrypte les tendances et les progressions des entreprises de la French Tech à travers des analyses et les classements des principales entreprises de l’édition de logiciels, des services Internet et du jeu vidéo français.
Une croissance à deux chiffres
Les cent premiers acteurs français de ce classement représentent un revenu de 12,2 Md€ (hors services de conseil et d’intégration) en croissance de 11,8% par rapport à 2015. Et 18 entreprises enregistrent même une progression supérieure à 20% soulignent les auteurs de l’étude. Cette croissance est générale et le 100e du classement réalise désormais 16M€ de revenu en logiciels et services internet, contre 10 M€ en 2014.
Les éditeurs consolident leurs positions
Après deux années de croissance à plus de 10%, les éditeurs de logiciels (incluant les licences, la maintenance et le support et les abonnements SaaS) sont revenus à 6,5% et représentent toujours près de 50% en volume (6,8 Md€) du top 100 via 68 entreprises. C’est clairement le SaaS qui tire la croissance vers le haut mais le secteur reste très dynamique et attire les investissements internationaux. Outre les grands segments traditionnels que sont les RH, la banque-assurance ou l’offre PLM, la France se positionne bien en matière de logiciels d’infrastructure grâce à trois acteurs qui ont connu des croissances organiques supérieures à 15% (Scality, Mega International et Talend). Mais le marché français se distingue aussi par une offre très riche en matière de logiciels métiers sur des secteurs comme l’agriculture ou l’immobilier. On enregistre aussi de très fortes transformations dans l’offre et les entreprises sur le segment de la santé portées par la digitalisation de l’hôpital et la santé centrée sur le patient.
La publicité porte les services internet
Les services internet sont en très forte croissance (+26%), principalement grâce à la publicité digitale. Dans le top 100, 26 entreprises représentent ce secteur et pèsent 32% des 12,2Md€ de revenu. Sur le segment publicitaire, Criteo et Teads continuent leur croissance et restent dans le top 10. D’autres segments sont en cours de consolidation comme le streaming représenté par Deezer ou Believe Digital ou comme le e-paiement avec Ingenico ePayments ou Lyra Network. On note aussi la présence de services qui intègrent le quotidien des français sur le net comme Blablacar ou Doctolib.
Jeux vidéos : des industries innovantes
Six acteurs de jeux vidéos se partagent les 16% de revenus des 100 premières entreprises digitales françaises. Une part stable qui ne doit pas cacher des situations très différentes entre des entreprises qui réussissent à allier innovation technologique et attraction culturelle et d’autres qui peuvent être rapidement fragilisées (cinq des acteurs du top 30 de ces deux dernières années ont ainsi disparu). L’année 2016 est cependant positive puisque le top 20 des éditeurs de jeux vidéos connaît une progression de 6% par rapport à 2015 qui avait enregistré une stagnation.
Le combat des écologistes s’intensifie. Sur le banc des accusés se trouve le glyphosate, substance active utilisée notamment dans le fameux herbicide RoundUp de Monsanto. Le Centre International de Recherche sur le Cancer (CIRC), agence de l’OMS, l’avait classé comme cancérigène « probable » en mars 2015. Mais l’Efsa n’était pas de cet avis. En décembre 2015, elle considérait de son côté la cancérogénicité de la substance comme improbable pour l’homme. La Commission européenne a donc relancé en mai 2017, une procédure en vue de prolonger l’autorisation de l’herbicide pour dix ans. Cela est surprenant, puisque récemment, le sandale des Monsanto Papers a révélé que Monsanto connaissait la toxicité du glyphosate depuis 1999.
Les eurodéputés ont cherché à comprendre les raisons de ces divergences. C’est simple : le CIRC n’utilise que des études appartenant au domaine public. Mais l’Efsa se fonde aussi sur des études fournies par les industriels. Les eurodéputés ont donc demandé à l’Efsa l’accès aux études qui l’ont poussé à cette conclusion. Mais celles-ci sont couvertes par le secret industriel.
« Après une année de tractations intensives, l’EFSA ne nous a fourni qu’un accès partiel à ces études, omettant des informations clés comme la méthodologie ou les conditions d’expérimentations », fait savoir Michèle Rivasi, dans un communiqué. « Sans ces informations essentielles, il est impossible pour des experts indépendants de vérifier la validité des conclusions de l’EFSA », complète-t-elle.
Dans ces circonstances, les eurodéputés saisissent la Cour de Justice de l’Union Européenne. Ils veulent mettre fin « à une jurisprudence emblématique, qui à l’avenir incitera les agences européennes à privilégier la transparence au secret commercial dès qu’il s’agira d’évaluer scientifiquement des substances potentiellement néfastes pour la santé et l’environnement. » Mais le combat durera encore plusieurs années. Des années durant lesquelles le glyphosate pourrait continuer à polluer l’environnement. En attendant, les eurodéputés invitent les citoyens à signer l’Initiative Citoyenne Européenne « Stop glyphosate » pour faire interdire le glyphosate par la Commission Européenne.
C’est dans le proche environnement de proto-étoiles similaires à notre Soleil à ces premiers stades de formation qu’une équipe italo-espagnole (Centre d’astrobiologie de Madrid et Observatoire d’astrophysique de Florence) et une équipe anglo-néerlandaise (University College de Londres et Observatoire de Leiden) ont détecté pour la première fois des traces d’isocyanate de méthyle, un élément chimique précurseur de la vie. L’isocyanate de méthyle fait partie des molécules organiques impliquées dans la synthèse de peptides et d’acides aminés précurseurs des protéines. Il avait notamment déjà été détecté en 2015 sur la comète Tchouri étudiée par la sonde Rosetta.
Le système étudié, IRAS 16293-2422 est un système à plusieurs étoiles à quelques 400 années-lumières de la Terre dans la constellation d’Ophiuchus (aussi appelée Serpentaire), qui a déjà fait l’objet de nombreuses observations et avait dévoilé en 2012 la présence de molécules de glycolaldéhyde, un sucre simple, lui aussi brique essentielle de la vie.
Les astronomes se sont appuyés sur les données récoltées par le télescope Alma de l’Observatoire spatial européen (ESO) au Chili pour détecter la molécule à plusieurs longueurs d’ondes caractéristiques dans le spectre radio. Ils ont pu identifier l’empreinte spécifique de cette molécule à l’intérieur des régions chaudes et denses du nuage de poussières et de gaz qui entoure chacune des jeunes étoiles à leurs premiers stades d’évolution.
Par modélisation et expérimentation en laboratoire, les deux équipes ont montré que l’isocyanate de méthyle pouvait être créé à la surface des grains de poussières dans les conditions de froid et de vide spatial. Les prémices de la vie pourraient donc être présents autour de la plupart des étoiles du type de notre Soleil dès le début de leur formation.
L’étude de ce type d’étoile ressemblant à notre Soleil est une fenêtre ouverte sur notre passé, sur la formation de notre système solaire il y a plus de 4,5 milliards d’années et sur l’apparition de la vie sur Terre. D’autant qu’IRAS 16293-2422 présente les caractéristiques pour engendrer un système planétaire très similaire au nôtre.
Parmi les études internationales sur les risques de computérisation des différents métiers (remplacement de la main d’oeuvre humaine par des machines, robots ou ordinateurs), celles des chercheurs britanniques Carl Bendikt Frey et Michael A.Osbourne, The future of employment : How susceptible are jobs to computerisation ?, qu’ils publient maintenant régulièrement depuis 2013, sont les plus fameuses et les plus commentées. Elles scannent quelque 700 métiers et les classent par ordre de risque de disparition dans les 20 ans à venir. Mais ces études révèlent aussi les limites de l’exercice : la transposition est souvent hasardeuse tant le marché du travail peut être différent entre les Etats-Unis et la France, elles ne dévoilent pas forcément de scoops (qui ne pourrait pas parier que les postes d’encaissement et de guichets sont menacés quand c’est déjà le cas depuis plusieurs années – caisses automatiques des supermarchés, guichets automatiques à la Poste, dans les gares, dans les banques etc.).
Le COE scanne le risque pour la France
Soulignant que le diagnostic réaliste est crucial pour établir des politiques publiques et qu’il convient de comprendre si “les changements vont être lents ou brutaux, mineurs, majeurs et concentrés ou non sur certaines compétences, certaines zones géographiques ou certaines catégories d’emploi”, le Conseil d’orientation pour l’emploi (COE) a commandité une étude dont le rapport est paru en janvier 2017.
Cette étude montre que :
« moins de 10% des emplois existants présentent un cumul de vulnérabilités susceptibles de menacer leur existence dans un contexte d’automatisation et de numérisation;
mais la moitié des emplois existants est susceptible d’évoluer, dans leur contenu, de façon significative à très importante;
le progrès technologique continuerait à favoriser plutôt l’emploi qualifié et très qualifié: parmi les emplois susceptibles d’être vulnérables, les métiers surreprésentés, en volume ou au regard de leur part dans l’emploi total, sont souvent des métiers pas ou peu qualifiés ».
L’essai ne vaut pas transformation
Beaucoup d’articles de presse s’emparent du sujet et mettent en avant des métiers comme étant amené à disparaître sous peu : que ce soit des camionneurs, des interprètes ou des comptables. Mais le COE insiste sur ce point : la possibilité d’automatiser ou de remplacer un travailleur par une machine ne signifie pas que cela va être le cas. Il y a d’autres paramètres qui entrent en ligne de compte : des freins économiques à l’investissement, des freins culturels et sociaux. Ensuite, la vitesse à laquelle se fera le changement est souvent imprévisible selon les évolutions technologiques. Aussi, l’impact réel sur le travail en volume, en localisation reste un exercice périlleux. La seule certitude c’est que les innovations en matière de robotisation et d’intelligence artificielle change la façon de produire et vont changer la place de l’homme. Ceci dit, c’est déjà le cas depuis les années 1980-1990.
Tâches vs. métiers
L’approche du COE s’est faite par un recueil d’études de postes avec une analyse du travail réel, plus le poste demande au travailleur de savoir s’adapter, d’être multitâches et moins il est vulnérable. Plus le poste consiste à suivre des tâches routinières, sans interruption et conformes aux prescriptions plus il est vulnérable. Les auteurs font remarquer qu’il est difficile de parler de “métier” car le contenu réel d’un poste de secrétaire par exemple est très différent d’une entreprise à l’autre, d’un secteur à l’autre et pourra selon les cas être plus ou moins automatisable. Il est donc plus pertinent d’analyser quelles tâches la computerisation peut concerner plus que les métiers en eux-mêmes. Reste que pour les sociétés et les individus, le plus grand défi est peut-être celui de la formation, car ce sont les métiers les moins qualifiés qui sont les plus menacés, c’est donc une population déjà vulnérable qui le devient encore plus.
Un hydrate de méthane est un mélange congelé d’eau et de méthane. On en trouve partout autour du globe, notamment dans les sédiments sous les fonds océaniques, aux abords des plateaux et sur les talus continentaux, ou sur terre, sous le permafrost. Ce composé stables sous des conditions de température et pression très particulières est facilement inflammable. Dès que ces conditions sont bouleversées, les hydrates se séparent en eau et méthane. Leur extraction est donc très difficile. Extrêmement difficile même, mais très convoitée. En effet, un mètre cube d’hydrate de méthane peut libérer 164 mètres cube de méthane. Cela en fait un combustible à forte intensité énergétique. Il y a encore mieux. Les réserves mondiales contiendraient plus de carbone que les gisements connus de pétrole, gaz et charbon réunis.
La Chine, en tête du cortège pour en extraire
Suite à la catastrophe de Fukushima, le Japon a été pionnier dans ce domaine pour trouver une nouvelle source d’énergie. Mais la Chine, les Etats-Unis, le Canada, l’Inde et la Corée du Sud veulent aussi avoir leur part du gâteau. Et la Chine semble aujourd’hui aussi bien avancée. Le 18 mai, le ministère chinois du territoire et des ressources a annoncé avoir extrait une quantité beaucoup plus importante que lors des tests pratiqués par les autres pays.
L’extraction a eu lieu à 1.266 mètres de profondeur dans un puits sous-marin de 200 mètres en mer de Chine méridionale. La presse chinoise a annoncé qu’en moyenne 16.000 mètres cubes de gaz avaient été extraits chaque jour, pendant 8 jours consécutifs. Les hydrates de méthane étaient purs, avec une teneur en méthane de 99,5% Selon le site américain Ars Technica, la technique utilisée a impliqué des machines « pour dépressuriser ou fondre [l’hydrate de méthane] sur le fond de la mer et canaliser le gaz vers la surface ». D’autres tests sont à venir pour étudier d’autres méthodes d’extraction.
Un cauchemar pour le climat ?
La route est encore longue avant une exploitation commerciale. Au plus tôt, celle-ci devrait voir le jour en 2025. Les défis sont encore nombreux pour arriver à une exploitation sans impact environnemental majeur. Le risque principal concerne des fuites de méthane, qui pourraient amplifier le réchauffement climatique. Le méthane a en effet un pouvoir de réchauffement global 23 fois supérieur au CO2. Par ailleurs, les scientifiques craignent que ce type d’exploitation cause d’importants glissements de terrain sous-marins sur le talus continental, entraînant des tsunamis majeurs.
Les hydrates de méthane sont une énergie fossile. Si leur extraction était compétitive, leur utilisation contribuerait à amplifier le réchauffement climatique. Néanmoins, ils pourraient être intéressants s’ils remplaçaient le charbon et le pétrole dans les pays émergents fortement consommateurs. On peut notamment penser à la Chine, à l’Inde. Mais s’ils faisaient baisser le prix mondiale de toutes les énergies fossiles et en absence d’une taxe carbone forte, ils pourraient surtout menacer le développement des énergies renouvelables.
En mai 2015, la filiale américaine de L’Oréal signait un partenariat de 5 ans avec Organovo, spécialiste américain de la bio-impression pour travailler sur la production en masse d’échantillons de peau à des fins de recherche cosmétologique. Moins de deux ans plus tard, au moins deux entreprises européennes se targuent de savoir fabriquer toutes les couches d’une peau humaine via une impression 3D basée sur la micro-extrusion : en France, LabSkin Creations en coopération avec l’ICBMS (institut de chimie et biochimie moléculaires et supramoléculaires de Lyon) et BioDan Group et l’Université de Madrid en Espagne. Dans les deux cas, l’imprimante injecte différents types de cellules (fibroblastes, kératynocites…) issus d’une biopsie animale ou humaine et différents composants utiles à la vie et au développement de ces cellules. Résultats: on recrée des échantillons de peau animale ou humaine complètement fonctionnels pour des tests pharmacologiques ou cosmétiques ou à terme pour des greffes sur les grands brûlés. Concernant les greffes, les essais en sont au stade préclinique, avec des expérimentations concluantes sur les animaux. Le procédé devrait pouvoir être validé sur les humains pour 2020. A ce jour, la bio-impression 3D pour la peau permet de passer d’un temps de culture de 45-50 jours à 21-25 jours et d’imprimer aussi des reliefs de la peau et des vaisseaux sanguins.
Des solutions qui collent à la peau
LabSkins Creations va d’ailleurs très loin dans ce qu’elle peut proproser aujourd’hui aux industriels en matière d’échantillon de peau pour la recherche. Les échantillons peuvent en effet présenter des caractéristiques variées reproduisant des critères d’âge ou d’exposition aux UV par exemple. Côté subvention, si la région Rhônes-Alpes soutient fortement le laboratoire lyonnais, la Direction générale des armées contribue désormais aussi au programme de recherche pour pour le développement de l’impression 3D directement sur les grands brûlés. Lyon étant évidemment la place idéale pour cela puisque l’hôpital Edouard Herriot accueil le centre de référence national de prise en charge des grands brûlés français.
Outre-Atlantique, des chercheurs de l’université de Wake Forest en Caroline du Nord, pionniers dans l’impression de cellules vivantes, ont conçu un prototype d’une bio-imprimante pour implanter des cellules capables de régénérer la peau directement sur les grands brûlés. Testé sur des animaux, la guérison est trois fois plus rapide.
De la 3D à la 4D
De son côté, une autre start-up de la bio-impression française, Poietis a développé une solution d’impression 3D de la peau non plus couche par couche, mais cellule par cellule : grâce à un laser, elle peut positionner les cellules de manière ultra précise (la taille des gouttes ne dépassant pas quelques microns) pour reconstruire un morceau de peau mais aussi tout autre tissu vivant. La start-up bordelaise créé en 2004 par Fabien Guillemot, un chercheur de l’Inserm vient d’ailleurs de présenter sa nouvelle bioimprimante, la NGB 17,03 et surtout le logiciel de CAO qui l’accompagne qui permet d’intégrer une dimension temps correspondant à l’évolution des cellules dans l’environnement où elles sont placées. Sa solution présente en outre un aspect reproductible à l’identique, ouvrant la voie de l’industrialisation de la bioimpression. Pour Poietis, ce n’est plus de l’impression 3D mais bien 4D car elle doit pouvoir contrôler la morphogénèse des tissus dans le temps de façon reproductible.
On sait que les microplastiques contaminent la chaîne alimentaire dans les océans. En 2014, 60 millions de consammateurs dénonçait même la présence de microplastiques dans le miel. Aujourd’hui, des chercheurs maltais de l’université Putra Malaysia dénoncent leur présence dans le sel de table. Leurs résultats sont publiés dans la revueScientific Reports.
Pour arriver à cette conclusion, les chercheurs ont analysé 17 marques de sels marins ou de lacs issues de 8 pays – Australie, Iran, Japon, Nouvelle-Zélande, Portugal, Afrique du Sud, Malaisie et France – par spectroscopie Raman. L’équipe n’a néanmoins pas révélé l’identité de ces marques. Mais leurs conclusions sont accablantes: seule une marque ne contient pas de microplastiques. Si cette marque est française, les cinq autres marques hexagonales n’échappent pas à cette contamination. Seule précision révélée : cette marque est vendue dans un contenant en verre.
De quels microplastiques parle-t-on ?
Les chercheurs ont extrait les microparticules supérieures à 149 micromètres (μm). En moyenne chaque kilogramme de sel contient entre 1 et 10 microparticules. Sur un total de 72 particules extraites, 41,6% étaient des polymères plastiques, 23,6% étaient des pigments (phtalocyanine, jaune de chrome,hostasol vert, bleu de phtalocyanine). 5,5% étaient du carbone amorphe et 29,1% restaient non identifiées. En moyenne, les particules mesuraient 515 μm.
Les polymères plastiques les plus courants sont le polypropylène (40%) et le polyéthylène (33,3%). 63,8% des microplastiques sont des fragments de plastique (63,8%). Puis on trouve 25,6% de filaments et 10,6% de films. Aucune microbille de plastique n’a été isolée de ces échantillons.
Images de quelques particules extraites. (a) Polyisoprène/polystyrène, (b) Polyéthylène, (c) Pigment : phthalocyanine (d) Filament de nylon-6.
Une pollution plastique à surveiller !
Les chercheurs se veulent néanmoins rassurants. « Selon nos résultats, le faible niveau d’absorption de particules anthropiques dans les sels [37 particules maxium par individu par an] garantit des impacts négligeables sur la santé », préviennent-ils. On reste loin de l’ingestion qui peut s’élever jusqu’à 11.000 fragments de plastique chaque année pour les amateurs de fruits de mer.
Mais, la quantité de plastiques déchargés dans les océans étant en constante augmentation, ils recommandent de quantifier et identifier régulièrement les microplastiques présents dans divers produits de la mer. Il n’existe encore aucune norme spécifique fixant des seuils maximum de micro-plastiques dans le sel marin ou autres produits.
Finis les QR Code, le papier connecté, c’est pour bientôt! Nom de code du projet : Papier nouvelle génération. Comme sur une page Internet, ce papier contiendra des hyperliens. En tournant une page ou en touchant la surface d’un document, d’une photographie, d’un poster ou d’un livre, les lecteurs pourront obtenir des informations complémentaires sur leurs appareils numériques connectés.
Le papier intégrera des capteurs électroniques et des puces. En appuyant sur un « bouton imprimé », les liens s’ouvriront automatiquement. Que cela soit sur un téléviseurs, un smartphone, une chaîne hi-fi, un ordinateur… Seule condition nécessaire : que le dispositif utilise la technologie du projet. Ces liens dirigeront ver des vidéos, des enregistrements sonores, de la musique… Toutes les possibilités sont ouvertes.
Un papier interactif qui révolutionnerait l’imprimerie
Dans un communiqué, le professeur David Frohlich, annonce une véritable révolution du papier. Avec son équipe, il compte lui donner « une toute nouvelle vie numérique ». Il espère « créer un marché de masse pour cette nouvelle génération de papier au 21e siècle». « Les éditeurs pourront ajouter de la valeur aux produits et aux services d’impression en les connectant au matériel numérique, tandis que les entreprises Web pourront utiliser le papier comme une interface tangible pour l’information en ligne», prévient-il.
Le chercheur imagine une multitude d’applications là où le papier continue d’être utilisé aux côtés de l’information numérique. C’est notamment le cas pour les journaux, magazines, brochures, manuels d’enseignement et livres. Mais aussi pour les particuliers qui pourraient créer des documents papier interactifs, comme des photobooks, associés à des vidéos ou des enregistrements sonores. En médecine, les dossiers des patients pourraient être reliés aux résultats des analyses. Enfin, dans le secteur du tourisme, ce papier pourrait faciliter le lien entre les brochures de voyage, les guides, la publicité et les applications pour smartphones.
21 pays représentés dont le Japon (pays à l’honneur ), Allemagne, Autriche, Belgique, Chine, Espagne, Etats-Unis, Finlande, France, Grande Bretagne, Inde, Italie, Pays-Bas, Portugal, République Tchèque, Russie, Suisse, Taiwan, Thaïlande, Turquie, Ukraine.
Des donneurs d’ordres leaders internationaux dans tous les secteurs d’activité :
ACITURRI AERONAUTICA S.L. • AIRBUS DEFENSE & SPACE • AIR LIQUIDE I LAB • AIRCELLE • ALENIA AERMACCHI SPA (TORINO) • ALSTOM TRANSPORT • ARMEE DE L’AIR FRANCAISE-SERVICE INDUSTRIEL DE LAERONAUTIQUE • BABOLAT VS • BAUDET SA • BOEING COMMERCIAL AIRPLANES • BOMBARDIER TRANSPORT FRANCE • CENTIGON FRANCE SAS • Cm DRONEs • CNG • CONTINENTAL STRUCTURAL PLASTICS • DAHER SOCATA • DECATHLON • DCNS • HUTCHINSON CENTRE DE RECHERCHE • IVCHENKO PROGRESS SE • LIEBHERR AEROSPACE & TRANSPORTATION SAS • NEXTER SYSTEMS, PSA PEUGEOT CITROEN • RENAULT SPORT F1 • SAGEM GROUPE SAFRAN • SALOMON SA • SNCF-CENTRE D’INGENIEURIE DU MATERIEL • STELIA AEROSPACE • SWATCH AG • THALES SYSTEMES AEROPORTES • TONY GAHERY…
Pays à l’honneur en 2017
A chaque édition de Composites Meetings, les entreprises ont l’opportunité d’améliorer leur connaissance des marchés des composites de certains pays. La 6e édition sera dédiée aux Etats-Unis. Un pavillon et des conférences spécifiques seront organisés dans le cadre de cette action.
Green Composites Village
Une exposition au cœur du salon pour mettre en avant toutes les initiatives «vertes» des industries de la filière.
Comme il l’avait promis durant sa campagne électorale, « les Etats-Unis vont se retirer de l’accord de Paris sur le climat », a annoncé le Président américain à Washington. Les Etats-Unis cessent « dès aujourd’hui » son application et se désengagent aussi des engagements financiers qui soutiennent l’accord. Le pays projetait une réduction de 26 % à 28 % de leurs émissions de gaz à effet de serre (GES) d’ici 2025.
Pour justifier sa décision, Donald Trump reprend ses arguments de campagne auprès de l’électorat américain. « L’accord de Paris s’est fait sur le dos des travailleurs américains » et est « très injuste » pour son pays, juge-t-il. Car le respect des engagements obligerait les Etats-Unis à baisser leur production et « nous faire perdre 2,7 millions d’emplois d’ici 2075 », calcule-t-il. Pas un mot sur les emplois qui pourraient être créés par la croissance verte.
Un accord mauvais pour l’environnement ?
Surtout, Donald Trump serait très attaché à l’environnement. Il quitte l’accord car « non seulement l’accord de Paris soumet nos concitoyens à une pression économique sévère mais en plus n’est pas bénéfique à l’environnement ». En effet, recapitalisant sur ces thèmes de campagne, il souligne que cet accord a été conclu au détriment des Etats-Unis.
L’accord n’aurait pas d’impact sur les plus gros pollueurs. Il rappelle que la Chine s’est engagée sur un plafonnement de ses émissions, au plus tard en 2030, sans chiffrer la hauteur de ce pic. Avec des accents nationalistes, il estime que l’accord a été conclu pour avantager économiquement leurs concurrents, notamment la Chine et l’Inde, qui recevront « des milliards et des milliards de dollars ».
Loin d’être une mauvaise nouvelle pour la planète, les Etats-Unis continueront à être « le pays le plus propre, sans perdre d’emploi », prévient le Président américain. Un pays propre qui est pourtant le deuxième émetteur mondial de GES. Avec 4% de la population mondiale, les Etats-Unis émettent 17,89% des GES mondiaux. Si la Chine est bien le premier pays émetteur avec 20,09%, elle détient 18% de la population mondiale. Une première place qui reste donc à relativiser.
Renégocier l’accord? Qu’en pense Macron?
L’Accord de Paris a été négocié après de longues années de discussion, suite à l’échec de Copenhague en 2009. Mais Donald Trump veut négocier un nouvel accord ou renégocier l’accord existant. Il souhaiterait des termes qui soient « justes pour les Etats-Unis, leurs entreprises, leurs salariés, leur population, leurs contribuables ».« Nous ne renégocierons pas un accord moins ambitieux », lui a répondu dans la soirée Emmanuel Macron. Il a repris à son compte la célèbre formule de l’ex-secrétaire général des Nations unies Ban Ki-moon en rappelant qu’« Il n’y a pas de plan B car il n’y a pas de planète B » . L’Allemagne, la France et l’Italie ont affirmé que cet accord n’était « pas renégociable ».
Puis le Président français a précisé que la France se devait d’être dès aujourd’hui plus ambitieuse dans la lutte contre le changement climatique. Il a appelé « tous les scientifiques, ingénieurs, entrepreneurs et citoyens engagés » à venir travailler en France sur des solutions concrètes pour le climat. « La France proposera un plan d’actions concret afin d’accroître son attractivité pour les chercheurs et les entreprises de la transition écologique et prendra des initiatives concrètes, notamment en Europe et en Afrique sur ce sujet », fait savoir le Président. Il a par ailleurs annoncé une rencontre le 3 juin à Paris, avec le premier ministre indien, Narendra Modi, ainsi que des « initiatives fortes » dans les jours à venir.
D’ores et déjà, plusieurs dizaines de villes et d’États américains ont promis qu’ils développeraient l’économie verte au niveau local. Plusieurs entreprises ont également dénoncé cette sortie, notamment Elon Musk, PDG de Tesla et de SpaceX.
Que devient l’Accord de Paris ?
À ce jour, 147 pays, représentant 83,59% des émissions mondiales de gaz à effet de serre ont ratifié l’Accord de Paris. La Russie et la Turquie manquent notamment toujours à l’appel. En se retirant, ce sont 17,89% des émissions qui sortent de l’accord. Le solde est donc désormais à 65,7% des émissions mondiales. Affaibli, l’accord reste toujours plus puissant que Kyoto II qui ne représentait au maximum que 15% des émissions mondiales de GES.
Pour se retirer de l’Accord de Paris, un pays doit notifier son intention au secrétariat de la Convention climat de l’ONU (CCNUCC). Cette disposition est prévue dans l’article 28 de l’accord. Il peut néanmoins le faire que trois ans après l’entrée en vigueur du texte, effective depuis le 4 novembre 2016. Il y a ensuite un préavis d’un an avant de réellement sortir de l’accord. Les Etats-Unis sortiront donc officiellement le 4 novembre 2020. À moins qu’ils se retirent totalement de la Convention climat de l’Onu. Il ne leur faudrait alors qu’un an après la notification. Cette option ne semble en revanche pas être la piste privilégiée par les Américains. Dans les faits, l’Accord n’étant pas juridiquement contraignant, rien n’empêche les Etats-Unis, tout simplement, de ne pas respecter leurs engagements d’ici là.
Un accord fragile et des objectifs difficiles à atteindre
Les contributions actuelles mettent la planète sur une trajectoire d’une hausse de plus de 3°C d’ici 2100. Sans les Etats-Unis, l’ensemble des pays qui ont ratifié l’accord vont devoir redoubler d’efforts pour limiter le réchauffement climatique à 2°C, voire 1,5°C en 2100. Cela semble impossible. Il reste de nombreuses règles à définir. Il s’agit notamment des mécanismes pour la révision des contributions et la transparence des politiques climatiques des pays.
Par ailleurs, les pays émergents ont signé l’Accord en échange d’un financement de 100 milliards de dollars par an dès 2020. En l’absence des Etats-Unis, le problème le plus dur à surmonter sera certainement celui du financement. Et avec cette annonce, la Convention climat de l’ONU se voit amputée de 23% de son financement. La Chine et Union européenne devraient désormais prendre la tête du combat climatique.
L’équipe de la route solaire française espère pouvoir atteindre un coût de 6 €/W (6,5 $/W) dans le futur, ce qui nécessitera une division d’environ un facteur 3 du coût actuel. Mais même un facteur 1,3, comme c’est le cas pour le prix de lancement du toit solaire de Tesla qui sort tout juste du laboratoire, n’a rien de négligeable et est problématique selon certains experts du solaire sensibles aux problématiques écologiques. Tesla a publié un billet de blog pour présenter son nouveau bébé.
« Et maintenant voici le test acide pour les toits solaires de Tesla. Jenny Chase est-elle impressionnée, bien qu’à contrecœur ? » a interrogé publiquement Michael Liebreich, fondateur de l’agence Bloomberg New Energy Finance. Jenny Chase, directrice des analyses solaires au sein de BNEF, a fait le calcul : « $42 par pied-carré correspondent à $452 par mètre-carré. Ou, avec une efficience de 18%, à $2,52 le Watt. Les systèmes résidentiels allemands sont aujourd’hui à un coût bien inférieur à $1,9 le Watt (1,7 €/W NDLR), frais d’installation compris. »
On objectera que le toit solaire de Tesla permet de faire des économies en tuiles et en ardoises mais pour Jenny Chase « le coût des bardeaux d’asphalte (très utilisés en Amérique du nord NDLR) est négligeable. Donc oui, construire le système photovoltaïque en même temps que le toit permet de réaliser des économies, mais on peut faire cela avec des modules solaires classiques aussi ».
En fait « si les toits solaires de Tesla semblent bon marché, c’est parce qu’aux USA le solaire classique est cher » comparativement à l’Allemagne a ajouté cette experte suisse.
Pour Joju Solar, l’un des leaders de l’installation de solaire en toiture au Royaume-Uni, de nombreuses tentatives d’installation de tuiles et ardoises solaires ont été effectuées dans le passé. Mais aucune n’a été concluante « à cause de coûts plus élevés et d’une efficience plus faible » expliquent ces spécialistes dans une note d’analyse. Les cellules solaires sont en effet sensibles à la température et les intégrer directement dans le toit limite la possibilité de ventilation.
« Quelque chose qui devient joli n’est pas un game-changer » tranche Jenny Chase, dans un tweet qu’elle a adressé à Elon Musk. « Des modules c-Si normaux permettent d’atteindre une meilleure NPV » a ajouté la scientifique. La valeur actuelle nette (Net Present Value, NPV) est une mesure de la rentabilité d’un investissement.
Cohérence éco-logique
« Quand le solaire devient sexy» titrait Techniques-ingénieur.fr le 21 novembre 2016 dans l’article le plus lu de l’histoire de ce média, toutes rubriques confondues. Mais l’approche esthétisante, parfois nuisible à la performance énergétique et économique et qui tel un miroir attire les alouettes, est-elle vraiment souhaitable ?
« Aucune grâce extérieure n’est complète si la beauté intérieure ne la vivifie » écrivait Victor Hugo. Dans un contexte de crise écologique planétaire (Eaux, sols, atmosphère, biodiversité) et d’urgence de sortir des combustibles fossiles, focaliser sur l’esthétique est-il vraiment prioritaire ? Et les panneaux classiques sont-ils vraiment laids ? Ce sont peut-être les paysages mentaux intérieurs qu’il conviendrait de changer.
Le toit solaire a été annoncé par Elon Musk dans un contexte où il tentait de sauver SolarCity en fusionnant cette entreprise avec Tesla. Ces toits permettent notamment d’alimenter les voitures électriques. Jouissant d’une aura quasi-divine, l’entrepreneur aux multi-succès est parvenu à ses fins. Mais cela ne signifie pas que tout ce que propose Elon Musk est forcément génial.
Creuser (et donc dépenser beaucoup d’énergie) des tunnels sous Los Angeles pour propulser à 200 km/h des voitures montées sur des wagons et traverser toute la ville en 5 minutes, est-ce s’inscrire dans une trajectoire de développement vraiment durable et donc d’efficience énergétique ? C’est le projet de The Boring Company, une nouvelle entreprise fondée par Elon Musk. Ivan Illich se retourne dans sa tombe.
Envoyer des touristes prendre des photos autour de la Lune grâce aux fusées de SpaceX, qui brûlent de grandes quantités d’hydrogène dont la production via l’énergie photovoltaïque et éolienne est très inefficiente, conduit à poser la même question. « Même si les ressources renouvelables sont gigantesques, les dépenses en matières premières nécessaires pour fabriquer tous les convertisseurs pourraient contribuer à accroître significativement les dégâts environnementaux associés » souligne Bernard Multon, Professeur à l’Ecole Normale Supérieure de Rennes. L’ingénieur centralien Philippe Bihouix, auteur du livre « L’âge des Low-Techs » (Edition Seuil, 2014) et spécialiste des métaux, n’a cessé d’alerter à ce sujet.
Pourquoi vouloir construire des villes sur Mars, ceci après y avoir lancé des bombes nucléaires dans l’espoir de faire fondre l’eau des calottes polaires de la planète rouge ? Au cas où la situation tournerait mal sur Terre a expliqué Elon Musk. Ne vaudrait-il pas mieux faire le pari que tout ira bien si chacun parvient à intégrer le minimum vital d’éco-conscience ? L’idéologie « no limit » peut conduire au pire. L’électricité solaire, si elle tombe entre de mauvaises mains, peut alimenter des chars ou des avions de guerre électriques.
« Dans l’axe est son moteur, il décolle. Son accélérateur le console » chantent dans « Il roule (Les fleurs du bal)» Alain Souchon et Laurent Voulzy. « Les guitares qui jouent fort dans son cockpit lui sont d’un réconfort Amniotique. Il roule, il roule comme les larmes qui coulent laissant là, dans la salle sur le sol éparpillées les fleurs du bal ».
Charles Baudelaire, à l’occasion de l’exposition universelle de 1855, s’interrogeait déjà : « Je laisse de côté la question de savoir si, délicatisant l’humanité en proportion des jouissances nouvelles qu’il lui apporte, le progrès indéfini ne serait pas sa plus ingénieuse et sa plus cruelle torture ; si, procédant par une opiniâtre négation de lui-même, il ne serait pas un mode de suicide incessamment renouvelé, et si, enfermé dans le cercle de feu de la logique divine, il ne ressemblerait pas au scorpion qui se perce lui-même avec sa terrible queue, cet éternel desideratum qui fait son éternel désespoir ? ». Quelle est l’origine de la boulimie technologique d’Elon Musk ?
Un débat organisé par Le Mouton Numérique aura lieu le 9 juin 2017 à Paris dans le cadre de « Futur en Seine » avec Sophie Lacour, Docteur en Sciences de l’Information & Communication spécialisée en prospective touristique et Eric Vidalenc, expert au sein de l’ADEME et prospectiviste du think-tank Futuribles.
Trois technologies principales sont actuellement en cours de test dans le monde pour réussir à recharger, à un prix compétitif, les véhicules électriques pendant qu’ils roulent.
La technologie par caténaire, comme sur les trolleybus, adaptée aux camions et qui s’illustre par l’eHighway développée par Siemens. Elle est actuellement en test en Californie sur un tronçon de route de 3km entre Los Angeles et Long Beach.
L’alimentation par le sol (APS) commercialisée par Alstom pour les tramway, elle a fait l’objet d’un pilote pour être adaptée aux camions et aux cars sur 300m en Suède en 2013 avec des premiers prototypes fournis par Volvo.
La technologie par induction électromagnétique qui semble avoir la faveur des constructeurs automobiles et d’infrastructures et dont les exemples se multiplient actuellement.
L’Europe autour du projet Fabric
Le programme de recherche européen Fabric, lancé en 2014, rassemble des partenaires publics et privés de 9 pays européens autour de la recherche appliquée pour trouver des solutions à la charge dynamique des véhicules électriques. Concernant l’induction, le premier site de test construit a été celui de Satory près de Versailles. Il compte plusieurs pistes avec des courbes et des déclivités afin de vraiment permettre de tester la faisabilité des solutions à induction sur des routes telles que le périphérique parisien. Il permet aussi de tester deux véhicules simultanément afin d’analyser le comportement des charges et des champs produits. C’est sur ce site que l’institut Vedecom, en collaboration avec Qualcomm a construit un pilote de 100m muni d’une bande centrale où est installé le système de charge dynamique, reprenant le concept Halo développé par Qualcomm pour la recharge sans fil des véhicules en stationnement. Le test, mené fin mai, a été réalisé avec deux Kangoo ZE de Renault pour des vitesses jusqu’à 100 km/h. Il a permis une charge jusqu’à 20kW. Le projet Fabric inclut un autre site de test des technologies à induction, à Susa, près de Turin, où l’institut Politecnico de Turin vient d’inaugurer ses premières installations fin mai pour tester sa solution à induction et où pourront être menée des expérimentations pour des situations plus urbaines.
L’induction hors de Fabric
Mais des solutions basée sur l’induction électromagnétique sont déjà testées dans le monde. Au niveau mondial, les coréens ont été les pionniers en concevant dès 2010 une solution pour les bus, baptisée Olev pour le Online electric vehicule. Elle a aboutit à la construction de quelque 23km de routes équipées à des points stratégiques de système de charge par induction dans la ville de Gumi. Depuis 2013 deux bus y circulent. En 2015, l’Institut supérieur coréen des sciences et technologies (KAIST) qui a mis au point ce système a annoncé avoir réussi à réduire le coût d’un bus de 30% (passant d’environ 470 000 euros à 300 000 euros), soit une fourchette de prix compétitive par rapport à un bus plus classique.
Fin 2015, les Britanniques ont lancé leur expérimentation pour des routes rechargeant les bus pendant qu’ils roulent. Cette expérimentation doit durer 18 mois avant de décider si l’option est envisageable à grande échelle. Pour le moment, le prix annoncé de 23 millions d’euros pour 1km de route équipée est plutôt prohibitif.
Tel-Aviv veut montrer l’exemple
Un des projets les plus aboutis pour l’instant est celui des israeliens d’ElectRoad. Cette start-up a développé une solution basée sur l’induction à un coût suffisamment attractif pour remporter une première subvention de 120 000 dollars du gouvernement israelien et l’autorisation pour équiper une partie de la ville de Tel-Aviv. Le premier tronçon d’environ 800m doit être mis en service en 2018. Si l’essai est concluant, le gouvernement a prévu de le déployer sur 17 km entre Eilat et l’aéroport international de Ramon. Sans pour autant annoncer le coût au kilomètre, ElectRoad se vante de son avance technologique, arguant que ces transformateurs sont moins coûteux et que l’installation sur l’infrastructure routière est rapide et efficace et qu’elle ne nécessite que deux tracteurs. Un kilomètre peut ainsi être équipé en une seule nuit.
Comme on le voit, la technologie par induction n’en ait encore qu’à ses balbutiements et cela pourrait prendre une dizaine d’années avant qu’on ne dépasse tous les obstacles technologiques et financiers permettant son déploiement à grande échelle. Les batteries auront-elles d’ici là fait suffisamment de progrès pour que l’idée même d’équiper les routes soit devenue inutile ?
Rendez-vous B2B incontournable de la filière énergétique, SMART ENERGIES 2017 Expo & Summit se tiendra les 6&7 juin 2017 à l’espace Grande Arche, à Paris La Défense.
Techniques de l’Ingénieur est partenaire de l’évènement et vous permet de bénéficier de 30% de réduction sur votre accès aux conférences animées par les acteurs de la scène énergétique (FULL PASS 1 ou 2 jours).
Pour vous inscrire et profitez de la réduction cliquez ici.
Vous pouvez également saisir le code SE17-TECHNIQUES-INGENIEUR dans le champ prévu à cet effet lors de votre inscription sur www.smart-energies-expo.com.
Imaginez 1 million d’automobilistes branchant la prise de leur véhicule électrique de retour chez eux vers 19h, heure de pointe de la consommation électrique en France. C’est ce qu’ont fait le constructeur automobile PSA, Direct Energie, Enel, Nuvve, Proxiserve et l’Université Technique du Danemark regroupés dans le projet GridMotion. « Intégrer le nombre grandissant de VE, sans que ces derniers aient un impact négatif sur le réseau électrique, tel était notre problématique », explique Nicolas Leclère, responsable de l’optimisation des solutions d’électrification chez PSA. Les membres du projet GridMotion souhaitent développer un modèle fiable d’intégration du véhicule électrique, voire plus encore, en faire un outil de flexibilité au service du réseau.
Cherche partenaire particulier
PSA recherche 75 utilisateurs de véhicules électriques de deux types pour participer à cette expérience qui durera deux ans. La première catégorie (50 VE) concerne les propriétaires particuliers de Peugeot iOn, Partner Electric, Citroën C-ZERO ou Berlingo sortis après le 1er janvier 2015. Ils testeront la recharge unidirectionnelle intelligente. Direct Energie proposera, grâce à des applications mobiles dédiées, aux utilisateurs de VE des offres de recharge plus ou moins économiques en fonction de l’heure pour orienter leurs choix vers les tranches nocturnes. Le fournisseur joue ainsi le rôle d’agrégateur avec le gestionnaire, Réseau de Transport d’Electricité (RTE), en lui offrant un service de flexibilité bien utile pour lisser la pointe électrique.
La seconde catégorie, 15 VE B2B de type Peugeot iOn ou Citroën C-ZERO, expérimentera la recharge bidirectionnelle (charge/décharge) apportée par Enel. Ces véhicules participeront à la phase la plus complexe de l’expérience. Ils fourniront des services d’équilibrage réseau grâce à de courts cycles de chargement et de déchargement. Les batteries des VE disséminés sur tout le réseau offrent une solution pour équilibrer sa fréquence. « L’innovation ne réside pas tant dans notre rôle d’opérateur de flexibilité car nous offrions déjà des services d’effacement et de réserves à RTE. Mais plutôt dans le potentiel que représenterait des millions de VE, comme autant de points diffus de stockage d’énergie, pour créer une chaîne robuste et flexible », indique Louis Duperry, directeur Innovation de Direct Energie. En fonction des besoins du réseau, le fournisseur indépendant peut ajuster du jour au lendemain à la baisse la puissance de ses clients, c’est l’effacement. Être opérateur de réserve primaire consiste à ajuster la consommation en temps réel pour aider RTE à équilibrer la fréquence.
Equilibre technico-économique
Au-delà de l’innovation technique, les partenaires du projet GridMotion souhaitent également valider le modèle économique car comme le rappelle Louis Duperry : « Rien ne pourra se faire sans le client. L’innovation économique résidera dans notre capacité à créer une relation client qui permette de manipuler les consommations d’énergie tout en donnant systématiquement la priorité au consommateur». Direct Energie a élaboré plusieurs modèles d’incitations, inspirés en partie de ses activités existantes d’effacement, pour restituer au client une partie de la valeur générée par les services réseau. « Notre d’expérience de l’effacement dans le chauffage résidentiel par exemple montre qu’une baisse de la facture est moins perçue par les consommateurs, en raison des prix bas de l’électricité en France, que la fourniture gratuite de services ou produits », détaille Louis Duperry.
Cette grande chaîne de valeur intégrée de l’électricité n’est pas sans rappeler la vision d’Elon Musk qui cherche à travers ses différentes compagnies à créer une offre tout électrique verticalement intégrée de la production d’électricité renouvelables (notamment photovoltaïque) à la voiture électrique (Tesla) le tout piloté par un réseau intelligent. Un écosystème viable uniquement à la condition de résoudre la double équation technico-économique.
Le nouveau Président de la République connaît bien le dossier. En novembre 2015, alors ministre de l’Économie, il avait réuni les opérateurs pour s’enquérir de leur engagement à tenir les objectifs du plan France Très Haut Débit. Après cette réunion, il avait déclaré : « nous sommes en ligne avec le plan de déploiement du très haut débit ».
Est-ce toujours le cas aujourd’hui ? L’Hexagone n’est pas le bon élève européen. Selon la dernière étude de l’IDATE, l’Europe au sens large (Russie et Biélorussie incluses) a vu le nombre de foyers raccordés en fibre bondir de 17 % sur un an à fin septembre 2016. En France, la progression n’est « que » de 11 % ! Il est toujours possible de se rassurer en constatant que l’Italie, l’Allemagne et le Royaume-Uni affichent un bonnet d’âne avec respectivement 1,9 % d’abonnés, 1,6 % et moins de 1 % ! Pour mémoire, toujours selon l’IDATE, les Émirats arabes unis sont le premier pays en termes de raccordements (93,7 % de foyers en FTTH/FTTB), suivis par le Qatar (87,9 %) et la Corée du Sud (79,8 %).
De son côté, « Le Baromètre exclusif » du site ZoneADSL confirme une progression très faible du THD. Son palmarès des villes indique que 48,3 % sont éligibles au Très Haut débit (>30 Mb/s) et 15,7 % au réseau de fibre optique. Lancé au printemps 2013, le Plan France Très Haut débit vise à couvrir l’intégralité du territoire d’ici 2022, c’est-à-dire à « proposer un accès à Internet performant à l’ensemble des logements, des entreprises et des administrations, même s’ils sont isolés ».
Le défi sera difficile à relever pour le nouveau gouvernement. Selon les projections de ZoneADSL, seule La Réunion sera couverte à 100 % en 2022. La Martinique, la Bourgogne-Franche-Comté et le Centre-Val de Loire, seront mieux lotis que les autres avec respectivement 94 %, 83 % et 80 %. À l’inverse, la Guyane et Mayotte seront très mal desservies avec respectivement 20 et 34 %. Plus surprenant, Île-de-France n’affichera que 74 %.
Cette faible progression a plusieurs explications dont la principale est le coût de l’investissement. Lors du récent colloque TRIP (Territoires et Réseaux d’Initiative Publique) printemps 2017 organisé par l’AVICCA (Association des Villes et Collectivités pour les Communications électroniques et l’Audiovisuel), le directeur de l’Agence du Numérique, Antoine Darodes a estimé qu’il « faudra entre 10 et 12 milliards d’euros d’investissements supplémentaires » pour le FTTH. Début 2017, un rapport de la Cour des Comptes avait évalué à 34,9 Md€ le coût total du Plan, estimé initialement à 20 Md€.
Autre explication à ce retard : l’existence de zones blanches c’est-à-dire mal ou pas desservies par des opérateurs. Dans ce cas, d’autres alternatives pourraient prendre le « relais » de la fibre optique et du câble : les réseaux hertziens terrestres (Wimax, Wi-fi) notamment avec l’utilisation de technologies LTE (« Long Term Evolution ») et l’internet par satellite (bande Ka).
Le megaprojet EuropaCity est emblématique du combat contre l’artificialisation des terres agricoles. La fronde monte ces derniers jours contre ce projet de complexe voulant mêler commerces, loisirs et équipements culturels en 2024. Sur ce dossier, 80 hectares de terres agricoles sont menacées à Gonesse (Val-d’Oise). Mais les terres du triangle de Gonesse sont loin d’être les seules menacées par l’artificialisation.
Les sols agricoles sont la plupart du temps achetées dans le but d’y maintenir une exploitation agricole. Mais ils peuvent aussi être acquis pour être urbanisés. Les promoteurs immobiliers y construisent alors des logements, des zones commerciales, des routes et autres infrastructures… La FNSafer suit l’évolution de ces marchés fonciers ruraux.
Une artificialisation des terres qui repart à la hausse
Si le marché de l’artificialisation des sols a été divisé par 2 entre 2007 et 2014, la FNSafer s’alarme. Depuis 2015, il repart à la hausse. Pour l’année 2016, la fédération relève même une hausse de 22% du nombre de transactions, contre une faible reprise de 3,8 % en 2015 . En termes d’hectares, la hausse est de 20,2%. Le marché atteint 4,6 milliards d’euros.
L’artificialisation est particulièrement poussée par l’extension des grands pôles urbains, portée par la reprise économique. Ce sont ainsi 28.000 hectares de foncier agricole qui ont été cédés au marché de l’urbanisation en 2016. Au total, la FNSafer estime même que les surfaces urbanisées représentent entre 50 000 et 60 000 hectares par an. Un chiffre similaire à celui observé au début des années 2000.
Réagir pour protéger la production agricole
« Les politiques de préservation des espaces naturels et agricoles sont inefficaces pour contenir l’extension urbaine qui repart à la hausse », regrette la FNSafer. La Fédération appelle à protéger les sols agricoles, notamment ceux qui présentent le meilleur potentiel. «Cette protection est indispensable pour s’adapter au réchauffement climatique et réduire le déficit européen de terres agricoles – l’Europe importe déjà l’équivalent de 20 % de sa surface agricole », rappelle-t-elle.
Selon le ministère de l’agriculture et de l’alimentation, la surface agricole utile (SAU) française représentait environ 28 millions d’hectares en 2010. Entre 1960 et 2010, 2,5 millions d’hectares ont déjà été remplacés par le béton. Si la relance se poursuit, une quantité similaires de terres agricoles pourrait disparaitre d’ici 2060. Soit près de 9 % de la SAU française. En un siècle, la France pourrait ainsi perdre près d’un cinquième de ses terres occupées par des activités agricoles.
Le niobate de strontium (ou plus exactement la famille des oxydes de niobate de strontium) est un semi-conducteur capable de photocatalyse à la lumière solaire. Des chercheurs de l’Université nationale de Singapour, en collaboration avec des chercheurs de l’Université de Berkeley en Californie et du Lawrence Berkeley National Laboratory ont publié deux études dans lesquelles ils ont scruté les propriétés du niobate de strontium. A la clé deux découvertes étonnantes : un nouveau type de plasmon et une activité photocatalytique qui n’est pas liée à l’activité interbande. Pour le Dr. Wan Dongyang, chercheur à la NUS Nanoscience and Nanotechnology Institute, impliqué dans les deux études publiées, la clé du succès a été la capacité des équipes à produire des films cristallins de niobate de strontium de haute qualité, permettant ainsi son étude dans de très nombreuses conditions. Les films ont été préparé par dépôt laser pulsé (PLD) à différents pressions partielles d’oxygène sur des substrats isolants.
Une photocatalyse particulière
Récemment, une poudre d’oxyde métallique de niobate de strontium a montré des propriétés photocatalytiques compétitives sous la lumière visible. Ces propriétés ont été attribuées aux phénomènes de transition des électrons dans ce composé. Cette découverte majeure a ouvert de nouvelles perspectives pour trouver des photocatalyseurs peu chers et efficaces. Cependant, les chercheurs de l’université de Singapour ont montré que les propriétés photocatalytiques du niobate de strontium ne sont pas dues à la fréquence d’absorption de l’interbande. En effet, leurs travaux, publiés dans Nature Communications aboutissent à une mesure du gap (bande interdite) plutôt élevé de 4,1 électron-volts (eV). Leurs prédécesseurs l’avaient estimé à 2eV afin d’expliquer la capacité d’absorption des photons dans le spectre visible de ce composé (688 nm équivalent à peu près à 1,8eV). Par ailleurs, la vitesse de mobilité des électrons s’est avéré basse (seulement 2.47cm2V−1s−1) alors que la densité est plutôt élevée ( 1022cm−3). Pour les chercheurs, cette propriété photocatalytique dans le spectre visible et proche infra-rouge proviendrait alors de la résonance plasmon, née de la grande densité de ce matériau et non de la transition interbande. Un résultat qui pourrait amener à de nouvelles approches pour fabriquer des photocatalyseurs dans de nombreuses applications à commencer par l’extraction d’hydrogène à partir de l’eau.
Une nouvelle famille de plasmon
La deuxième étude publiée par l’université de Singapour dans Nature Communications a porté sur la caractérisation des plasmons de la famille des oxydes de niobate de strontium. Cette étude dévoile un nouveau type de plasmon: les chercheurs l’ont baptisé “correlated plasmons” en anglais ; Trouvé sur un oxyde qui se présente comme un isolant de Mott (composé isolant qui selon la théorie devrait être conducteur), c’est un plasmon qui réagit à de multiples fréquences et qui a une faible perte dans le visible ou les ultraviolets. Ce type de plasmons est en outre ajustable : il diminue par exemple quand la l’épaisseur du film diminue. « Cette découverte ouvre de nouveaux horizons pour la plasmonique et notamment en reconsidérant certains matériaux isolants ou fortement corrélés jusque-là inexploités », explique ainsi l’un des chercheurs.
Un automobiliste français standard parcourt environ 15.000 kilomètres par an, c’est-à-dire une quarantaine de kilomètres par jour. Une voiture thermique à pétrole permet de parcourir environ 300.000 kilomètres. Grand maximum.
Il reste 94% de la capacité de la batterie de la Tesla Model S après qu’elle ait parcouru 200.000 kilomètres selon la dernière mise à jour (15 Mai 2017) d’une étude néerlandaise menée par une communauté de propriétaires de ce véhicule. La capacité de stockage de la batterie baisse de 1% tous les 45.000 kilomètres. En extrapolant on peut estimer que le seuil des 92% sera atteint au bout de 300.000 kilomètres et celui des 80% au bout de 780.000 kilomètres. Ce qui correspond à un demi-siècle pour un automobiliste standard.
Il y a 4 ans Elon Musk avait révélé que des simulations menées en laboratoire par les ingénieurs Tesla sur une batterie de 85 kWh avaient permis de réaliser 800.000 kilomètres. « Cela pourrait s’avérer erroné mais nous avons une batterie qui a permis de réaliser un demi-million de miles au laboratoire » avait déclaré avec prudence Elon Musk au média USA Today. Cela avait suscité rires et moqueries de la part des sceptiques, y compris des journalistes spécialisés automobiles et des « experts », qui pensaient que l’électrique n’était valable que pour les voiturettes de golf.
Puis dans une note publiée sur le blog de Tesla il y a 2 ans Elon Musk a indiqué que l’objectif de l’entreprise était de produire un groupe motopropulseur (powertrain) capable de résister à 1,6 millions de kilomètres. Cette révélation est passée relativement inaperçue. Mais « pourquoi achèteriez-vous une voiture capable de parcourir 1 million de miles ? » interroge Tony Seba, professeur de l’université Stanford, dans une tribune publiée sur le blog du think-tank RethinkX et intitulée « L’avance de Tesla est-elle encore plus importante qu’on ne le pense ? »
Un million de miles ?
Cela semble relever du non-sens quand on adopte un état d’esprit conservateur. Mais pas dans le cadre d’une approche innovante de la mobilité. Ce n’est pas un hasard si les géants Apple, Google et Uber investissent aussi massivement dans la conduite autonome.
Une start-up californienne, Tesloop, organise des voyages en Tesla S et X, notamment entre Los Angeles et Las Vegas. Il s’agit d’un usage intensif des batteries: une de leurs Model S a parcouru 450.000 kilomètres en 20 mois, soit environ 730 kilomètres par jour en moyenne (l’aller-retour LA/LV fait 860 kilomètres). Ceci avec la voiture la plupart du temps remplie de passagers et de bagages. Et à vitesse élevée, sur autoroute.
Il restait à la batterie de ce véhicule Tesloop 94% de sa capacité de stockage initiale au bout de 320.000 kilomètres. Et non pas au bout de 200.000 kilomètres comme dans l’étude néerlandaise. Comment expliquer la différence ? Deux facteurs dégradent les batteries : l’usage et le temps (le nombre d’années). En roulant beaucoup chaque jour le facteur temps devient marginal. Les batteries Tesla sont actuellement garanties 8 ans mais ceci pour un kilométrage « illimité ».
« Les données provenant des utilisateurs intensifs des batteries suggèrent qu’elles durent bien plus longtemps sur le terrain que ce qui était estimé » soulignent les auteurs de l’étude RethinkX. « Proterra a identifié une tendance historique portant sur un progrès de 5-6% par an de leur performance. Chanje Energy (ex Nohm) s’attend à ce que les batteries puissent durer 800.000 kilomètres dès 2021. Et Tesloop s’attend à ce qu’elles durent encore plus longtemps » affirment-ils sur la base d’interviews avec Proterra, Chanje Energy et Tesloop entre Janvier et Mars 2017.
Les batteries des concurrents, comme par exemple Nissan, « ont 3 fois moins de capacité (de stockage ndlr) que celle d’une Tesla » souligne Pierre Langlois, Docteur en Physique et spécialiste de la mobilité au Québec. « Elles doivent donc être rechargées 3 fois plus souvent. Par ailleurs, elles n’ont pas un bon système de gestion thermique de la batterie comme les véhicules de Tesla. » Au final les batteries des concurrents se dégradent plus vite.
Tesloop, avec son offre City-to-City, démontre que le dogme distillé par le lobby pétrolier selon lequel la voiture électrique est adaptée pour les petites distances urbaines et pas pour les longs trajets est vraiment infondé. « Je ne suis pas sûr que tout le monde pourra s’offrir une Tesla » ironisent parfois certains acteurs. Or, précisément, il ne sera pas nécessaire d’acheter une Tesla pour en jouir. Et elle sera librement accessible à toutes et à tous, quel que soit leur âge, leur état de santé ou leur niveau socio-économique.
RethinkX a fait le calcul. Dans l’hypothèse conservatrice d’un groupe motopropulseur capable de résister à 600.000 miles et d’une batterie à 300.000 miles, soit un seul changement de batterie, alors le coût kilométrique global des A-EV (voitures électriques autonomes), à partir de 2020, sera 10 fois inférieur à celui des voitures thermiques classiques. Ces dernières ne peuvent parcourir qu’une distance deux fois inférieure. Au mieux. S’il s’avérait nécessaire de changer 2 fois la batterie (batterie de 200.000 miles) au lieu d’une seule fois, l’impact serait de l’ordre de trois cents par mile estime RethinkX.
On estime en France que le prix de revient kilométrique (PRK) d’une Renault Twingo thermique est de 56 c€. Avec Tesloop (Tesla S) le coût global est d’environ 13 c€ par kilomètre dès à présent rapporte RethinkX (plus précisément entre 20 et 25 US cents par mile).
Une voiture électrique à batterie n’est constituée que de 20 pièces mobiles, contre 2000 pour une voiture thermique. Il en résulte des frais de maintenance beaucoup plus faibles.
Le géant américain Goodyear a signé un partenariat avec Tesloop dans la perspective de développer des pneus spécifiquement adaptés à un usage de type TaaS (« Transportation as a Service »). Actuellement les pneus coûtent « environ un cent par mile » a déclaré le PDG de Tesloop, Rahul Sonnad, à l’occasion d’une conférence organisée par la banque Morgan Stanley.
Par ailleurs une voiture capable de self-driving génère beaucoup moins d’accidents qu’une voiture qui n’est pas autonome, d’où des frais d’assurance bien plus faibles.
En outre une voiture électrique est trois fois plus efficiente qu’une voiture thermique pétrolière, d’où une facture « carburant » également plus faible. Mais pour Tony Seba c’est la durée de vie élevée des voitures à batterie qui est le facteur le plus important pour l’équation économique.
Il suffira de cliquer sur son smartphone pour qu’un A-EV vienne vous chercher. Et qu’il vous permette de réaliser une économie d’un facteur 10. Plus besoin d’attendre à une station de métro ou de bus aux horaires parfois non adaptés à vos besoins, notamment le dimanche, et parfois éloignée de votre domicile ou de votre lieu de travail. Plus besoin de perdre du temps pour aller faire le plein d’essence ou de diesel, de trouver une place de parking, de payer le garagiste, de payer une assurance, de rembourser un prêt auto, de payer des amendes, de nettoyer la voiture, et aussi de passer le permis de conduire. Et le tout en évitant d’enrichir des pays peu respectueux des droits humains fondamentaux ainsi que d’être co-responsable des marées noires et de la pollution de l’air.
Nul besoin d’être prophète pour percevoir que cette nouvelle forme de mobilité va provoquer un énorme rush estime Tony Seba. Même les personnes propriétaires d’une voiture n’achèteront plus de pétrole : ils la laisseront au garage car cela leur coûtera beaucoup moins cher. Il y a un siècle certains pensaient que l’attachement entre l’homme et le cheval rendra impossible le remplacement de la voiture à cheval par la voiture à moteur. Aujourd’hui certains affirment la même chose à propos de la voiture individuelle privée. Des services que Rethink qualifie de pré-TaaS, comme par exemple Uber ou Lyft, ont démontré qu’il y avait une demande très forte pour ce type de mobilité.
Production des piles 2170 de Tesla
Le plein d’électrons en 5 minutes
A l’occasion du CUBE Tech Fair qui a eu lieu du 10 au 12 Mai 2017 à Berlin, une strart-up israélienne, StoreDot, a démontré qu’il est possible de charger en 5 minutes une batterie permettant de parcourir 300 miles (480 kilomètres). Lors des trajets Los Angeles / Las Vegas sur autoroute avec Tesloop, les Tesla S ne font qu’une seule charge, en milieu de voyage. Cela permet aux voyageurs d’aller aux toilettes, de prendre un café et de se dégourdir les jambes.
Charger une batterie de 100 kWh avec un ultra-chargeur de 350 kW (3,5C), permettant ainsi de faire une bonne partie du plein en une quinzaine de minute, cela aura-t-il un impact sur la durée de vie des batteries ? « Avec du 4C l’impact est vraiment marginal » affirme Marion Perrin, directrice du service stockage et systèmes électriques au sein du CEA, département des technologies solaires. « Avec du 7C cela commence un peu à chauffer ». Les super-chargeurs Tesla d’ancienne génération ont une puissance de 120 kW. Mais Elon Musk a annoncé l’arrivée d’une nouvelle génération bien au-delà de 350 kW.
Y aura-t-il assez de Lithium ?
Une batterie Tesla consomme aujourd’hui 0,8 kg de Lithium par kWh de stockage, et 0,6 kg en 2030 indique RethinkX. Les réserves mondiales sont estimées à 30 millions de tonnes au coût actuel, mais elles sont bien supérieures si l’on accepte un coût supérieur. Et « si c’était cher le lithium, on le recyclerait » a déclaré Marion Perrin. Si le coût devenait élevé, l’extraction du lithium de l’eau des océans deviendrait également rentable, mais cela ne sera pas utile.« Le lithium, est un stock, pas un flux » insiste Tony Seba. Après avoir parcouru 500.000 kilomètres avec une batterie, le lithium est toujours là. Et il est recyclable.
Si les 32 millions de voitures françaises étaient remplacées par 3 millions d’A-EV partagés et équipés d’une batterie de 60 kWh en moyenne, alors le calcul est simple : les besoins seraient de 108.000 tonnes de lithium. La population française pesant 1% de la démographie mondiale, on peut estimer que 10,8 millions des tonnes suffiront.
Encroûtement cobaltifères. Photographie prise à bord du navire océanographique Jean Charcot, dans le port de Papeete (Tahiti) en 1986.
« Tesla ferait bien de s’intéresser d’un peu plus près à la contrainte à venir sur la disponibilité de cobalt » a conseillé publiquement l’ingénieur Nicolas Meilhan, membre des Econoclastes, sur un réseau social. Il s’agit effectivement du seul élément potentiellement limitant. Mais il existe différentes chimies de batterie au lithium. Si Tesla utilise des batteries contenant du Cobalt, cet élément n’est pas indispensable. En outre les encroûtement cobaltifères, notamment dans les fonds océaniques de la Polynésie française, en contiennent de grandes quantités.
L’approche TaaS, qui permet de diviser par 10 le nombre de voitures, a un intérêt majeur dans la perspective de réduire la demande en matières premières. Elle permet aussi d’envisager la libération d’importantes surfaces dans les villes : celles des parkings. Les espaces libérés en question ont souvent une haute valeur immobilière.
Think again
L’étude publiée par RethinkX a eu un important écho dans la presse anglophone. Mais pas dans la presse française. « Pourquoi des personnes très intelligentes ne parviennent pas à anticiper les vagues disruptives ? ». Tony Seba a fait de cette thématique le cœur de ses travaux de recherche.
En 1911 Ferdinand Foch, commandant suprême des forces alliées durant la première guerre mondiale, avait déclaré que « Les avions sont des jouets intéressants mais n’ont aucune utilité militaire ». En 1928, et jusqu’en 1940, la France lançait la construction de la ligne Maginot pour se protéger rappelle Tony Seba. La ligne Maginot était considérée par les meilleurs experts militaires français comme infranchissable, ils en étaient très fiers. Pendant ce temps-là l’Allemagne nazie a mis en place la Luftwaffe, son armée de l’air. Résultat : il n’a fallu à Adolf Hitler que 6 semaines pour conquérir Paris.
« Les politiques, les insiders et les experts qui pensaient que le futur était linéaire, incrémental, juste une extention du passé, ont sous-évalué l’arrivée d’une disruption technologique (l’aviation) et ont fait des choix pour le futur basés sur des notions mainstream du passé, avec des conséquences massives pour l’Europe et le monde pour les générations à venir » analyse Tony Seba.
Au Royaume-Uni le lobby des voitures à cheval a tenté en 1865 de bloquer l’émergence de la voiture à moteur dite « self-propelled vehicule ». C’est l’origine du mot « auto-mobile » : être capable d’être mobile par soi-même, sans être tiré par un cheval. Le « locomotive act » imposait aux voitures motorisées d’être accompagnées de trois personnes. Deux à bord et une devant la voiture pour agiter un drapeau rouge (« Red flag act »). Attention danger. Et elles n’avaient pas le droit de dépasser 2 miles (3,2 km/h) en ville.Le Royaume-Uni a par conséquent bloqué cette innovation qui cependant n’a pas disparu. Elle a simplement ressuscité aux USA.
L’industrie automobile est en bonne partie à l’origine de la puissance économique et militaire américaine. En 1950 les USA produisaient la moitié des voitures à l’échelle mondiale. « Durant la seconde guerre mondiale Ford a construit, à lui seul, 6790 bombardiers B24, 282.354 jeeps et 42.676 camions » rappelle Tony Seba. Les USA ont libéré l’Europe, y compris la France, du nazisme.
Pour Tony Seba le groupe Volkswagen qui annonce vouloir faire des voitures à batterie tout en continuant en réalité à investir massivement dans la voiture diesel, se comporte comme quand Kodak parlait de la photo numérique tout en continuant à investir massivement dans la photo argentique. Kodak a fait faillite.
Une voiture d’un écosystème TaaS permet de remplacer 10 voitures fumantes privées. Le facteur d’amplification est donc massif. RethinkX ? Repenser (re-think) le facteur X. Car la disruption de la voiture pétrolière par la voiture à batterie va être bien plus rapide qu’estimé jusqu’à présent.
Tony Seba, dans son livre « Solar trillions » publié en 2010, avait prédit une chute rapide du coût du solaire photovoltaïque permettant d’atteindre 3,5 ¢/kWhdès 2020. Ni l’Agence Internationale de l’Energie ni Greenpeace n’avaient été capables de prédire une baisse aussi rapide. Ce chercheur indépendant a mis au point une méthode d’analyse des technologies disruptives basée sur l’analyse de nombreuses ruptures technologiques qui se sont produites dans divers secteurs dans le passé.
Le déclin du pétrole
Pour Tony Seba l’émergence de l’A-EV va avoir des effets « catastrophiques » pour l’industrie pétrolière et de son prolongement, c’est à dire l’industrie de la voiture thermique. La croissance mondiale de la demande en pétrole pourrait être stoppée dès 2021 à 100 millions de barils par jour.
La multinationale pétrolière Total, dans le cadre d’une réflexion basée sur la croissance de la voiture électrique privée et n’intégrant pas du tout l’émergence du TaaS, a estimé lors du dernier sommet BNEF à New-York que ce virage n’arrivera pas avant 2030.
Les bus du californien Proterra ont une autonomie supérieure à 500 kilomètres
Selon RethinkX, au contraire, la demande en pétrole aura chuté à 70 millions de barils par jour en 2030. Cette asphyxie du marché pétrolier par l’émergence rapide du TaaS aura des effets en jeu de domino. Les pays dont l’économie repose en bonne partie sur une rente pétrolière, comme par exemple la Russie, l’Arabie Saoudite, le Venezuela et le Nigéria, pourraient beaucoup souffrir de cette disruption.
Vers des voitures de 10-12 places
Disposer de véhicules autonomes de niveau 5 (dès 2019 selon Elon Musk) est-il indispensable pour que la disruption commence ? Tesloop a déjà prouvé que non avec des véhicules offrant 3 places pour les passagers. Ceci même en devant payer un chauffeur 15 dollars de l’heure, un coût qui sera réduit à zéro dès l’arrivée des A-EV.
L’entreprise californienne Proterra a mis au point des bus 100% électriques à batterie de 50 places capables de parcourir 560 kilomètres quand ils sont remplis de passagers. Ni les bus thermiques au diesel, au gaz fossile ou au biogaz, ni les bus à hydrogène ne peuvent rivaliser au niveau compétitivité. La croissance du marché des bus à batterie est fulgurante, notamment en Chine.
Mais Elon Musk pense que des voitures de 10 ou 12 places suffiront : « je ne suis pas sûr que le projet de bus ait vraiment du sens »a déclaré le PDG de Tesla le 3 mai 2017. La Tesla X compte 7 places. Avec l’arrivée de la mobilité 100% autonome chercher à diluer le coût du salaire du chauffeur en augmentant le nombre de sièges dans un bus n’a plus aucun sens. Quatre Super-Tesla X d’une douzaine de places chacune sont bien plus flexibles et éviteront de faire rouler des bus parfois à moitié ou aux trois-quarts vides.
Dans ses conférences Tony Seba explique que la conduite 100% autonome permet de réduire d’un facteur 3 la surface consommée par les véhicules sur les routes en synchronisant les freinages et les accélérations des véhicules. Un « train » de 4 super-Tesla X roulant à la queue leu-leu ne prend pas beaucoup plus de place qu’un bus de 50 places.
Tesla développe aussi des semi-remorques pour le transport des marchandises. Peut-être seront-ils commercialisés en reprenant le business-model de BetterPlace reposant sur des robots capables d’échanger les batteries très rapidement. C’est ce croient savoirRavi Shanker, expert en logistique, etAdam Jonas, analyste de la banque Morgan Stanley.
Sur ce marché aussi, et peut-être encore davantage que sur les autres compte-tenu des volumes kilométriques et énergétiques en question, le stockage batterie a vraiment du sens. Etant donné que les semi-remorques seront 100% autonomes (et donc sans chauffeur à payer) le temps passé pour échanger la batterie ou pour faire le plein avec l’ultra-fast charging n’aura aucune importance. Et ceci même si la batterie ne permet au semi-remorque de ne parcourir que 400 kilomètres.
Pour les opérateurs de flottes de véhicules autonomes « seul le coût et l’efficience ont de l’importance » expliquait en juin 2015 Brad Templeton qui a fait partie de l’équipe travaillant sur la Google Car. « Les Robocars (A-EV) s’en fichent du temps qu’il faut pour recharger ».
Une marée non pas noire mais électrique
Le 16 mai 2017, en direct d’un évènement innovation du groupe Volvo, Colin Mckerracher, analyste spécialisé transport de BNEF, a souligné que la vitesse d’impact de l’électrification sur les camions, les bus et les engins de construction était au centre des débats. « La chute du coût des batteries lithium-ion va se répandre vers d’autres sources de demande en carburant » a estimé l’expert.
Colin Mckerracher a partagé la photo d’une machine excavatrice intégralement électrique et alimentée par une batterie lithium, et une autre photo d’un camion-poubelle Volvo équipé de lidars pour la conduite autonome.
Pour ce spécialiste « la chose la plus intéressante est la mise en place de coalitions d’intérêts entre entreprises qui sont à présent en faveur de la voiture électrique. Les compagnies minières et électriques s’associent contre les compagnies pétrolières ».
Ensemble les géants du lithium, du nickel, du cobalt, du graphite, du phosphate, du fer, du cuivre mais aussi ceux du nucléaire, de l’hydroélectricité, du solaire et de l’éolien et enfin bien sûr ceux de l’informatique, pèsent en effet très lourd. Dans un rapport récent sur la Chevy Bolt (General Motors) la banque UBS considère la voiture électrique à batterie comme « la catégorie de voiture la plus disruptive depuis la Model T de Ford ».
Morgan Stanley table sur 30% de kilomètres partagés en 2030. RethinkX, 95%
« De nombreux éléments nous ont suggéré la préparation soutenue d’un assaut du marché de la mobilité partagée, autonome et électrique par de grosses entreprises du secteur de la technologie » a déclaré en mai 2017 Adam Jonas, directeur de la recherche sur l’industrie automobile au sein de la banque d’investissement Morgan Stanley qui gère 2 trillions de dollars d’actifs dans le monde entier. Morgan Stanley a publié le 16 avril 2016 le rapport-phare « Global Investment Implications of Auto 2.0 »
Ford, groupe qui est historiquement à l’origine de la révolution automobile américaine, est fortement engagé dans cette bataille de Titans. Papy fait de la résistance. Conscient de la menace Daimler a formé en avril 2017 une alliance avec Bosch pour développer des voitures complètement autonomes, et a annoncé parallèlement que la voiture électrique à batterie était à présent au centre de la stratégie du groupe. Le géant chinois Byd est aussi de la partie. Tout comme Renault qui vient de racheter la branche R&D d’Intel en France (Toulouse et Sophia Antipolis).
« Nous croyons que la concurrence la plus importante pour Tesla viendra en fin de compte des entreprises tech les plus grandes et au capital le plus important à l’échelle mondiale » a affirmé Adam Jonas. « Beaucoup de ces entreprises – telles que Alphabet, Apple et d’autres – sont déjà en train de tester des véhicules pleinement autonomes sur les routes ».
Alphabet, une filiale de Google, a en effet commencé a tester en avril 2017, via son unité Waymo, des voitures 100% autonomes avec des passagers réels. Apple, la plus grande capitalisation boursière du monde avec une valeur qui dépasse à présent 800 milliards de dollars, a reçu en avril 2017 l’autorisation de tester des voitures 100% autonomes sur les routes publiques de Californie.
L’offre classique TGV représente encore 95% des voyages à grande vitesse. Mais la SNCF compte développer son offre low-cost OUIGO lancée en 2013. L’objectif affiché est de la faire passer d’une part de marché actuelle de 5% à 25% en 2020. Pour cela, l’offre OUIGO va être déployée sur tous les grands axes dans les trois prochaines années. Ainsi, 30 destinations seront accessibles sur ces trains en 2020, contre 14 aujourd’hui. Et 34 rames seront aux couleurs OUIGO, contre 8 actuellement.
La SNCF n’abandonne pas pour autant son offre premium. Elle lance pour cela sa nouvelle marque inOUI pour mettre un nouveau nom sur une offre mal identifiée. « On a engagé une transformation en profondeur vers la qualité de service avec un programme d’investissement majeur », se félicite Rachel Picard, directrice Voyages SNCF. Le coût estimé pour ces nouveaux services? 2,5 milliards d’euros d’investissements. Ceux-ci ont notamment porté sur le matériel, avec 1,5 milliards d’euros pour les rames Océane entre Paris et Bordeaux. Ils ont aussi été consacrés au digital, avec 300 millions d’euros pour installer le WiFi à bord. Et enfin sur l’humain, avec 5.000 employés formés à un programme de nouvelle relation client. Avec ces nouveaux services, la SNCF espère avoir 15 millions de clients supplémentaires d’ici 2020.
InOui, quelles différences avec un simple TGV ?
La ligne Paris-Lyon bénéficie aujourd’hui de matériel et de personnel dédié. « C’est un laboratoire où on met en place l’expérience de voyage TGV que nous voulons pour demain partout », explique Rachel Picard. Grâce aux nouveaux services testés, la SNCF y a observé une hausse de 10% de la satisfaction client. Il y a notamment « le WiFi à bord, l’annonce du conducteur qui se présente et qui nous dit quand on tape les 300 km/h », explicite la directrice.
Mais plus concrètement, qu’est-ce qu’inOUI? C’est un train connecté, avec WiFi gratuit à bord. Fin 2017, 80% des voyageurs y auront accès. Il s’agit aussi de rames plus confortables : des sièges rénovés, des prises électriques, un bar et des toilettes relookées. Et de nouveaux services. Il sera possible de géolocaliser la position du train sur smartphone, envoyer un message au chef de bord ou encore commander un menu au bord et être servi à sa place. Les contrôles à bord seront remplacées par des portes d’embarquement en gare. Ces nouvelles portes seront installées dans les principales gares d’ici fin 2018.
Le déploiement des nouvelles rames se fera progressivement, ligne par ligne. Cela commencera le 2 juillet prochain avec l’axe Paris-Bordeaux. A l’automne viendra le tour de l’axe Paris-Lyon, puis en fin d’année, celui de l’axe Paris-Lille. En 2018, les rames seront déployées en direction de Strasbourg, Marseille, Rennes et Nantes. Les axes restants seront équipés en 2019. Les trains iDTGV seront, eux, arrêtés peu à peu d’ici la fin 2017.
Un nouveau site voyages-sncf.com
Le premier site de e-commerce français, voyages-sncf.com, deviendra OUI.sncf à l’automne 2017. Le site deviendra un compagnon de voyage pour lever les obstacles qui peuvent empêcher les clients de voyager. « Nous allons mener trois combats : plus de clarté dans le choix, plus de personnalisation dans l’accompagnement vers le voyage et plus d’envie de voyage », prévient Franck Gervais, directeur général voyages-sncf.com. Notamment pour trouver la meilleure offre selon le prix (entre OUIgo, inOUI, OUIbus, OUIcar et les autres moyens de transport), la durée du trajet et les services offerts en fonction de sa flexibilité. L’objectif est d’atteindre un volume d’affaires de 5 milliards d’euros en 2020 et devenir la marque de voyage préférée des Européens.
L’union fait la force. C’est la raison triviale mais essentielle qui a motivé la naissance de la Fédération Française des Clusters de la Robotique (ou FFC Robotique), annoncée il y a quelques semaines et actée le 16 mai, à l’occasion de l’ouverture du salon Innorobo. Cinq clusters régionaux, qui regroupent des entreprises de l’ensemble de filière robotique (industrielle, services et drones) ont décidé de s’organiser à l’échelon national, et donc de changer de dimension. «L’enjeu est d’étendre cette démarche collaborative au-delà du périmètre de la région, dont la taille est insuffisante, confie Philippe Roussel, le délégué général. Nous voulons agréger les bonnes idées, les bonnes pratiques, en utilisant ce qui se fait de mieux dans chaque cluster.» Les cinq clusters à l’origine de la FFC Robotique, qui couvrent aujourd’hui 48 % du territoire de la métropole, sont Aquitaine Robotics (Nouvelle-Aquitaine), Coboteam (Auvergne Rhône-Alpes), Proxinnov (Pays de la Loire), Robotics Place (Occitanie) et enfin le Réseau 3R, réparti sur tout le territoire français.
Priorité au business
Alors que les pôles de compétitivité se concentrent sur la recherche et le développement, la FFC Robotique, à l’image des clusters qui la composent, a des visées opérationnelles et économiques. Dans son plan de bataille, elle se donne pour mission d’appuyer le développement des entreprises robotiques, en particulier celui des intégrateurs. Les clusters étant souvent à l’initiative des PME, une structure nationale a aussi l’intérêt de peser davantage dans les relations avec les grands donneurs d’ordre et surtout les investisseurs, quand il est question de chercher des plans de financement. Cette fédération s’attachera en outre à labelliser les projets considérés comme les plus méritants, à promouvoir la filière à l’international et à soutenir la création de nouveaux clusters régionaux. La région Hauts-de-France, qui a contribué à la genèse de cette association loi 1901, est pressentie pour en bénéficier la première.
Enfin, la FFC Robotique souligne l’importance de s’impliquer dans les cursus de formation et d’encourager l’enseignement de la robotique dans les écoles. «En Chine, les élèves sont initiés très tôt à la robotique et des concours ont lieu dans les écoles primaires, les collèges, les lycées. On pourrait s’en inspirer en Europe dans les 10 prochaines années» explique un porte-parole. Un travail en amont, donc, mais aussi en aval pour inciter les entreprises à s’équiper et dynamiser un marché robotique français en retrait (à l’exception de l’industrie automobile) par rapport à ses voisins allemand et italien.
Seuls 3045 robots industriels ont été vendus en France en 2015, selon les chiffres de la Fédération Internationale de la Robotique, soit une croissance assez faiblarde de 3%.
La proximité des mots « droits » et « robots » dans une même phrase soulève régulièrement des interrogations voire des polémiques, de nature parfois très différentes. Premier exemple : les robots ont-ils des droits ? La question de la personnalité juridique pour des machines inconscientes et sans libre arbitre paraît saugrenue de prime abord. Mais elle a (re)fait l’actualité le 16 février dernier, quand le Parlement européen a adopté une résolution «contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique», selon les termes exacts du rapport. La Commission Européenne devra examiner ces recommandations et pourrait proposer prochainement une directive.
C’est peu dire que le sujet divise. Parmi les partisans, l’avocat Alain Bensoussan plaide pour accorder la personnalité juridique aux robots. Maître de conférences en droit à l’Université d’Artois, Nathalie Nevejans, auteure du volumineux «Traité de droit et d’éthique de la robotique civile», ne partage pas cette opinion et s’inquiète de son impact concernant la responsabilité : «les fabricants des robots pourraient être dédouanés en cas d’incident. A mon sens, il n’y a pas d’urgence à adopter de nouveaux textes juridiques. En revanche, le législateur doit se pencher sur les questions éthiques. Peut-on placer un robot d’assistance auprès d’une personne âgée sans son consentement ? Qui a accès aux données à caractère personnel ? De quel pouvoir de décision dispose le robot face à la liberté de choix des individus ?…». Les débats animés devraient fleurir au rythme de l’expansion de la robotique de service dans la société.
Le cobot n’est pas hors la loi
Un tout autre aspect en matière juridique fait l’objet d’une controverse : est-il légal de travailler avec un robot ? Là encore, ce questionnement semble hors de propos puisque la robotique industrielle se répand depuis longtemps dans les usines. Mais, en plein avènement, le robot collaboratif suscite davantage de perplexité, car il s’affaire sur le poste de travail à proximité immédiate de l’opérateur. Des rumeurs ont même circulé sur l’interdiction du «cobot», soupçonné d’être dangereux. Pourtant, un cadre juridique existe et règlemente son utilisation. « La directive Machines de 2006 s’applique aussi à la robotique collaborative, même si lors de sa mise sur le marché, le robot collaboratif est une quasi-machine dont l’application n’est pas encore définie, insiste Nathalie Nevejans. Cette directive fixe les exigences essentielles de santé et de sécurité, tandis que la normalisation détaille les spécifications techniques. La confusion provient du fait que la règlementation estime que le contact avec la machine est dangereux, ce qui suggère à certains que la collaboration entre le robot et l’homme est dangereuse. Or, le contact dangereux doit se comprendre seulement comme le contact imprévu. »
Les intégrateurs sont en première ligne pour le respect de ces obligations : ils ont la charge de configurer sur site le cobot, de réaliser l’analyse de risques, de rédiger le certificat de conformité puis d’apposer le marquage CE. Cependant, bien que leur visite ne soit pas obligatoire, l’Inspection du travail et des organismes de certification (Apave, Bureau Veritas…) entretiennent parfois l’incertitude et jettent alors les intégrateurs dans l’embarras vis-à-vis de leur clientèle. L’administration cherche à clarifier la situation en publiant bientôt un guide, avec le concours entre autres de l’UIMM (Union des industries et métiers de la métallurgie). «Ce document officiel, sans modifier les textes existants, rappellera le cadre de la directive Machines, les conditions de son application et l’apport des normes de sécurité, à l’instar de ce qu’ont fait les Allemands» confie Franck Gambelli, directeur environnement/sécurité/conditions de travail à l’UIMM.
Les Etats-Unis ont 99 réacteurs nucléaires répartis sur leur territoire. Le pays n’a pas opté, comme la France, pour le retraitement de ses assemblages de combustible. Une fois usés, ils s’accumulent donc dans les piscines de refroidissement à proximité des réacteurs avant envoi pour stockage final. Comme le pays a décidé de prolonger la durée de vie de la plupart de ses réacteurs de 40 ans à 60 ans, ces piscines sont surchargées.
Selon une étude publiée le 26 mai dans Science, le risque d’incendie d’une de ces piscines est clairement sous-estimé. « Les bassins surchargés sont très vulnérables au feu et peuvent libérer d’énormes quantités de matières radioactives dans l’atmosphère », préviennent les auteurs. Ces conséquences dramatiques pourraient notamment être déclenchées par un séisme important ou une attaque terroriste.
Inaction de la Commission de réglementation nucléaire des États-Unis
L’étude dénonce l’inaction de la Commission de réglementation nucléaire des États-Unis (NRC). Suite à la catastrophe de Fukushima, le NRC a bien étudié une proposition pour interdire la surcharge des piscines de stockage du combustible usé. Elle visait à transférer tout le combustible usé stocké dans ces piscines depuis cinq ans vers d’autres sites de stockage temporaires.
Le NRC a alors estimé qu’un incendie dans une piscine de stockage de taille moyenne entraînerait des dommages évalués à 125 milliards de dollars. Un montant exhorbitant comparé au surcoût d’une telle disposition, évalué à 50 millions de dollars par piscine. Néanmoins, la commission américaine a estimé qu’un tel incendie était hautement improbable. Elle n’a donc pas jugé nécessaire d’obliger les centrales nucléaires à désemplir leurs piscines.
Les auteurs de l’Université de Princeton dénoncent une analyse biaisée. Selon leurs travaux, l’analyse coût-bénéfice de la NRC a jugé qu’un incendie n’engendrerait pas de contaminations radioactives au-delà de 50 miles (80,5 km). L’agence a aussi affirmé qu’une zone contaminée pourrait être nettoyée en un an. « Ces deux suppositions sont incohérentes avec l’expérience accumulée grâce aux accidents de Tchernobyl et de Fukushima », dénoncent les scientifiques.
Un incendie radioactif qui pourrait coûter 2000 milliards de dollars
Les auteurs estiment qu’un incendie dans une piscine surchargée pourrait libérer suffisamment de matières radioactives pour contaminer une zone deux fois plus grande que celle du New Jersey. Ils évaluent le montant d’un tel accident à 2.000 milliards de dollars. C’est 16 fois plus que les évaluations de la NRC ! La responsabilité de l’industrie nucléaire étant limitée à 13,6 milliards de dollars, les contribuables américains devraient assumer la quasi-totalité des coûts. Cet accident pourrait aussi forcer environ 8 millions de personnes à déménager pendant plusieurs années.
Pour éviter le pire, les auteurs appellent le Congrès américain à mettre en oeuvre l’interdiction de surcharger les piscines. Ils suggèrent aussi que les Etats qui subventionnent les réacteurs nucléaires réagissent pour ne délivrer ces subventions qu’aux réacteurs qui acceptent de transférer leur combustible usé.
Les pays du G20 représentent 85% du PIB mondial et 80% des émissions de CO2. Traiter simultanément la question du changement climatique et de la croissance économique permettrait d’accroître leur PIB de 1 % d’ici 2021 et 2,8 % d’ici 2050. L’OCDE exhorte les pays du G20 à intégrer les objectifs climatiques dans les réformes pour favoriser la croissance économique.
L’objectif est d’allouer les ressources et les investissements dans le cadre de réformes structurelles pour recentrer ainsi « l’investissement dans les infrastructures à faibles émissions et résilientes face au climat », prévient l’OCDE. Les dispositions nécessaires passent notamment par l’adoption d’une taxe carbone, la réforme des subventions aux énergies fossiles et le recours aux marchés publics pour stimuler l’innovation bas carbone. Par ailleurs, il convient de prendre de nouvelles initiatives pour « verdir » le système financier, comme l’a fait récemment la France en lançant la première obligation verte souveraine.
Il y a mieux. En prenant en compte l’élimination des coûts dus aux externalités négatives du changement climatiques (inondations, tempêtes, etc.), l’augmentation nette du PIB en 2050 est proche de 5% projette l’OCDE. « Loin d’être un frein, l’intégration de l’action climatique à la politique en faveur de la croissance peut avoir un effet économique positif », estime donc Angel Gurría, Secrétaire général de l’OCDE dans un communiqué.
Tout retard mènerait à une baisse du PIB
Retarder le passage à l’action entraînerait au contraire une baisse du PIB. Selon le rapport, une action climatique globale ne commençant qu’après 2025 entraînerait une perte de PIB de 2 % en moyenne au bout de dix ans pour les pays du G20. Car cela nécessiterait des mesures plus strictes, prises dans l’urgence, entraînant « des perturbations économiques et environnementales plus profondes », présage l’OCDE.
La plupart des pays du G20 ont sous-investi dans leurs infrastructures ces dernières années. Pour limiter le réchauffement à 2°C en 2100, l’OCDE estime qu’il faudra « des investissements dans les infrastructures de 6 900 milliards USD par an entre aujourd’hui et 2030 ». C’est « seulement 10% de plus qu’une croissance intensive en carbone », calcule l’OCDE. Un surcoût qui serait plus que compensé par les économies d’énergies fossiles permises par ces nouvelles infrastructures moins énergivores. L’OCDE estime ces économies à 1.700 milliards de dollars au total.
Certains pays peuvent être récalcitrants, craignant une récession. C’est notamment le cas des pays exportateurs nets d’énergies fossiles. Mais l’OCDE tient à les rassurer. « ll est possible, en lançant l’éventail d’actions qui convient, de faire en sorte qu’une croissance bas carbone compense les conséquences sur l’économie et l’emploi de la mise en œuvre des mesures d’atténuation », assure-t-elle.
Des chercheurs américains viennent de créer une nouvelle peau artificielle munie de capteurs afin de doter les robots du sens du toucher.
Le nouveau casque de réalité virtuelle de Google
Google a annoncé la commercialisation d’un nouveau casque de réalité virtuelle autonome : WorldSense.
Des éoliennes qui battent des ailes comme des colibris
Des chercheurs tunisiens ont mis au point des éoliennes qui imitent le vol stationnaire du colibri. Résultat attendu : des éoliennes puissantes et moins dangereuses pour les oiseaux.
Un saut en parachute depuis un drone
Aerones, une entreprise qui commercialise des drones, a organisé un saut en parachute impressionnant. Une première mondiale.
Désormais, il est possible de marcher sur l’eau
Rien de magique, hélas. Il suffit de mélanger de la maïzena et de l’eau.
« Demain, la part humaine dans la pratique de la médecine sera incroyablement réduite », prédit Axel Kahn. Mais elle ne sera pas nulle pour autant ! Pour désengorger les salles d’attente, le patient passera d’abord par une multitude d’appareils de nouvelles générations. Ils palperont les organes, feront des imageries de qualité. Ensuite, des robots feront des prises d’échantillon (sang, urine…). Les différents résultats seront analysés par des intelligences artificielles qui, en comparant avec les antécédents du malade, pourront donner leur diagnostic. Il sera associé à une probabilité et les traitements les plus probables à suivre. « La part de l’humain sera dans la gestion de cet ensemble », assure l’expert. C’est inéluctable.
Des formations médicales à revoir en profondeur
Le rôle du médecin sera davantage centré sur le contact avec le patient et sur l’accompagnement de celui-ci dans sa maladie. « Cela signifie qu’il va sérieusement falloir revoir les études médicales, car une partie extrêmement importante du travail de médecin demain sera l’aspect de l’accompagnement, de la psychologie, du dialogue et du contact », prévient Axel Kahn. « L’équilibre entre les sciences humaines et sociales et les parties technicielles dans les études de médecine devront être sérieusement reconsidérées », précise-t-il.
Car il ne faut pas penser que le parcours de santé sera intégralement robotisé et confié aux seuls robots. Il y aura évidemment quelques robots dans certains cas, comme des robots-infirmiers ou des robots distributeurs de médicaments. Ou encore des robots en maison de retraite pour assurer une présence continue aux côtés des résidents et apaiser leurs angoisses. Mais ceux-ci resteront à la marge pour Axel Kahn. Car « l’accompagnement du patient, le contact, les regards qui se croisent » sont essentiels, insiste-t-il. C’est ce qu’il appelle la « calinothérapie » ou la « bisouthérapie ». Selon les professionnels de santé, près de la moitié de l’efficacité thérapeutique n’est en effet pas liée aux gestes techniques, mais à l’écoute et au dialogue qui s’instaure entre le médecin et son patient.
Par ailleurs, au moins 30% des déterminants morbides de santé sont liés au mal-être psychologique. Un mal-être qui entraîne des conduites à risques: drogue, alimentation, alcoolisme, stress… et toutes les affections qui y sont associées. « Cette société informatique uberisée ne va pas faire diminuer le stress et ce mal-être », assure Axel Kahn. « L’idée selon laquelle on peut tout pré-programmer et tout confier à une machine est complètement stupide. C’est ne pas considérer ce que sont les mécanismes en particulier de la morbidité », conclut-il.
« Le programme de transfert de technologies de l’Agence spatiale Européenne a pour but de faciliter les retombées des innovations spatiales afin de booster la compétitivité européenne, trouver de nouveaux débouchés et augmenter la capacité d’innovation des entreprises européenne », prévient Nicolas Louée, consultant senior de la société In Extenso Innovation Croissance. « L’idée est aussi que le grand public comprenne les retombées de la recherche spatiale au quotidien : si on prend l’exemple du médical, le progrès spatial peut aider à sauver des vies ! », insiste-t-il.
Comment est organisé le transfert de technologies ?
Le programme de transfert de technologies comporte un premier pilier visant à valoriser la propriété intellectuelle de l’agence via 450 brevets couvrant 150 inventions et déposés par les chercheurs. L’ESA se repose également sur un réseau de « brokers » pour augmenter le nombre de transferts réalisés chaque année. Ces entreprises sont des « courtiers en technologies », résume Nicolas Louée. Ces derniers assurent le transfert de technologies de l’ensemble du tissu industriel spatial européen (laboratoires, PME, start-up…). « À l’échelle de son pays, chaque broker sert de lien entre des donneurs de technologies du domaine spatial et les entreprises en recherche de solution en dehors de ce secteur, détaille l’expert. Leur rôle est de sélectionner une liste de technologies pertinentes et d’amorcer le transfert de technologies. »
Le programme s’appuie aussi sur un réseau de 13 incubateurs répartis un peu partout en Europe afin d’accompagner le transfert de technologies via la création de start-ups. Aujourd’hui, ce sont plus de 350 porteurs de projets qui ont été accompagnés au travers de ce dispositif.
Concrètement, sur la période 2013-2016, le réseau européen de broker a réalisé plus de 40 transferts pour un montant de 7 millions d’euros, recensé près de 250 innovations spatiales à fort potentiel de valorisation dans des applications terrestres, partagé 60 cas de transferts remarquables et rencontré une centaine de sociétés non spatiales par an pour échanger sur leurs besoins. Sur ce créneau, l’Hexagone est particulièrement performant. « En tant que broker, nous sommes multi-technologies et multi-secteurs d’application. Nous avons la charge de transférer n’importe quelle typologie de technologie développée dans le spatial, que cela soit l’optique, la télécommunication, les matériaux, les systèmes d’assemblage… pour trouver des applications dans le médical, le nucléaire, l’automobile, l’aéronautique, etc. », complète Nicolas Louée.
Financé par l’Agence Spatiale Européenne, les brokers ont pour objectif d’assurer un certain nombre de transferts par an. « Pour In Extenso Innovation Croissance, l’objectif de transfert de technologies se situe entre 2 et 4, suivant les années », précise Nicolas Louée.
Des success stories dans le médical !
À l’occasion de sa conférence, Nicolas Louée donne plusieurs exemples de transferts ayant eu lieu en Europe dans le secteur médical. Ainsi, l’entreprise Aabam a développé CondorScan, une mini caméra qui filme l’intérieur de la bouche et réalise en temps réel une empreinte des dents en 3D. Elle utilise une technologie développée au CNES pour les satellites Pléiades d’observation de la Terre. Au lieu de reconstituer en 3D la surface de la terre, la technologie reconstitue ici l’intérieur d’une bouche !
A l’Université de Maastricht, le vent extérieur de la clinique faisait vibrer les microscopes. Dans ces conditions, une chirurgie de l’oeil sur cinq était impossible. C’est en s’intéressant au téléscope Darwin qui détecte les exoplanètes qu’un broker néerlandais a trouvé la solution. La technologie permet d’amortir automatiquement les vibrations à ultra-basse fréquence dans les microscopes chirurgicaux. Elle pourra aussi être appliquée aux autres opérations de précision, comme la chirurgie du cerveau, des neurones ou de petits vaisseaux sanguins.
Par ailleurs, Crossject s’est inspiré de la propulsion spatiale pour injecter des médicaments par voie intradermique, sous-cutanée et intramusculaire, sans aiguille. Ce système d’injection pyrotechnique Zeneo a été adapté de la solution de la Société Nationale des poudres et explosifs (SNPE) développée pour la propulsion d’Ariane.
Actuellement, une start-up française développe une méthode pour détecter de façon précoce le cancer de la vessie. Cela passe par l’analyse en fluorescence de l’urine, adaptée d’une technologie pour améliorer l’analyse et le traitement des images hyperspectrales par satellite.