Les e-textiles s’invitent dans le design

Aurélie Mossé est designer indépendante, chercheur et enseignante à l’Ecole nationale supérieure des Arts décoratifs (ENSAD). Elle forme ses étudiants en design aux nouvelles technologies textiles et aux enjeux écologiques. Cela inclut les e-textiles de façon générale, qu’il s’agisse de textiles high-tech et complexes, comme les tissus photovoltaïques, et les textiles low-tech, à base de fibres naturelles.

Techniques de l’ingénieur : Quelles recherches avez-vous menées sur les textiles intelligents?

Aurélie Mossé : J’ai principalement travaillé sur deux projets pour explorer l’utilisation des matériaux qui réagissent à la lumière ou changent de forme avec l’électricité dans la maison.

Ainsi, en 2009 j’ai développé une membrane textile composite dotée de films photovoltaïques souples qui change de forme pour produire de l’électricité en fonction du rythme solaire. Les cellules photovoltaïques sont collées sur des voiles en tulle. Pour les activer, il suffit d’ajouter un capteur de lumière qui détecte les variations lumineuses, un microcontrôleur qui les traduit en données numériques et des mécanismes de poulies pour faire bouger le textile. En cas de forte luminosité, le textile est complètement déployé et génère de l’électricité. En revanche, quand l’ensoleillement diminue, il se contracte pour laisser passer la lumière du jour et se redéploie la nuit pour préserver l’intimité.

e-textile-design-photovoltaique
Membrane textile photovoltaïque repliée lorsque le soleil brille. ©Aurélie Mosse

En 2011 et 2012, j’ai travaillé sur un plafond qui change de forme avec le vent et l’électricité. Les éléments ont deux niveaux d’activité. Des structures s’ouvrent ou se ferment en fonction de la vitesse du vent et des motifs passifs vont juste frémir avec les courants d’air intérieur. Les structures sont réalisées grâce à des polymères électroactifs, en particulier des élastomères diélectriques. Ce sont des plastiques qui changent de forme lorsqu’ils sont soumis à une impulsion électrique. Dans ce cas précis, il s’agit d’élastomères diélectriques. C’est la structure moléculaire qui se déforme sous la pression du courant électrique. Pour ce faire, il faut appliquer un voltage entre 1.000 et 5.000 volts. Pour préparer chaque structure, l’élastomère est pré-tendu sur un cadre et recouvert d’un enduit conducteur. Il suffit ensuite d’ajouter les électrodes. Lorsque l’on relâche cette structure, elle forme un volume en 3D. Elle passe à une forme plus plate pré-enregistrée dans le processus de fabrication de la structure lorsqu’on applique le voltage. Il y a toutefois encore des recherches à mener pour arriver à 230 volts et avoir des applications en décoration pour les particuliers.

e-textile-plafond-reef

Plafond doté de structures qui changent physiquement de forme en réaction à l’électricité (haut voltage). Dans cette installation, les structures sont connectées à un capteur de vent ce qui implique qu’elles s’ouvrent et se ferment en fonction de la vitesse du vent extérieur. ©Anders Ingvartsen

ETI : Où en est aujourd’hui la recherche dans ces domaines?

A.M : Le champs des polymères électroactifs se développe assez rapidement et il y a des solutions commercialisées pour des applications très ciblées, notamment en robotique. En laboratoire de recherche, on arrive désormais à faire de l’impression in-jet de solutions conductrices, à créer des matériaux complexes et on commence à développer des technologies d’activation sous formes de fils et non plus de films. Ces fils peuvent par exemple réagir à différentes longueurs d’onde. Nous sommes dans des choses assez expérimentales au stade de laboratoire, mais cela est très prometteur.

Côté photovoltaïque, il est possible d’apposer des panneaux souples sur les textiles, mais on a encore du mal à faire des fibres photovoltaïques. Techniquement, les niveaux de production d’électricité sont tellement bas que le rapport entre le coût et le gain n’est pas du tout intéressant.

ETI : Quelles sont les tendances d’utilisation en design?

A.M : Pour la mode, plusieurs vêtements chauffants arrivent sur le marché. Il y aussi les foulards anti-pollution de la start-up française Wair. En design d’intérieur, la réflexion se porte sur les solutions pare-soleil, les rideaux pour gérer la luminosité et la façon d’améliorer la qualité de l’air des bâtiments.

Une autre tendance est à suivre. Il s’agit des surfaces qui changent de couleur, d’esthétique ou de forme en fonction de différents stimuli : la lumière, l’humidité, le son l’électricité, etc.

ETI : Y a-t-il de la place pour l’écologie dans le domaine?

A.M : Il y a des efforts d’utilisation de bioplastiques ou de fibres naturelles, mais ces solutions sont encore au stade de la recherche et ne se retrouvent pas dans les produits commercialisés. Pour réduire l’empreinte écologique, il faut par exemple trouver d’autres façons que l’électronique pour activer les surfaces. Je pense aux plastiques qui changent de forme avec la lumière et aux fibres naturelles qui changent de forme avec l’humidité. Il faut également penser au devenir post-utilisation et post-consommation des textiles et réfléchir au désassemblage en vue du recyclage. Le projet européen Wear Sustain s’intéresse de près à ces questions.

Propos recueillis par Matthieu Combe, journaliste scientifique

Peut-on laver et recycler un textile connecté ?

« Lorsque l’on parle de textile électronique, un aspect qui revient régulièrement est celui de la maintenance, explique Guillaume Tartare, chercheur du Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix (ENSAIT). Va-t-il résister au lavage ? Si oui, combien ? Faut-il enlever des parties pour le laver ? ». Ces questions sont évidemment légitimes.

Avoir un vêtement et ne pas pouvoir le laver est on ne peut plus problématique. Les chercheurs ont donc développé plusieurs solutions pour isoler les parties électroniques et faire en sorte qu’elles puissent passer au lave-linge. Pour protéger les capteurs et les câbles, des résines souples étanches ou des vernis sont apposés. Dans le cas des textiles qui utilisent des fibres conductrices, les fibres sont isolées de l’extérieur grâce à une gaine, un surfil de polyamide qui va permettre d’isoler la matière plastique autour d’un fil central conducteur.

Le plus gros problème demeure l’interconnexion entre toutes les pièces électroniques et les câbles, quelle que soit leur forme. Pour assurer l’étanchéité, une surcouche de résine ou un autre type d’isolant est apposé. « Cela permet de passer au lavage sans souci, il faut simplement toujours bien penser à retirer la batterie », prévient Guillaume Tartare.

Et comment on recycle un textile connecté ?

La grande majorité des textiles intelligents déjà commercialisés utilise de l’électronique. Leur recyclage est une problématique importante. Il reste compliqué, car comme pour les textiles composites, ils renferment plusieurs fibres différentes, qu’elles soient naturelles ou artificielles à l’échelle d’un seul fil. En plus, la présence d’électronique complexifie encore la donne.

« Il serait possible d’enlever l’électronique pur, notamment les batteries ou les piles, les capteurs et le microprocesseur pour récupérer le cuivre et les métaux rares, analyse Guillaume Tartare. En revanche, une fois que le fil est intégré, il est plus difficilement récupérable. » En effet, les industriels n’iront pas détricoter un textile pour aller chercher quelques fils conducteurs qui n’auraient pas beaucoup de poids.

Pour développer le recyclage, il faudra miser sur l’éco-conception. « Malheureusement, ces questions restent encore peu développées dans les start-up qui commercialisent aujourd’hui des produits », regrette Aurélie Mossé, enseignante à l’Ecole nationale supérieure des Arts décoratifs (ENSAD).

Les nouvelles technologies ne vont pas forcément simplifier le problème, car les matériaux sont de plus en plus complexes. Lorsque les capteurs et les différents composants seront directement imprimés sur les textiles ou intégrés aux fibres, ils feront partie intégrante du textile. Il seront alors impossibles à séparer et donc à recycler avec les technologies actuelles.

La question du recyclage des textiles est au coeur du projet RETEX et sera à l’honneur du Forum de la mode circulaire les 24 et 25 mai 2018 à Roubaix.

Par Matthieu Combe, journaliste scientifique

La révolution des textiles intelligents

« L’avenir du vêtement est d’être l’interface entre la personne et l’environnement et le monde qui l’entoure. Ce sera l’interface entre son porteur et ses autres objets connectés, le web, le cloud, sa maison et même son avatar sur le web », analyse Bruno Mougin, responsable de projets du pôle de compétitivité Techtera. Dans les autres domaines, les textiles intelligents se développeront également.

Comment faire un textile connecté ?

Un textile est un matériau multicouche formé de fils qui s’entrecroisent. Chaque fil est lui-même formé de plusieurs fibres d’un ou plusieurs matériaux. Pour être connecté, un textile nécessite d’être équipé de plusieurs systèmes embarqués avec décision locale. En premier lieu, il requiert une source d’énergie. Elle est soit directement apportée par une pile ou une batterie, soit par un système de récupération local d’énergie (photovoltaïque, éolien, dynamo, etc.). Le textile intelligent demande également des capteurs qui permettent d’obtenir les informations désirées sur le porteur ou son environnement : rythme cardiaque, température…

Pour être fonctionnel, un textile connecté nécessite un actuateur. Ce dernier permet d’interagir avec le porteur et l’environnement. C’est par exemple un moteur qui change la forme du textile ou une LED qui modifie sa couleur. Un tel textile requiert également un microprocesseur doté d’un algorithme et d’une base de donnée permet le traitement du signal. Et parfois de la communication extérieure pour dialoguer avec un smartphone en bluetooth, un ordinateur ou le cloud. Enfin, pour relier les différents éléments précédents, il faut des systèmes de conduction et de transfert d’énergie ou de donnée et de la connectique.

« Dans une dizaine d’année, nous aurons des purs textiles électroniques par nature et non plus par ajout, projette Guillaume Tartare, chercheur du Laboratoire de recherche GEMTEX à l’école d’ingénieurs textile de Roubaix ( ENSAIT). Les futures ambitions du textile électronique est qu’il n’y ait plus de composants électroniques et que le textile lui-même devienne électronique ».

Des innovations dans les fibres

La tendance est au développement de fibres connectées. Par exemple, la startup grenobloise Primo1D développe le fil RDFID e-thread. Ce dernier intègre une puce RFID à l’intérieur du fil. Le projet européen PowerWeave développe de son côté un fil qui récolte et stocke l’énergie électrique dans sa matrice fibreuse. Il travaille sur la connexion entre des fibres batterie et des fibres photovoltaïques. L’objectif est de répondre au besoin d’une alimentation électrique facilement stockable et transportable. « Vous branchez quasiment votre téléphone à votre tee-shirt et c’est lui qui va recharger votre batterie », s’extasie Guillaume Tartare.

Beaucoup de travaux sont menés sur les différentes façons de récupérer l’énergie localement. Les chercheurs travaillent sur du photovoltaïque ou de l’éolien textile, sur de la récupération de chaleur sous forme d’énergie électrique. En revanche, ils peinent encore à obtenir de la production d’électricité stable. Ce qui reste encore le plus souvent incompatible avec l’utilisation de capteurs ou de microcontrôleurs. « Les chercheurs doivent trouver une méthode pour stocker cette énergie intermittente et la transformer », assure Guillaume Tartare. En attendant, la plupart des solutions commercialisées utilisent simplement des batteries rechargées sur le secteur.

Des innovations dans les procédés

Les procédés textiles évoluent également. Le défi est d’utiliser des fibres textiles pour produire directement des composants électroniques. L’entreprise allemande ZSK vend par exemple des machines qui intègrent des puces électroniques au moment de la broderie des tissus. La transition est déjà en marche. Il existe sur le marché des transistors textiles qui ne nécessitent aucun composant électroniques supplémentaire. « Simplement, c’est le textile qui devient transistor », précise Guillaume Tartare. Bientôt, les fibres embarqueront directement la donnée et il sera possible d’imprimer directement le capteur sur le textile. Les fibres deviennent intrinsèquement communicantes, la matière et le flux d’information sont complètement fusionnés.

Sur ce point, le projet P-tronics, mené par le CNRS et l’Université de Lorraine est particulièrement innovant. Grâce à des plastiques fonctionnels, il permet d’imprimer en 3D des capteurs flexibles, des actionneurs et des objets complets avec de l’électronique intégrée. « Cela permet par exemple d’imprimer des semelles connectées et des capteurs portables personnalisés », confie Mehdi Ammi, enseignant-chercheur au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI-CNRS) de l’Université Paris-Saclay. Le laboratoire recherche activement un partenaire industriel en vue de transférer sa technologie.

Quel vêtement connecté aujourd’hui ?

Plusieurs textiles connectés sont déjà disponibles sur le marché. Si l’on se réduit au secteur de l’habillement, il y a par exemple la veste connectée de Levi’s et Google qui permet de contrôler quelques applications sur son smartphone en la touchant ou en la tapotant. Spinali design propose déjà des jeans et maillots de bain connectés. La fonction géo-localisation des jeans permet, par vibration sur le coté droit ou gauche, d’indiquer la direction à prendre lorsqu’un trajet est programmé. Les maillots de bain sont dotés d’un capteur qui mesure la dose d’UV au soleil et invite son utilisateur à mettre de la crème solaire.

Par Matthieu Combe, journaliste scientifique

Protection des données personnelles et objets connectés

Nous allons rapidement vivre dans un environnement bourré de capteurs. Mais veut-on transmettre en permanence nos données ? Et qui pourra y accéder ? Autant de questions légitimes auxquelles la réglementation doit répondre.

Les objets connectés sont complexes et renferment une large gamme de composants. Ainsi, plusieurs qualifications juridiques pourront s’appliquer pour un même objet. « C’est un sujet de droit complexe qui va nécessiter du travail pour décortiquer les différents éléments, les qualifier et appréhender l’écosystème dans son ensemble », prévient Nathalie Puigserver, avocate chez P3B avocats et spécialiste du droit des technologies de l’information et des communications électroniques.

Un sujet complexe pour les juristes

La plus grande difficulté juridique avec Internet est qu’il n’y a pas de limite territoriale. « Cette absence de territorialité pose des difficultés pour attaquer des règles », observe Nathalie Puigserver. Le développement des objets connectés pose un problème similaire, puisqu’ils se déploient dans tous les secteurs d’activité, avec des produits et services d’une diversité infinie. Parmi eux, on trouve des secteurs qui ont des réglementations propres.

La problématique pour le juriste est la rapidité de développement des objets connectés.« À horizon 2020 plusieurs milliards d’objets connectés seront en circulation, ce qui est incompatible avec la lenteur du processus législatif », note Nathalie Puigserver. En effet, il aura déjà fallu attendre six ans pour aboutir à l’entrée en vigueur de la nouvelle réglementation européenne sur les données personnelles. Celle-ci modifie en profondeur la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

Cette nouvelle réglementation harmonise les législations des différents pays européens pour permettre le développement de l’économie numérique. Elle a pour objectif d’appliquer beaucoup plus largement la protection des données personnelles des citoyens européens. Ces règles s’appliqueront à toutes les entreprises, quelle que soit leur taille, et à tous les produits vendus en Europe.

Données personnelles et droit commun de la responsabilité

Les objets connectés enregistrent différentes données personnelles. Les règles en place seront-elles suffisantes et efficaces pour protéger la vie privée de tout un chacun? « C’est la question centrale par rapport aux objets connectés », estime Nathalie Puigserver.

Le sujet concerne tout autant le droit commun de la responsabilité. En cas de défaillance d’un objet connecté, qui sera responsable ? L’utilisateur, le concepteur du logiciel, le fabricant, les sous-traitants, un assureur ?« Le fait qu’un objet soit augmenté par des technologies pose des questionnements sur qui en a le contrôle au moment de défaillances », précise l’avocate. C’est notamment tout le débat en cours sur la responsabilité en cas d’accident avec des véhicules autonomes.

Réformer ou créer de nouvelles règles ?

Le droit actuel peut-il s’adapter aux objets connectés ? C’est tout le débat. « Il ne faut pas légiférer dans précipitation, faire une réglementation spécifique qui se révélerait être contre-productive et un frein au développement de ces technologies, prévient l’avocate. On peut toutefois déjà faire des adaptations spécifiques. »

Le fabricant d’objets connectés doit déjà respecter toutes les obligations en matière de sécurité et de confidentialité des données. Cela signifie qu’il doit prévoir des durées de conservation, un droit d’accès et de suppression de ces données. La nouvelle loi instaure également des règles d’importation et d’exportation de données plus strictes vers et en dehors de l’Union européenne. Chaque sous-traitant aura également une responsabilité propre de protection des données.

Les objets connectés seront acceptés par les utilisateurs à condition que l’utilisation des données se fasse de façon éthique et transparente. Cela signifie que les utilisateurs devront savoir pourquoi les données sont captées et comment elles sont utilisées. « Ce n’est pas tant le type de donnée collectée qui pose problème que le pourquoi on la collecte et ce que l’on va en faire », conclut la spécialiste.

Par Matthieu Combe, journaliste scientifique

Revue du web #111 spéciale robotique : les vidéos étonnantes du mois

 La dernière nouveauté de Boston Dynamics : un robot qui ouvre les portes tout seul

Après avoir enseigné le salto arrière à Atlas, voilà que Boston Dynamics vient de montrer à SpotMini comment ouvrir lui-même une porte (et faire entrer ses comparses).

 

Un robot microscopique tout-terrain

μTUM est si habile qu’il pourrait un jour se faufiler dans le corps humain…

 

 

Le drone taxi vient d’embarquer ses premiers passagers

Revivez en vidéo les premiers essais du drone quadrirotor Ehang 184 !

 

Commander un drone avec ses Lego

Fruit de la collaboration entre l’université Queen’s au Canada et l’entreprise Lego, ce projet est aussi pédagogique que ludique !

 

 

Des robots aux JO

Non loin de Pyeongchang, des robots skieurs ont tenté de remporté le « Edge of Robot: Ski Robot Challenge », une compétition organisée  par des universités, des instituts de recherche et des entreprises privées. Le but ? Promouvoir l’industrie robotique !

 

Bonus insolite : un captcha… pour robot

Si vous êtes humain, vous n’entrerez pas : www.humansnotinvited.com

selection-computers

Par I. B

Bioraffinerie : une digestion plus efficace du xylane ouvre de nouvelles perspectives

Les déchets végétaux sont une ressource de choix pour la filière des biocarburants mais leur exploitation se heurte depuis plusieurs années à la difficulté d’extraction de la cellulose piégée dans la lignocellulose de la paroi des végétaux. Pour exploiter la lignocellulose, constituée de lignine, d’hémicellulose et de cellulose, les scientifiques cherchent comment casser efficacement les autres composés. Parmi ces derniers, le xylane, est un polysaccharide particulièrement résistant aux dégradations enzymatiques actuelles. Des chercheurs de l’Inra, du CNRS et de l’Université de York (Royaume-Uni) ont identifié une enzyme produite par des champignons capables de dégrader le xylane, et permettant ainsi d’accéder plus facilement à la cellulose des parois végétales. Leurs travaux ont été publiés dans la Nature Chemical Biology.

Aux confins de la forêt guyanaise

La découverte de cette enzyme, dont la famille a été baptisée AA14 dans la classification des enzymes actives sur les hydrates de carbone(CAZY), est le fruit d’autres recherches antérieures. Tout d’abord, entre 2007 et 2010, des chercheurs de l’Inra ont constitué en Guyane une collection de champignons filamenteux spécifiques de la dégradation du bois. C’est dans cette collection qu’a été choisi Pycnoporus coccineus pour un séquençage de génome ayant permis d’étudier les différentes enzymes que ce champignon fabrique quand il colonise et se nourrit d’un bois. Parmi ces enzymes, un nouveau type a été mis en évidence et constitue désormais une quatrième famille dans le groupe des enzymes LPMO fongiques (lytic polyssacharides monooxygenases). Les LPMO sont des enzymes comprenant un site actif à base de cuivre qui sont produites par des bactéries et des champignons filamenteux. Elles ont été découvertes en 2010 et ont déjà induit de nombreuses évolutions dans les industries biosourcées (énergies et matériaux) et les cocktails d’enzymes qu’elles emploient.

Premiers essais transformés

Les chercheurs ont mené des essais sur la dégradation du pin et du peuplier et ont montré que l’utilisation de l’enzyme AA14 permet de quasiment doubler l’efficacité de la transformation de la cellulose du bois en glucose par rapport à l’action des cellulases habituellement employées par l’industrie. Le glucose peut ensuite facilement être transformé en éthanol pour la production de biocarburants. Ces recherches ont donné lieu à deux dépôts de brevet (facilitation de la saccharification de la biomasse végétale pour production d’éthanol et modification de surface des fibres papetières). En effet, l’utilisation des LPMO fait à présent l’objet de nombreuses recherches pour plusieurs filières agrosourcées et les laboratoires de l’Inra ont par exemple testé leur utilisation pour la fabrication de nanofibrilles de cellulose. Ces dernières présentent des propriétés remarquables mais leur production est très énergivore. Grâce aux LPMO, on espère réussir à rendre le procédé plus accessible. Une autre recherche s’est aussi intéressée à l’emploi de LPMO lors du stockage de biomasse lignocellulosique avant utilisation industrielle afin de pré-dégrader la lignine et rendre ces stocks plus facilement et efficacement utilisables.

Sophie Hoguin

R&D : la Chine rattrape les Etats-Unis

« Les dépenses de la Chine dans la recherche et développement (R&D) ont continué de croître à un rythme soutenu en 2017 » annonçait mi-février un communiqué officiel du bureau d’État des statistiques chinois.

En base annuelle, l’investissement global s’élève ainsi à près de 225 Md€* (1750 Md de yuans) en augmentation de 11,6 %. La R&D représente désormais 2,12 % du PIB du pays, en progression de 0,01 % par rapport à 2016. L’effort d’investissement provient autant des entreprises (+13,1%) que des institutions gouvernementales (+7%) ou des universités (+5,2%). Si la participation du secteur privé reste prépondérante avec 1370 Md de yuans investis, la recherche fondamentale n’est pas délaissée et représente 5,3 % des dépenses totales, en hausse de 11,8 %. Fin 2015, la Chine comptait ainsi 5,35 million de personnes travaillant dans la R&D et le pays prévoit toujours d’augmenter ses dépenses annuelles pour atteindre 2,5 % de son PIB en 2020. Rappelons que cet effort est continu et massif depuis le début des années 2000 et avait connu un premier bond entre 2008  et 2012 où la Chine avait doublé ses dépenses en R&D, lui permettant de représenter 20 % de la R&D mondiale en 2012 contre seulement 6% en 2002.

L’innovation se déplace en Asie

Selon le rapport biennal de la National Science Foundation américaine (NSF), les chercheurs chinois ont publié davantage d’articles dans des revues internationales à comité de relecture que les américains en 2016 (426 000 articles contre 409 000). Mais encore loin derrière l’Union Européenne qui dépasse les 600 000.

Un classement qui, cependant, présente des biais puisque aujourd’hui la recherche est surtout le fruit d’équipes internationales. La NSF relève d’ailleurs que si l’on refait le classement avec le nom des auteurs, les Américains reprennent la tête. Une rectification qui ne doit pas entacher la réelle dynamique asiatique dont la Chine est désormais l’un des moteurs : on peut noter par exemple que le nombre de thésards atteint désormais 34000 contre 40000 aux Etats-Unis. Ces derniers accusent une réelle perte de vitesse en matière d’attractivité d’étudiants étrangers qui représentent habituellement une grande part de leurs doctorants.

De manière globale, on voit se déplacer depuis quelques années, la dynamique mondiale de l’innovation vers l’Asie. Selon le rapport de la NSF, l’Asie (Chine, Inde, Japon, Corée du Sud et les autres pays d’Asie du Sud-Est) représente en 2015  plus de 40 % des dépenses mondiales de R&D contre 25 % en 2000 quand l’Amérique du Nord est passé de 40 à 28 % et l’Europe de 27 % à moins de 22 %. En outre, si l’on regarde les investissements dans le capital des entreprises évoluant sur le marché des technologies émergentes, la Chine se montre là encore très attractive : elle a attiré en 2016, 27 % des capitaux mondiaux (en passant de 2,4Md€ en 2013 à 27Md€ en 2016).

Sophie Hoguin

La formation de la galaxie d’Andromède enfin élucidée

La grande nébuleuse d’Andromède a été décrite pour la première fois en 964, par l’astronome Perse, Abd al-Rahman al-Sufi. Répertoriée en 1923 comme galaxie, elle a souvent été considérée comme la sœur jumelle de notre Voie lactée. C’est sa plus proche voisine et cette proximité permet l’observation comparée de ses propriétés qui, jusqu’à aujourd’hui, intriguaient les astrophysiciens.

Une campagne d’observations américaine, menée entre 2006 à 2014, avait en effet souligné une différence considérable avec la Voie lactée : dans le disque géant d’Andromède, toutes les étoiles âgées de plus de 2 milliards d’années, subissent des mouvements désordonnés, dont l’ampleur est presque comparable à leur mouvement de rotation autour du centre de cette galaxie. À titre comparatif, les étoiles du disque de la Voie Lactée, dont fait partie notre Soleil, ne sont sujets qu’à un simple mouvement de rotation. Comment expliquer cette différence ?

À l’aide de modélisations effectuées sur les plus puissants moyens de calcul disponibles en France – les calculateurs de l’Observatoire de Paris (MesoPSL) et de GENCI (IDRIS – CNRS) -, et après traitement de près d’un téraoctet de données, une équipe scientifique franco-chinoise de l’Observatoire de Paris – PSL, du National Astronomical Observatory of China (NAOC), de l’Observatoire astronomique de l’Université de Strasbourg et du CNRS est enfin parvenue à caractériser les mécanismes physiques de formation d’Andromède, levant ainsi le voile sur l’origine de sa formation. Les scientifiques ont démontré que seule une collision « récente » pouvait expliquer l’agitation des étoiles, collision suivie par un épisode de formation stellaire dans l’ensemble du disque géant d’Andromède.

Il y a 7 à 10 milliards d’années, à la place d’Andromède, se trouvaient deux galaxies sur une même trajectoire de rencontre. Les astronomes ont optimisé par simulation les trajectoires des deux galaxies progénitrices. Ils ont découvert qu’elles avaient fusionné il y a 1,8 à 3 milliards d’années. Cette collision a donné naissance à Andromède telle que nous la connaissons. « Nous avons montré que la plus grande des deux galaxies progénitrices était environ quatre fois plus massive que la plus petite », précise François Hammer, astronome de l’Observatoire de Paris – PSL, premier coauteur de l’étude.

Grâce à des calculs numériques intensifs, les astrophysiciens parviennent pour la première fois à reproduire en détail l’ensemble des nombreuses structures qui composent la galaxie d’Andromède : le bulbe, la barre et le disque géant. Ce dernier inclut un gigantesque anneau d’étoiles jeunes dont la stabilité avec le temps restait inexpliquée, ce qui vient d’être résolu.

La galaxie d’Andromède est entourée de gaz et d’étoiles peuplant une région dix fois plus étendue qu’elle, communément appelée le halo. Des observations réalisées entre 2008 et 2014 sur le télescope franco-canadien à Hawaii (CFHT) montrent que le halo d’Andromède est peuplé par de gigantesques courants d’étoiles, dont le plus proéminent, s’appelle précisément le « courant géant d’étoiles ». Le disque géant présente des bords déformés, sur lesquels on retrouve également d’autres structures ayant la forme d’amas diffus ou de coquilles.

En faisant une comparaison systématique avec ces observations qui sont les plus profondes du halo d’Andromède, la collaboration franco-chinoise est parvenue à reproduire et à comprendre l’origine de ces structures. Le « courant géant d’étoiles » ainsi que les coquilles proviennent du plus petit progéniteur, tandis que les amas diffus et la déformation du disque proviennent du plus grand. Cela explique pourquoi les premières structures sont sous-abondantes en éléments lourds par rapport aux secondes : le plus petit progéniteur étant moins massif, il a formé moins d’éléments lourds et d’étoiles que le plus grand.

C’est la toute première fois qu’une simulation numérique, basée sur 24 millions de particules, parvient à reproduire une galaxie avec autant de détails. La collision gigantesque qui a eu lieu alors que notre Terre existait déjà, pourrait avoir laissé des traces dans notre environnement, le Groupe Local. Elle est le seul moyen d’expliquer comment se sont formés le bulbe, la barre, les disques minces et épais, l’anneau stable de jeunes étoiles dans le disque, le récent événement de formation stellaire dans tout le disque, la structure 3D du « courant géant d’étoiles », les coquilles et amas diffus et la distribution des étoiles dans le halo.

Découvrir en vidéos l’origine de la formation d’Andromède sur la chaine Youtube de l’Observatoire de Paris :

andromede1

andromede2

andromede3

Référence :

Ce travail de recherche a fait l’objet d’un article intitulé “A 2-3 billion year old major merger paradigm for the Andromeda galaxy and its outskirts”, par F. Hammer et al., à paraître le 14 février 2018 dans la revue Monthly Notices of the Royal Astronomical Society (arXiv: 1801.04279). https://doi.org/10.1093/mnras/stx3343 Collaboration L’équipe est composée de François Hammer (Observatoire de Paris – PSL), Yanbin Yang (Observatoire de Paris – PSL), Jianling Wang (National Astronomical Observatory of China), Rodrigo Ibata (Observatoire astronomique de l’Université de Strasbourg), Hector Flores)

Source : cnrs

Budget de la Nasa 2019 : carton plein pour un avion supersonique silencieux

Alors que les budgets prévisionnels des agences scientifiques continuent d’être tirés vers le bas sous le mandat de Donald Trump, la Nasa se voit octroyer pour 2019 une légère hausse (+1,3% par rapport à 2017). Mais pour autant les choix stratégiques sont clairs : l’utilitarisme est le grand prioritaire. Ainsi le gouvernement voudrait par exemple transformer l’ISS en une plateforme d’activité privées à partir de 2025 et propose d’annuler le WFIRST, un programme de télescope dédié à la recherche d’exoplanètes et de la matière noire.

Certains projets, au contraire reçoivent un soutien plein et entier. Parmi eux, le véhicule de transport aérien supersonique silencieux (QueSST) dont une étape cruciale du développement a été passée l’an dernier avec la validation du design de son démonstrateur : le LBFD (Low-Boom Flight Demonstrator). Son premier vol de test grandeur réelle est prévu en 2021 et selon la Maison Blanche « il ouvrirait un nouveau marché pour les compagnies américaines en permettant de construire des lignes aériennes commerciales plus rapides, créatrices d’emplois et qui diviserait les temps de trajets pour traverser le pays par deux ».

quiet supersonic - nasa (1)

Passer le « Bang »

Le plus gros frein au développement d’avions supersoniques pour le transport de passager reste le bruit : notamment le « bang » du passage du mur du son et le cortège d’ondes sonores stridentes et insupportables pour l’homme qui l’accompagnent. Rappelons que ce « bang » n’est pas unique au moment du passage du mur du son, il suit en réalité le parcours de l’avion et se produit en continu car les ondes sonores des différentes parties de l’appareil fusionnent et se transforment en une onde de choc. C’est pourquoi d’ailleurs le Concorde n’effectuait que des trajets au-dessus de l’océan et a, tout au long, de sa carrière essuyé des plaintes pour nuisances sonores. Le travail de la Nasa consiste à la fois à dessiner un avion qui limite ce « bang »,  à étudier les modalités d’approches des infrastructures les moins bruyantes (approche en piqué par exemple) et à tester la réaction des hommes et des constructions dans différentes configurations (force du bang, fréquence etc.). Concernant la forme de l’avion, la Nasa travaille sur une forme en aile delta classique pour ce genre d’avion car elle permet naturellement de limiter le bruit et la consommation de carburant. Plusieurs maquettes ont déjà été testées en soufflerie et le design du nez de l’avion semble particulièrement déterminant pour réussir ce pari. Le design général a été validé à l’été 2017 ce qui a permis à la Nasa d’ouvrir un appel d’offre pour que d’autres partenaires rejoignent le projet QueSST mené pour le moment avec Lockheed Martin. L’objectif final serait un avion qui volerait à Mach 1,4.

Grâce au budget 2019, l’agence espère vraiment pouvoir commencer la construction du LBFD à pleine échelle pour des premiers vols de tests en 2021.

Le Spike Aerospace

La Nasa n’est pas la seule à plancher sur un supersonique silencieux. Depuis 2013, la compagnie américaine Spike Aerospace travaille aussi sur un tel projet. Son concept est maintenant bien avancé puisque les premiers vols d’un prototype à petite échelle et sans pilote du S-512 Quiet Supersonic Jet ont eu lieu début octobre 2017. Ils ont permis de valider le design aérodynamique de l’avion. Spike Aerospace, qui a répondu à l’appel d’offre de la Nasa pour travailler sur le QueSST, espère de son côté une validation complète de son engin pour 2021 et de premières livraisons en 2023. La version finale du S-512 doit permettre de transporter 22 passagers à Mach 1,6 tant au-dessus des océans que des terres grâce à son faible « bang » supersonique.

Par Sophie Hoguin

Revue de presse anglophone #13 : réalité virtuelle, recherche et bitcoin

VRChat, l’application de réalité virtuelle qui séduit de plus en plus

realite-virtuelle1024

Source : The Conversation

 

Le manque de lumière pourrait ralentir notre cerveau

cerveau

Source : Science daily

 

Vous souhaitez respirer de l’air moins pollué ? Arrêtez le déodorant !

homme-nature-bras-1140

Source : The New York Times

 

Selon Warren Buffett, le bitcoin est un poison

bitcoin-cash-big

Source : The Guardian

 

Problème de réseau : lever les bras sert-il à quelque chose ?

portable-reseau

Source : The Verge

 

Grâce à son bloqueur de pubs, Chrome (donc Google) est devenu le plus grand policier de la publicité

publicites-rues-1140

Source : The Washington Post

Par I. B

 

Télécoms : un gouffre énergétique

On ne s’en aperçoit pas, mais nos appareils du quotidien (téléphone, tablette, TV, caméra de vidéosurveillance…) sont des gloutons. Selon le rapport Clicking Clean publié en janvier 2017 par Greenpeace, le secteur informatique représente environ 7 % de la consommation mondiale d’électricité. Si Internet était un pays, il serait le 3e plus gros consommateur d’électricité au monde avec 1500 TWH par an, derrière la Chine et les États-Unis.

Pour Anders Andrae, cette situation ne devrait pas s’améliorer avec la multiplication d’appareils connectés. Selon ce chercheur suédois travaillant pour le fabricant chinois Huawei, et qui a participé à une étude récente sur cette problématique, les TIC pourraient utiliser 20 % de toute l’électricité et émettre jusqu’à 5,5 % des émissions mondiales de carbone d’ici 2025.

L’explosion du streaming vidéo

Pourquoi une telle augmentation ? La consommation d’électricité devrait tripler au cours des prochaines années à cause de la très forte croissance du trafic Internet mondial. Deux facteurs l’expliquent cette augmentation. Premièrement, un milliard de personnes supplémentaires se connectent en ligne dans les pays en développement.

Deuxièmement, le tsunami de données provoqué par l’Internet des objets (8,4 milliards d’appareils connectés en 2017, presque 21 milliards trois ans plus tard selon le cabinet Gartner), et le streaming vidéo (en 2015, il a capté 63 % du trafic web mondial) qui séduit de plus en plus d’internautes dans les pays développés.

Tous ces usages s’appuient sur des données stockées dans des datacenters. Un seul consomme autant d’électricité (la climatisation représentant 40 % de cette consommation) que 30 000 habitants européens. Or, ces énormes entrepôts pourraient avoir besoin de plus de 100 TWh d’électricité par an d’ici 2020, selon un rapport publié à Berkeley en 2016. C’est l’équivalent d’une dizaine de grandes centrales nucléaires.

Datacenters et énergies renouvelables

La situation ne sera peut-être pas aussi catastrophique. Google et Apple notamment multiplient les datacenters alimentés en énergies renouvelables ou localisés dans les pays nordiques, afin de profiter de l’air frais pour refroidir les ordinateurs et ainsi minimiser l’utilisation de la climatisation.

En juillet 2017, Google a ainsi décidé d’acquérir toute l’électricité produite dans la ferme solaire (équipée de 123.000 panneaux photovoltaïques) du spécialiste de l’énergie renouvelable Eneco pour alimenter son nouveau datacenter ouvert aux Pays-Bas. Le géant américain a aussi signé des contrats avec vingt parcs éoliens et solaires dans le monde, notamment en Suède et aux Pays-Bas. Résultat, en seulement 10 ans, il est parvenu à diminuer de 50 % les besoins en électricité de ses sites.

Apple mise aussi sur les énergies renouvelables. Chaque nouveau datacenter de l’entreprise est implanté dans une zone permettant de satisfaire une alimentation 100 % renouvelable en continu. Autre initiative intéressante : les rejets de chaleur de son datacenter danois sont directement injectés dans le réseau de chaleur local permettant de réduire la dépendance en énergies fossiles.

Mais nous devons être aussi un peu plus responsables. Plus de 150 millions d’emails sont envoyés chaque minute dans le monde, soit la production électrique de 18 centrales nucléaires pendant une heure. On peut réduire notre consommation en n’envoyant que des courriers vraiment nécessaires, en se désabonnant de newsletters inutiles ou en limitant le nombre de destinataires lors de l’envoi d’un email.

Par Philippe Richard

Batteries : des pistes pour une durée de vie plus longue

En décembre dernier, Apple a été pointé du doigt. Pour protéger la batterie et les composants des iPhone, la marque a décidé de ralentir les modèles équipés de batteries beaucoup trop utilisées. Cette affaire confirme que le lithium-ion reste toujours le point faible des appareils connectés.

Plusieurs chercheurs tentent de relever ce défi depuis quelques années. C’est le cas d’une équipe de l’Université de Warwick au Royaume-Uni. Fin janvier, elle a présenté son étude portant sur le potentiel des électrodes composites en graphène à faible teneur en silicium (FLG, acronyme anglais de « Silicon-Few Layer Graphene »).

Cette étude démontre que l’incorporation de graphène améliore de façon importante le nombre de cycles, la résistance des électrodes et les propriétés de diffusion. En un mot, le remplacement du graphite dans les anodes par du silicium et du graphène présente deux avantages détaillés dans cet article. Premièrement, une augmentation de la capacité énergétique. Deuxièmement, une amélioration de la durée de vie en atténuant « la fusion électrochimique du silicium ». Cette réaction est à l’origine du vieillissement des batteries.

250 km à bicyclette…

Cette université britannique n’est pas la seule à s’intéresser aux propriétés du graphène. Le SAIT (Samsung Advanced Institute of Research) a aussi breveté aux États-Unis ainsi qu’en Corée du Sud son procédé de batterie au graphène.

Début 2016, Graphenano, une entreprise spécialisée dans la production de graphène en Espagne, avait aussi annoncé que de telles batteries pouvant être intégrées aux voitures, motocyclettes et vélos électriques. Selon les Espagnols, leur batterie permettrait aux vélos de bénéficier d’une autonomie de 250 km, contre 65 km environ avec des batteries Li-ion traditionnelles. Fin 2017, l’entreprise a lancé sa première chaîne de production (sur 7000 m²) en Espagne.

Autre piste poursuivie par Tiamat : des batteries sodium-ion. Cette start-up amiénoise, issue du Réseau sur le stockage électrochimique de l’énergie (RS2E) porté par le CNRS, espère les commercialiser d’ici à 2020. Selon cette entreprise, des véhicules pourraient avoir une autonomie de 200 km et seraient rechargés en… quelques minutes.

Supercondensateur étirable

Quant aux chercheurs de Nanyang Technology University (NTU), ils misaient dès 2014 sur un gel constitué de nanotubes de dioxyde de titane. Il permettrait jusqu’à 10.000 recharges avant que la performance de la batterie diminue. Dans un article publié il y a quelques semaines dans la revue Advanced Materials, l’équipe a précisé qu’elle avait développé un supercondensateur personnalisable ou « modifiable ». Sa structure et sa forme peuvent être modifiées après sa fabrication, tout en conservant sa fonction de source d’énergie.

Précisons qu’un supercondensateur n’est pas une batterie. C’est une sorte de super condensateur capable de stocker une certaine quantité de charges électriques. Mais il en existe déjà dans des bus électriques, des tramways ou encore des bateaux électriques.

Selon le professeur Chen Xiaodong, qui dirige ces travaux, le nouveau supercondensateur, une fois monté dans une structure en nid d’abeilles, a la capacité de stocker une charge électrique quatre fois plus élevée que la plupart des supercondensateurs extensibles existants.

De plus, lorsqu’il est étiré à quatre fois sa longueur initiale, il conserve près de 98 % de la capacité initiale de stockage de l’énergie électrique, même après 10 000 cycles d’étirement et de dégagement. Autre intérêt : Le coût de production de 1 cm2 serait d’environ 0,10 dollar.

Par Philippe Richard

Aérospatial et agroalimentaire ont résisté au repli de l’industrie française

Entre 2006 et 2015, presque toutes les activités industrielles françaises ont enregistré une diminution de leur nombre d’établissements employeurs et une diminution des effectifs salariés. En dix ans, l’industrie manufacturière a ainsi perdu  27 300 établissements (– 18 %) et 530 000 salariés (– 16 %). Avec la crise de 2008-2009 qui a durement touché ce secteur déjà en repli, la tendance n’a fait que se poursuivre et dès 2009, l’industrie, qui était encore le premier employeur hors secteur agricole, s’est fait doubler par le commerce. En décembre 2015, elle restait tout de même le deuxième employeur avec 123 300 établissements et 2,7 millions de salariés.

Cette tendance à la baisse n’est pas nouvelle puisque l’emploi salarié dans l’industrie diminue depuis 1975 et sa part dans la valeur ajoutée de l’ensemble de l’économie à été divisée par deux entre 1970 et 2014.

Tous secteurs et toutes tailles

Cette étude révèle que la taille moyenne des établissements est resté stable autour de 22 salariés : « la baisse du nombre de salarié résulte alors quasi-exclusivement de celle du nombre d’établissements employeurs », explique ainsi les auteurs. On remarque ainsi que la forte diminution du nombre d’établissements et de salariés ont été enregistré dans toutes les classes de taille, même si elle est un peu plus importante pour les petits établissements. En ce qui concerne les différents secteurs, même si certains sont plus durement touchés que d’autres, le repli est général. Le secteur les plus atteint en terme de volume relatif et absolu est celui du textile, de l’habillement et du cuir qui perd un tiers de ses effectifs et de ses établissements en 10 ans. On retrouve ensuite le travail du bois, les industries papetières et l’imprimerie en recul de 25 %. Dans ces deux groupes de secteurs l’emploi est peu concentré (8 à 9 salariés sur 10 travaillent dans des établissements de moins de 250 salariés). Nombre d’activités liées à l’industrie automobile et aux transports connaissent aussi un repli vraiment notable : ainsi la fabrication de produits en caoutchouc tels que la fabrication et le rechapage de pneumatiques et la fabrication de produits en plastique tels que les pièces techniques perdent un cinquième de leurs établissements et un quart de leurs salariés. Parmi les autres secteurs très touchés on peut aussi citer la sidérurgie et la métallurgie ou encore la fabrication de meubles ou la réparation et l’installation de machines et équipements. Au niveau territorial, la perte d’emploi industriel touche l’ensemble de la France mais plus particulièrement la moitié nord. En volume, c’est le bassin parisien qui est le plus touché entre 2006 et 2015, perdant ainsi 3800 établissements et 54200 salariés. Rare sont les zones d’emplois où l’emploi progresse comme celle de Toulouse qui profite de l’essor de la construction aéronautique et spatiale.

Agroalimentaire et aérospatial en bonne santé

Ces deux secteurs ont bien résisté au repli industriel français. Ainsi, dans l’agroalimentaire, c’est la concentration qui prédomine : le nombre d’établissements diminue de 9 % (-4500) mais les effectifs seulement de 0,4 %. Ce secteur confirme sa position dominante dans l’industrie nationale regroupant à lui seul 35 % des établissements employeurs et 20 % des salariés à fin 2015. Au sein de ce secteur, on peut noter une différence de tendance très nette entre les produits à base de viandes qui reculent et les produits de boulangerie-pâtisserie dont les effectifs augmentent de 12 % en 10 ans. Un autre grand secteur sort du lot de la récession. Il s’agit de la construction aéronautique et spatiale dont les effectifs salariés enregistrent une hausse de 24 % et qui s’étoffe d’une quarantaine d’établissements supplémentaires. Ce secteur est caractérisé par une forte concentration, puisque 75 % des salariés le sont dans des établissements de plus de 1000 salariés.

Référence : Insee Première – n°1689 – Février 2018 

Par Sophie Hoguin

La RSE des grands groupes vue par les Français

« Notre enquête révèle que les Français, dans leur ensemble, attendent aujourd’hui des grands groupes qu’ils adoptent des pratiques sociales et environnementales responsables, estime Thierry Denjean, président du cabinet de conseil et d’audit Denjean & Associés. Les grandes entreprises qui ne tiendraient pas compte de cette attente risquent de connaître de graves difficultés, aussi bien pour développer leur chiffre d’affaires que pour recruter de nouveaux talents ! ». En effet, 97 % des Français sont désormais prêts à boycotter des entreprises ayant des pratiques sociales ou environnementales destructrices.

Ce sont les enseignements d’un sondage commandé par Denjean & Associés et réalisé par l’institut GoudLink. Concrètement, 88 % des Français ont une meilleure opinion d’une entreprise qui met en oeuvre une bonne politique de RSE. Pour rester dans le coeur des Français ou améliorer son image, une entreprise se doit de déployer une telle politique, sous peine de voir son image se ternir.

De bonnes pratiques environnementales et sociales

Les Français ont bien conscience des impacts que les entreprises peuvent avoir sur l’environnement et les hommes. Selon eux, le critère le plus important à suivre est l’impact qu’une entreprise peut avoir sur la santé d’un groupe humain. Les craintes concernent également le fait qu’elle puisse nuire à certaines espèces animales, participer au réchauffement climatique et contribuer à la destruction d’espèces animales.

Les pratiques sociales sont également passées au crible. Une entreprise qui délocalise son activité et son siège social hors de France affaiblit son image. Même constat pour celle qui dépose un bilan ou déploie des licenciements économiques sans contrepartie supérieure au minimum légal. Les pratiques les plus courantes comme le fait d’employer des stagiaires très peu payés à la place de collaborateurs en CDI, de mettre la pression sur les salariés ou de les mettre en danger sont également dans le collimateur des Français. En haut du podium, le travail des enfants par l’intermédiaire des sous-traitants étrangers est toujours aussi mal vu. Face à ces comportements, 90 à 98 % des Français se disent choqués ou révoltés.

La RSE, c’est aussi la transparence de la gouvernance

En France, on aime la transparence et le respect des règles. Les dirigeants qui blanchissent de l’argent, font de l’évasion fiscale ou ont recours à la corruption ou aux fausses factures pour développer le chiffre d’affaires de l’entreprise reçoivent les foudres de nos compatriotes. Même constat pour ceux qui emploient des personnes non déclarées. Cette fois, entre 89 et 96 % des Français se déclarent choqués ou révoltés. La spéculation sur les marchés financiers semble toutefois être plus acceptée, puisque seulement 67 % d’entre eux se disent révoltés ou choqués par cette pratique.

À l’inverse, il est possible de conquérir le coeur de nos concitoyens en pratiquant le mécénat d’entreprise. 65 % à 93 % des Français affirment être « contents » ou « enthousiastes » face à cette pratique. Ils plébiscitent particulièrement les projets ou associations dans les domaines de la santé, de l’éducation et de l’aide sociale.

Des engagements récompensés

Toute les actions qui peuvent être soutenues en faveur de la préservation de l’environnement recueillent l’adhésion de plus de 90 % des Français. En tête, celles qui préservent la santé humaine et améliorent le bien-être animal. Une entreprise qui utilise des technologies plus propres, fabrique des produits ou services plus « verts » et met en place des outils pour mesurer son impact environnemental sera assurée de recueillir l’approbation des Français.

De la même façon, les bonnes pratiques de ressources humaines sont récompensées. Une rémunération confortable, un environnement de travail agréable et le fait de favoriser l’emploi local se révèlent être les critères les plus importants. Suivent la mise en place d’une politique d’emploi de personnes en situation de handicap, l’égalité homme-femme et la formation continue.

Pour se forger une opinion d’une grande entreprise, les Français se fient avant tout à l’avis formulé par ses employés, puis les journaux et la télévision. En revanche, le sondage montre qu’ils ne sont pas crédules. Les autres sources, notamment le site Internet de l’entreprise, les discussions sur les réseaux sociaux, les propos des dirigeants ou les publicités jouissent d’une crédibilité médiocre à faible.

Par Matthieu Combe, journaliste scientifique

Des puces neuronales pour booster les machines

On ne cesse de parler d’Intelligence artificielle et en particulier d’une de ses déclinaisons : le Machine learning. Cette branche de l’IA sert à développer des processus d’apprentissage permettant à une machine de proposer des conclusions et des interprétations que nous devrons (jusqu’à quand ?) valider.

Si l’on croit tous les fondeurs (Intel, AMD…) mais aussi les ténors des nouvelles technologies, différents appareils grand public pourraient bénéficier de ces capacités d’auto apprentissage grâce à de nouvelles architectures.

Fin septembre dernier, Huawei a présenté le premier processeur mobile intégrant une Neural Processing Unit (NPU). Fabriquée par TSMC et gravée en 10 nm, cette puce (baptisée Kirin 970) d’un centimètre carré regroupe 5,5 milliards de transistors.

Ce n’est pas la première fois que ce type d’architecture est dévoilé. En 2013, le fondeur américain Qualcomm avait présenté son Zeuroth, une puce inspirée, par analogie, des cerveaux humains. Aussi intéressante soit-elle, cette puce n’est jamais sortie de son laboratoire.

1  million de neurones humains

Aujourd’hui, les innovations technologiques pourraient-elles favoriser la commercialisation de processeur de réseau neuronal ? En tous les cas, les géants de l’informatique s’y mettent et veulent nous convaincre : Intel, AMD, nVidia et bien sûr IBM. C’est en 2004 que ce géant a commencé à travailler sur le développement de puces neuronales. Cinq ans plus tard, il mettait au point un modèle informatique ayant la taille du cerveau d’un chat. En 2011, sa puce prototype contenant 256 neurones numériques.

Aujourd’hui, son processeur 4096 core TrueNorth imite un million de neurones humains et 256 millions de synapses. Il est capable de classer des données images à une vitesse de 1 200 à 2 600 images par seconde en ne consommant que 25 à 275 milliwatts. Le processeur sait identifier et reconnaître des éléments dans des images générées par 50 à 100 caméras à 24 images par seconde.

De telles capacités pourraient être exploitées dans les voitures autonomes. Une NPU leur permettrait de contrôler leur trajectoire, de reconnaître les signaux routiers, voire d’anticiper un danger.

Autre application grand public, les fameux smartphones. Le fabricant chinois Huawei n’est pas le seul à communiquer sur ce type d’architecture. Apple a aussi embarqué une puce neuronale dans son iPhone X, baptisée « A11 bionic neural engine ». Dotée de 2 cœurs, elle est capable de réaliser 600 milliards d’opérations par seconde, selon les chiffres donnés par Apple. C’est elle qui est mise en œuvre par la reconnaissance familiale FaceID ou encore par les Animoji.

Quels pourraient être les autres usages de ce type de puce dans les téléphones ? Ces processeurs pourraient par exemple faciliter le montage vidéo. Imaginez que vous filmez le match de football de votre fils. À la fin de la rencontre, vous pourriez demander à votre smartphone, par commande vocale, de créer un résumé vidéo avec uniquement les actions de votre fils. De quoi constater ses progrès ou ses faiblesses !

Des associations « d’idées »

Une puce NPU serait aussi très utile aux touristes qui se rendent dans un pays dont ils ne connaissent pas bien la langue. Microsoft travaille en effet avec Huawei (dont au passage, le FBI, la NSA et la CIA recommandent de ne plus utiliser ses téléphones…) pour améliorer les capacités offline de son application Translator. Préinstallée sur les Huawei Mate 10, elle permet de bénéficier de traductions de qualité et plus rapides, même lorsque l’appareil n’est pas connecté à un réseau.

À terme, IBM est encore plus ambitieux. Il espère développer un ordinateur aussi intelligent que l’homme et doté de capacités décisionnelles comparables. D’après ses tests de performance, sa puce TrueNorth est plus rapide et plus économe en énergie que les processeurs et cartes graphiques actuels. Elle serait capable d’apprendre des notions complexes et de prendre des décisions en faisant des associations « d’idées » et du calcul de probabilités, un peu comme le ferait le cerveau humain.

Mais pour l’instant, son processeur reste confidentiel. Seul le laboratoire de recherche atomique américain Lawrence Livermore dispose de cette puce afin d’aider les chercheurs à analyser les résultats de leurs simulations.

Philippe Richard

Les recrutements de cadres au plus haut niveau en 2018

« La confiance des entreprises est solide et l’ensemble des secteurs et des fonctions profiteraient de ce marché très bien orienté. Au total, le nombre d’embauches devrait se situer entre 248 000 et 271 000. La progression par rapport à 2017 pourrait aller jusqu’à +13 %, selon les 11 000 entreprises1 que nous avons interrogées » affirme  Jean-Marie Marx, directeur général de l’Apec.

« Certes, des aléas subsistent notamment sur l’environnement international » explique-t-il, « mais tout nous incite à tabler sur une croissance pérenne, ce qui permettrait aux recruteurs d’effectuer plus de 276 000 embauches de cadres à l’horizon 2020, selon le modèle économétrique élaboré par l’Apec. »

« Un point de vigilance cependant, souligne-t-il, les entreprises rencontrent des difficultés de recrutements sur certaines fonctions. Ces tensions sont à mettre en lien avec l’accélération de la transformation numérique, la transition énergétique, et les évolutions des organisations et de leur mode de management qui nécessitent des compétences nouvelles. Se former, et anticiper ces changements s’imposent comme de nouveaux enjeux, non seulement pour les cadres et les jeunes diplômés, mais aussi pour les entreprises. »

L’analyse par secteur révèle sans surprise que les Services pourraient totaliser jusqu’à 196 600 embauches de cadres sur l’ensemble de l’année. Dans le même temps, le Commerce, la Construction et l’Industrie devraient être boostés par la bonne santé économique et accroître sensiblement leurs recrutements de cadres. Respectivement jusqu’à +9 % et +12 %.

Par ailleurs, la majeure partie des recrutements continuent de se concentrer sur les Activités Informatiques et télécommunication, l’Ingénierie-R&D, et les Activités juridiques et comptables, conseils et gestion des entreprises. Par ailleurs, les fonctions Informatique, Etudes recherche & développement et Commercial représenteraient un peu moins de 60 % des embauches.

Ce sont toujours les cadres ayant 1 à 10 ans d’expérience qui seraient les plus recherchés par les recruteurs. Les débutants ayant moins d’un an d’expérience, quant à eux, commenceraient à profiter d’un marché de l’emploi cadre dynamique.

Enfin, la quasi-totalité des régions ont le vent en poupe. L’Île-de-France s’imposerait toujours comme la 1ère région avec un recrutement sur deux de cadres. Suivent Auvergne-Rhône-Alpes, Occitanie, Hauts de France, Provence-Alpes-Côte d’Azur-Corse et Nouvelle Aquitaine.

Marché de l’emploi cadre en 2018 : 248 000 à 271 000 embauches

Capture d’écran 2018-02-15 à 15.29.37

À partir des réponses de 11 000 entreprises interrogées entre les mois d’octobre et décembre 2017, l’Apec estime que les recrutements de cadres pourraient être compris entre 248 000 à 271 000 en 2018. Cette évolution correspondrait à une augmentation de 3 % à 13 % par rapport à 2017. La médiane des recrutements se situerait à 259 500. Dans un contexte où les indicateurs économiques sont au vert, ces résultats reflètent une confiance solide de la part des recruteurs en la pérennité de la croissance. Au moment de l’enquête, trois fois plus d’entreprises ont déclaré avoir l’intention d’accroître leur effectif cadre que de le réduire, respectivement 12 % contre 4 %. Une configuration inédite depuis 2007.

Capture d’écran 2018-02-15 à 15.30.50

Tous les secteurs profiteraient de la dynamique à l’œuvre. L’Industrie maintiendrait son rythme de croisière atteint l’an dernier (jusqu’à +12% de recrutements). Tandis que les Services qui représentent plus de 7 recrutements sur 10, atteindraient des niveaux inégalés avoisinant les 197 000 embauches de cadres. Enfin, la Construction, dont la reprise a déjà été très sensible l’an dernier, maintiendrait son cap, avec 12 400 à 13 200 recrutements. Quant au Commerce, qui a connu une baisse de 2 % l’an dernier, ce sont entre 19 800 à 21 500 cadres qui pourraient être recrutés.

Capture d’écran 2018-02-15 à 15.31.28

En termes de fonctions, le trio de tête demeurerait l’Informatique, Etudes-R&D et le Commercial. Celui-ci concentrerait 57 % de l’ensemble des recrutements. La hausse la plus marquée devrait être celle de l’Informatique qui atteindrait 20% de croissance.

Capture d’écran 2018-02-15 à 15.32.00

En 2018, les cadres les plus courtisés devraient être ceux dont l’expérience se situe entre 1 et 10 ans. Pour les cadres seniors de plus 20 ans d’expérience, les prévisions sont plus mitigées entre + 7 % et – 6%, Les débutants quant à eux, commenceraient à profiter de la bonne santé du marché de l’emploi cadre, avec 47 500 à 53 000 embauches.

Capture d’écran 2018-02-15 à 15.32.31

Sur le plan géographique, la quasi-totalité des régions devraient avoir le vent en poupe. L’Île-de-France s’imposerait toujours comme la 1ère région avec près d’un recrutement sur deux de cadres. Suivent Auvergne-Rhône-Alpes et Occitanie. Provence-Alpes-Côte d’Azur-Corse enregistrerait la plus forte progression.

Capture d’écran 2018-02-15 à 15.33.01

Enfin, en 2017 la France a enregistré une hausse de ses recrutements de cadres de 10 %, soit un volume total de 240 100. Les créations2 de postes, qui reflètent cette bonne santé du marché se sont établies à 53 800.

Prévisions 2018-2020 issues du modèle économétrique de l’Apec : le scénario de croissance « pérenne »

Le modèle construit en 2009 par l’Apec est le fruit des travaux de sa direction données, études et analyses. Il a permis de montrer que l’investissement, mesuré par la formation brute de capital fixe (FBCF), est au cœur de la dynamique de l’emploi en général et de l’emploi cadre en particulier. Le modèle intègre également le niveau du PIB ainsi qu’une dimension démographique en tenant compte des départs à la retraite de cadres en emploi. Afin d’élaborer le plus précisément possible des scénarios, l’Apec s’est intéressée aux prévisions établies par différents instituts de conjoncture nationaux ou internationaux (Insee, OCDE, OFCE, FMI, Banque de France, Eurostat). Ces prévisions concernent le PIB et ses principales composantes (FBCF, dépenses de consommation, variations des stocks, exportations et importations).

Après plusieurs années de croissance étale (2012 à 2014) et de rendez-vous manqués (2015 et 2016), l’économie française semble avoir enfin renoué avec une croissance robuste qui s’est traduite par une hausse du PIB de +1,9 % en 2017. Ce solide rebond est lié à la conjonction de différents facteurs.

Capture d’écran 2018-02-15 à 15.34.52

L’environnement international s’est avéré particulièrement porteur, tant pour les économies émergentes que pour celles avancées (États-Unis, zone euro). L’accélération de l’activité a également bénéficié de la stabilité du prix du pétrole et de la politique accommodante en matière de crédit de la Banque centrale européenne.

Sur le plan intérieur, le secteur de la Construction a retrouvé des couleurs, porté par le fort investissement des ménages en biens immobiliers (+5,2 % en 2017). La production agricole s’est redressée, en lien avec des conditions météorologiques favorables, et l’Industrie a tiré profit de la tonicité de la demande intérieure. Enfin, les Services ont renoué avec le dynamisme qui les caractérisait avant la vague d’attentats qui a touché l’Hexagone en 2016, en particulier dans l’hôtellerie-restauration.

Dans les entreprises, l’investissement productif a poursuivi son redressement (+4,4 % en 2017). Le rétablissement de la situation financière des entreprises, associé à des conditions de financement favorables, à des carnets de commandes regarnis et aux tensions sur l’appareil productif, devraient renforcer ce mouvement.

Seul l’investissement public est en retrait.

Au final, la Formation Brute de Capital Fixe devrait progresser de +3,7 % en 2017. Dans ce scénario, cet enchaînement vertueux se poursuivrait en dépit de la fin de la mesure de suramortissement. Les conditions de reprise tant externes qu’internes seraient durables, avec une croissance de la FBCF systématiquement au-dessus des + 3 % entre 2018 et 2020.

Portée par l’investissement mais également par la consommation des ménages, la croissance hexagonale perdurerait aux alentours de +1,9 % à l’horizon 2020. Cette croissance soutenue s’accompagnerait d’un recul du chômage (9,5 % à fin 2017). À court terme, la baisse des emplois aidés et la fin de la prime à l’embauche dans les PME freineraient la progression de l’emploi, mais la dynamique engagée sur le marché du travail ne serait pas remise en cause (242 000 emplois salariés marchands générés en 2017 et 100 000 attendus au cours du 1er semestre 2018).

Des aléas entourent toutefois cette prévision. Les exportations françaises peinent à constituer un moteur de croissance pérenne. Elles ont, jusqu’à présent, pesé sur l’évolution du PIB, et les mesures censées soutenir la productivité des entreprises exportatrices n’ont pas encore produit pleinement leurs effets. Enfin, la reprise des pays émergents n’offre pas toutes les garanties et leur fragilité pourrait obérer la dynamique du commerce mondial.

En 2018, le nombre de recrutements de cadres augmenterait de plus de 6 % et se situerait au-dessus du seuil des 250 000. Cette prévision se situe légèrement en deçà de la médiane des prévisions des entreprises à fin 2017 (259 500). Si le maintien de ce niveau de croissance se confirmait, le volume de recrutements de cadres atteindrait en 2019 et 2020 des niveaux inégalés.

Capture d’écran 2018-02-15 à 15.36.26

Capture d’écran 2018-02-15 à 15.36.46

Capture d’écran 2018-02-15 à 15.37.03

Source : Apec

Trophées « Chimie Responsable » 2018

Les Trophées « Chimie Responsable » constituent ainsi une opportunité exceptionnelle pour promouvoir les démarches, actions ou réalisations mises en œuvre par vos entreprises et ses collaborateurs, ainsi que par vos sous-traitants. Ils récompensent les initiatives innovantes et exemplaires à travers six catégories :

  • TROPHÉE SANTÉ :

démarches visant à améliorer la santé des salariés, la qualité de vie au travail, les impacts sur la santé liés aux produits…

  • TROPHÉE SÉCURITÉ :

démarches visant à améliorer la sécurité des salariés, celle des installations, des riverains, des produits,…

  • TROPHÉE ENVIRONNEMENT :

démarches visant à réduire l’impact environnemental des installations, de l’activité, des produits, des procédés,….

  • TROPHÉE RESPONSABILITÉ SOCIÉTALE DES ENTREPRISES (RSE) :

démarches globales ou transverses visant à développer la RSE et/ou à ancrer localement son établissement.

  • TROPHÉE ÉNERGIE :

démarches visant à réduire les consommations d’énergie, à améliorer l’efficacité énergétique, …

  • TROPHÉE COUP DE CŒUR 

 

La cérémonie de remise des Trophées « Chimie Responsable » aura lieu le mardi 13 novembre 2018 après-midi, à la Préfecture des Hauts-de-Seine sous la présidence du Préfet Pierre SOUBELET.

Nous espérons vous retrouver nombreux pour cette nouvelle édition qui nous donnera une nouvelle et belle opportunité de valoriser le « vrai visage » de la Chimie !

 

Information pratique :

  • Clôture des dépôts de dossier le 16 avril 2018
  • Dossier de candidature et Règlement 2018 des trophées « Chimie Responsable»  à télécharger ici
  • Contact : Mathilde TIMSIT – [email protected] – 01.46.53.11.88

PETRUS : une nouvelle technique hybride d’imagerie médicale non invasive ultra performante

Des équipes de l’Institut Langevin (ESPCI Paris – Université PSL / CNRS), de l’Accélérateur de Recherche Technologique (A.R.T. Inserm) en Ultrasons biomédicaux et du centre de recherche cardiovasculaire de Paris (Inserm / Université Paris Descartes) ont mis au point un nouvel instrument d’imagerie médicale associant la tomographie par émission de positons – « Pet-scan* » – avec l’imagerie ultrasonore ultrarapide, baptisé PETRUS pour Positron Emission Tomography Registered Ultrafast Sonography. Elles ont obtenu des images en trois dimensions où l’anatomie, le métabolisme, la fonctionnalité et même l’élasticité des organes sont parfaitement superposés.

Les chercheurs ont pu tester leur méthode à partir d’instruments commercialisés et assemblés sans modification majeure. Ils ont notamment imagé des tumeurs cancéreuses chez la souris, ou encore l’activité cardiaque chez le rat afin de tester la synchronisation des deux méthodes et la complémentarité des paramètres observés. Parce qu’elle permet de visualiser simultanément plusieurs paramètres biologiques fondamentaux sous forme de cartes paramétriques quantitatives, cette nouvelle imagerie reflète encore plus finement la complexité de la topologie du vivant.

Cette technique totalement a-traumatique d’observation du vivant en temps réel offre de nombreuses perspectives : explorer le lien entre le métabolisme et la vascularisation d’organes comme le cœur, le rein ou encore le foie, suivre de manière plus précise l’effet des nouveaux traitements sur le cancer, caractériser les suites d’un infarctus, etc. Développée dans un contexte préclinique, PETRUS est une technologie performante aisément traduisible cliniquement pour la recherche biomédicale.

Source : cnrs

Les biotechnologies françaises ont dynamisé le marché au premier semestre 2017

De bons résultats en bourse

Au total, 3 sociétés biotechnologiques ont fait leur introduction en bourse (IPO) au premier semestre 2017 :

  • Inventiva, spécialisée dans les traitements contre la fibrose ;
  • Lysogene, société de développement de thérapies géniques contre les maladies neurodégénératives ;
  • Valbiotis, spécialisée dans l’élaboration de solutions nutritionnelles dédiées à la prévention des maladies cardio-métaboliques.

Ces 3 sociétés ont permis de lever au total 82 millions d’euros avec en tête la société Inventiva qui a réalisé l’IPO la plus importante pour un montant de 48 millions euros selon France Biotech.

Pour le premier semestre 2017, le secteur des biotechnologies représente 55,47% des financements post-IPO ; les biotechs/medtechs françaises ayant levé 273 millions d’euros grâce à ces opérations. Au total, 23 sociétés ont été financées avec en moyenne 11, 8 millions d’euros de financement. Le plus grand cycle de financement s’élève à un montant de 70,5 millions d’euros et est réalisé par Erytech Pharma, une société biopharmaceutique qui développe des thérapies innovantes en encapsulant des médicaments dans les globules rouges.

En outre, cinq biotechnologies françaises arrivent en tête du classement des biotechs/medtechs françaises aux capitalisations boursières les plus importantes :

  • DBV Technologies (1833 million d’euros) ;
  • Genfit (820 million d’euros) ;
  • Cellectis (802 million d’euros) ;
  • Innate Pharma (623 million d’euros) ;
  • AB Science (406 million d’euros).

Les biotechnologies profitent de plus de 80% des financements

Pour le premier semestre 2017, les biotechs/medtechs françaises ont levé 137 millions d’euros grâce à des investissements réalisés par des fonds de « private equity ». Au total, 19 sociétés ont été financées avec en moyenne 7,2 millions d’euros de financement selon France Biotech. Le segment le plus important est, ici aussi, représenté par les biotechnologies avec 81,88% des financements. Vivet Therapeutics, société biotechnologique, arrive à la première place avec un financement de 37,5 millions d’euros conclu pour développer son programme de thérapies géniques pour les maladies métaboliques rares et héréditaires.

En cette fin d’année, plusieurs sociétés biotechnologiques françaises ont dévoilé leurs résultats cliniques pour des traitements phares dans une optique de commercialisation de leur premier produit l’année prochaine. Parmi elles, Cellectis, dont le candidat-médicament UCART19, un anticancéreux fonctionnant avec des lymphocytes T ingénierés, a obtenu des résultats encourageants suite aux essais cliniques de phase 1. C’est aussi le cas d’AB Science qui a récemment publié les résultats des études précliniques sur sa molécule phare, le masitinib.

Ceux-ci mettent en évidence une propriété de résistance de cette molécule à certains types de traitements en cancérologie, dont la gemcitabine.

Ces premières indications devraient relancer les espoirs des investisseurs et permettre de collecter des fonds afin de faire progresser les cibles de développement scientifique dans des domaines thérapeutiques stratégiques.

Par Aliye Karasu

Mobike, service de vélo partagé vraiment durable, déferle à Paris

Créé en avril 2016 Mobike dispose aujourd’hui d’une flotte de plus de 10 millions de vélos et est déjà présente dans 200 villes réparties dans 12 pays du monde entier. Parmi les dernières conquêtes : Manchester le 29 juin (100ème ville), Florence le 21 juillet, Londres le 31 juillet, Sapporo (Japon) le 22 août, Bangkok le 30 août, Washington le 20 septembre, NewCasttle le 25 septembre, Cyberjaya (seconde ville de Malaisie) le 6 octobre, Rotterdam le 9 novembre, Sydney le 14 décembre, Berlin le 22 décembre 2017 et enfin Paris le 24 janvier 2018. Mexico est au programme pour février, tout comme New Delhi, Chennai, Bangalore, Ahmedabad et Indore en Inde.

Les déplacements en vélo constituent une alternative aux transports polluants et permettent d’économiser l’espace urbain. Avant l’avènement du vélo en free-floating dans les villes chinoises, le vélo représentait 5,5% du kilométrage de l’ensemble des modes de transport. Il a maintenant plus que doublé à 11,6%. C’est ce que l’on peut lire dans un rapport récent du Beijing Tsinghua Tongheng Innovation Institute.

Un demi-milliard d’utilisateurs

Mobike (https://mobike.com/global/) offre à présent son service à 200 millions d’usagers dans le monde et souhaite atteindre le cap du demi-milliard pour l’été 2018, selon Davis Wang, son PDG, ex-Directeur d’Uber China. « C’est extraordinaire ! » c’est exclamé le journaliste du magazine Fortune qui l’a interviewé en décembre 2017 (Vidéo).

A Pékin (ville de 20 millions d’habitants), berceau de Mobike, 4 millions de personnes font appel quotidiennement au service proposé. Soit 20% de la population de cette énorme ville, et le double du service assuré par les flottes de taxis.

Mobike a collecté 600 millions de dollars en 2017 (puis un milliard de dollars en janvier 2018) pour financer son développement international exponentiel. Notamment auprès du géant de l’Internet chinois Tencent, de Foxconn, le fabricant taïwanais de l’iPhone, et enfin de Sequoia Capital basé dans la Silicon Valley.

Champion of the Earth

Cette start-up basée à Shangaï a déposé 200 brevets pour développer un vélo particulièrement solide, et donc durable : sans chaîne, sans chambre à air et sans rayons. Une petite révolution technologique. Les vélos Mobike, équipés de systèmes GPS et GSM sont par ailleurs élégants. Un vélo Mobike coûte environ 3 000 yuans (385 euros) à produire. Mobike a établi un partenariat avec  Dow Chemical dans le but de développer des vélos encore plus solides tout en restant légers. « Notre dernière conception de Mobike en Chine utilise les matériaux innovants à base de polyuréthane mis au point par Dow Chemical pour ses pneus d’insertion, réduisant le poids des pneus de 20%, ce qui est impressionnant. »

L’ONU a décerné à Mobike le prix de « Champion of the Earth » à Nairobi le 5 décembre 2017. Le WWF lui a aussi remis un prix. Mobike estime que la durée de ses vélos sera de 4 ans. Mais la start-up n’a tout juste que 2 ans. Les 2 années qui viennent confirmeront, ou pas, cette estimation.

Mobike a publié son second WhitePaper (richement illustré) le 12 janvier 2018. La Licorne chinoise a collecté 30 TeraBytes de données quotidiennes sur une flotte de 8 millions de vélos équipés de GPS et d’appareils connectés IoT. L’analyse porte sur 13 grandes villes: Pékin, Shanghaï, Guangzhou, Shenzhen, Chengdu, Londres, Singapour, Milan, Washington D.C., Sapporo, Berlin et Sydney. » Dans un article publié sur son blog officiel Mobike explique avoir changé les villes grâce au Big Data et à l’Intelligence artificielle.

Les vélos partagés solutionnent la problématique dite « du dernier kilomètre » et renforcent ainsi l’intérêt des transports en commun (métro, RER, train et bus), en permettant une excellente synergie intermodale. Mobike a mis en place à Pékin des « Smart Parkings ».

Des architectes ont également proposé des concepts de parkings innovant pour les secteurs encombrés de vélos :

Le business-model de Mobike fonctionne sans subventions

Les premiers systèmes de vélos partagés avaient recours à des stations dédiées (et particulièrement coûteuses) pour garer les vélos. C’est le cas de Vélib, qui a coûté 16 millions d’euros à la Mairie de Paris durant la seule année 2013. Dans les villes non plates (ce qui est souvent le cas), les vélos sont utilisés pour descendre les rues, et bien plus rarement pour les remonter. Il faut alors déployer des unités logistiques pour rééquilibrer les stations, ce qui est onéreux.

Vélib permet d’offrir une image « green » aux politiques qui permettent son financement, car les vélos sont bien visibles par tous à Paris. Il s’agit clairement d’affichage. « Delanoë lui a largement dû sa réélection en 2008 » estime Serge Federbush dans un article publié dans Atlantico.fr. « Le fait que ce joujou extrêmement dispendieux coûtait près de 3000 euros par an et par vélo aux contribuables parisiens était soigneusement passé sous silence. De même que les scandaleux avenants dont Decaux a bénéficié pendant des années, tondant la laine sur le dos de la mairie. Mais Hidalgo, là comme ailleurs, a voulu faire plus que Delanoë. Elle a donc fait pire. »

Par opposition au système Vélib les vélos en free-floating ne sont, par définition, pas contraints d’être stationnés au niveau de stations dédiées. Une fois une appli téléchargée sur son smartphone, on peut détecter les vélos dans le voisinage grâce à la géolocalisation. Un clic sur son smartphone suffit à déverrouiller le cadenas.

Mais recourir à des vélos classiques pour faire du free-floating n’était manifestement pas une bonne idée : trop fragiles, les vélos Gobee ont été largement vandalisés. « Avec ses vélos sans borne, Gobee veut ringardiser Vélib » titrait Capital.fr le 26 décembre 2017.  Mais la start-up originaire de HongKong a dû se retirer de Lille et Reims et de Bruxelles le 9 janvier 2018 trois mois après son déploiement en France en octobre 2017. A Reims sur 400 vélos Mobike il n’en restait plus que 20 en état de marche. Elle est toujours présente à Paris et à Lyon, mais son business-model manque de robustesse, plombé par la fragilité des vélos mis à disposition.

« Nous avons dû affronter la triste réalité que notre vision de la mobilité n’était pas partagée par une minorité déterminée à nuire, et nous ne pouvons plus supporter ni le coût financier ni le coût moral des réparations » a déclaré Gobee dans un communiqué du 9 janvier 2018.

En Chine les vélos dégradés s’entassent dans les rues. D’impressionnantes photos de vélos empilés ont diffusé dans les médias et sur les réseaux sociaux, ce qui a nuit à l’image du free-floating et du bike-sharing dans son ensemble.  Dans un article particulièrement fouillé la journaliste Céline Deluzarche dresse un panorama assez apocalyptique du vélo partagé en free-floating dans le monde, et pose la question : « Vélo libre service : la bulle est-elle en train d’éclater ? »

Selon Emmanuel Nedelec, chez Ubeequo, un spécialiste de l’autopartage en entreprise « Le système de free-floating coûte plus cher à opérer qu’une service à station ». C’est probablement valable pour les systèmes de free-floating à base de vélos standards. Mais peut-être pas pour les flottes de vélo adaptées à la violence de l’environnement urbain. Les innovations apportées par Mobike, fruit du retour d’expérience chinois, pourraient constituer la clé du succès. Le PDG de Mobike affirme qu’il s’agit d’un business très rentable.

Le 24 janvier 2018 Mobike a délivré 1000 vélos à Paris. 3000 le seront à partir de la semaine du 29 janvier. Dans quelques mois l’objectif est d’offrir « plusieurs dizaines de milliers de vélos »  selon Mobike. Les 25.000 emplacements des parcs à vélo de la ville de Paris sont potentiellement utilisables, mais Mobike demande à la Ville de Paris d’en installer bien davantage.

Concernant les vélos mal garés ou dégradés et abandonnés sur la voie publique, ce ne sont pas les start-ups qui sont responsables, mais les usagers.

Des bâtons dans les roues de la part de la Ville de Paris ?

Ce développement massif et ultra-rapide de Mobike pourrait porter un coup fatal à Vélib 2 (Smovengo) dont le tiers de la flotte est électrifié, ce qui implique au niveau des stations de recharge des raccordements électriques aux délais parfois rallongés. Sauf si la Mairie met en place une règlementation favorisant son bébé gavé d’argent public. Les pouvoirs publics n’ont pas vraiment intérêt à le voir concurrencé. La collectivité voudrait imposer aux opérateurs de vélos sans borne d’acquitter une redevance pour occupation de l’espace public.

Si les 3 opérateurs (Gobee, Ofo et Obike) de free-floating qui existent à Paris pourraient souffrir d’une telle mesure, elle ne semble pas effrayer Mobike : « Payer une redevance, pourquoi pas si avec cet argent la mairie transforme 5000 places de parking pour voitures en parking à vélos », estime Étienne Hermite, directeur de Mobike France. De quoi garer plus de 50.000 vélos.

N’est-il pas aberrant de vouloir faire payer une redevance à ces sociétés qui ne demandent pas un seul centime à la collectivité et qui lui rendent service en réduisant le nombre de voitures et donc la pollution de l’air et l’encombrement urbain ? Et si les 16 millions annuels que coûte Vélib étaient utilisés pour installer des aires de parking pour vélos ? Les entreprises qui louent des voitures ne payent pas de redevance pour les places de parking publiques occupées par les loueurs. Et il n’y a pas des places de parking spécifiques pour ce type de voitures.

Selon Xue Ding, confondateur d’Ofo, « si vous ne pouvez vous stationner que dans des endroits spécifiques, c’est revenir à l’ancienne ère du vélo-partage. Le Japon va peut-être commencer par cet extrême, tout comme la Chine a commencé avec l’autre extrême avec aucune restriction de stationnement. En fait l’équilibre est quelque part entre les deux. »

Leçon chinoise

Il n’est pas impossible que l’entreprise montpelliéraine qui galère actuellement à mettre en place Velib 2 à Paris fasse faillite. « Non seulement plus de 90 % des stations sont inutilisables, mais l’informatique ne fonctionne pas et le service aux abonnés découragerait les plus acharnés » s’indigne la journaliste Sophie Coignard dans un article intitulé « Kafka à bicyclette ». La Mairie de Paris a annoncé le remboursement intégral de l’abonnement du mois de janvier aux usagers (et les mois de février et mars pourraient être également concernés). L’élue a aussi agité la menace de lourdes pénalités, de l’ordre du million d’euros.

Mobike (qui a proposé une fusion avec Ofo) pourrait alors devenir alors le roi du vélo partagé à Paris. Et dans le reste du monde. Même s’il ne faut pas vendre la peau de l’ours, Velib 2 serait alors un « accident industriel », un « cauchemar », selon les maux de Charles Manguin, président de l’association cycliste « Paris en Selle».

Jean-Gabriel Marie

Logiciels et applications mobiles : le casse-tête de la conformité avec le RGPD

Même s’il existe déjà tout un arsenal juridique protégeant les données personnelles des consommateurs et des internautes, le RGPD devient un peu plus contraignant. Tout repose sur la définition d’une donnée à caractère personnel. Il s’agit de toute information permettant d’identifier une personne : nom, prénom, date de naissance, numéro de téléphone privé, mais aussi adresse IP, biométrie…

Une acception suffisamment large pour apparaître comme un casse-tête pour les éditeurs de logiciels et d’applications pour smartphone. Le texte européen prévoit notamment que toute personne peut récupérer l’ensemble de ses données personnelles auprès de n’importe quelle entreprise qui en possède.

L’ensemble de ces données doit impérativement être dans un format standard pour respecter l’interopérabilité.

Or, tout le monde n’est pas prêt à être en conformité avec le RGPD validé en 2016 ! Selon une étude de SafeDK, plus de la moitié des applications sur Play Store ne seraient pas conformes au RGPD.  Ce cabinet, spécialisé dans l’utilisation des kits de développement logiciel (SDK) dans les applications mobiles, s’est appuyé sur l’analyse approfondie de centaines de milliers d’applications populaires de Google Play.

La transparence de Microsoft

Bilan ? Plus de la moitié (56 %) des applications ont au moins un SDK qui essaye d’accéder à l’emplacement de l’utilisateur. Deux applications sur cinq ont au moins un SDK qui tente d’obtenir la liste des applications installées sur le dispositif de l’utilisateur, tandis que 29,3 % des applications cherchent à obtenir la liste des contacts de l’utilisateur. Or, les informations personnelles ne sont protégées par aucune option permettant à l’utilisateur d’accorder ou non ce recueil.

SafeDK remarque cependant que l’accès aux données privées des utilisateurs tend à diminuer. Cette évolution positive témoignerait de la volonté d’éditeurs de se préparer à cette nouvelle réglementation. Elle s’explique aussi par la pression de Google qui a jouté de nouvelles règles détaillées sur le Play Store fin 2017.

Elles indiquent que les développeurs doivent « faire preuve de transparence quant à la façon dont vous gérez les informations sur l’utilisateur […] y compris en publiant les méthodes de collecte et de partage de ces informations, ainsi que la façon dont vous les utilisez ». Google insiste : ils doivent « limiter l’utilisation de ces données au cadre ». Reste à savoir si ces nouvelles règles s’appliqueront aussi à Google…

De son côté, Apple prône une approche de type « differential privacy » : les données seraient anonymisées lors de leur traitement. Mais il collectera et traitera des données en lien avec photos, email, contacts, calendar, iCloud Drive. La raison ? l’amélioration de ses produits et services en utilisant, de manière confidentielle, les données des comptes iCloud. Bref, pour conserver une vie privée sous iOS, mieux vaut ne pas utiliser iCloud…

Même constat pour Microsoft qui veut mettre en avant son souci de transparence. Le géant entend assurer que les données qu’il recueille sont utilisées pour améliorer ses produits et non pas pour suivre l’activité de ses utilisateurs…

Début février, l’éditeur a intégré une application permettant de constater les données collectées depuis Windows 10 (via le composant « Connected User Experience and Telemetry »). Cette option existe déjà pour les professionnels. La version « Diagnostic Data Viewer » sera destinée à un usage plus grand public.

Selon ZDNet, la plupart des données de diagnostic appartiennent à l’une des cinq catégories suivantes :

  • Les données communes incluent la version du système d’exploitation et un ID terminal unique ;
  • Les données de connectivité et de configuration des périphériques ;
  • Les données Produit et Performance service comprennent les événements de performances et de fiabilité et des informations sur la santé du poste de travail ;
  • Les données d’utilisation du produit et du service, c’est à dire sur Windows et les logiciels ;
  • Les données de configuration avec entre autres des détails sur les applications installées et les mises à jour du terminal.

D’autres options permettent de supprimer l’historique de navigation, l’historique de recherche, les données de localisation enregistrées, les données vocales et l’activité de santé .

Philippe Richard

Marie-Galante, l’autonomie énergétique en 2020 ?

Marie-Galante est une petite île de 158 km2 et de 11.000 habitants en plein cœur du bassin caribéen. Actuellement, plus des deux tiers de l’électricité qui y est consommée est importée de Guadeloupe par un câble sous-marin, avec un mix électrique carboné à plus de 85 %. Deux projets énergétiques s’y opposent pour préparer l’avenir de l’île. D’un côté, un projet de centrale thermique porté par le producteur d’énergie français Albioma. Il nécessiterait l’importation de 45.000 tonnes de bois chaque année, en provenance des Etats-Unis et du Canada. De l’autre, un projet d’autonomie avec des énergies renouvelables locales, portée par la Compagnie Nationale du Rhône (CNR).

Pour 100% d’énergies renouvelables locales

Maryse Etzol, maire de Grand-Bourg et présidente de la Communauté de communes de Marie-Galante était au 19e colloque du Syndicat des Energies Renouvelables le 8 février. Elle y a vanté les mérites du projet d’autonomie énergétique de cette petite île portée par la CNR. « J’ai mené un combat tout au long de l’année dernière contre l’Etat et la région pour ne pas accepter l’importation de bois venant du Canada et des Etats-Unis à Marie-Galante, rappelle Maryse Etzol. Nous voulons utiliser uniquement la biomasse locale pendant la période de la récolte ».

Le projet qu’elle défend a été le seul projet d’outre-let lauréat en 2016 de l’appel d’offres  « Démonstrateurs industriels pour la ville durable » du précédent ministère de l’Environnement. Il repose sur trois axes : l’autonomie énergétique, l’autonomie alimentaire et le développement du numérique. L’objectif de ce démonstrateur vise notamment à rendre l’île autonome grâce à un mix électrique renouvelable et un modèle de sobriété, tout en développant les véhicules électriques. Ce projet associe 4 mégawatts (MW) de photovoltaïque et d’éolien avec stockage avec une centrale thermique de 4 MW et reposant exclusivement sur la bagasse locale, un résidu obtenu après le broyage de la canne et utilisé comme combustible. Il prévoit aussi le déploiement de véhicules électriques et de bornes de recharge.

La production et la consommation sont pilotées par une centrale virtuelle, grâce à un réseau électrique intelligent. Pour développer cette centrale virtuelle, le CNR a signé un accord de collaboration avec le CEA en juin 2017. Il s’agit de créer une vitrine des technologies françaises pour la transition énergétique dans les zones insulaires. La Commission européenne soutient d’ailleurs le projet et veut dupliquer le modèle aux îles européennes.

Remplacer le bois par les déchets ?

Le projet Albioma visait à construire une centrale thermique de 12 MW adossée à l’usine sucrière de l’île. Le bois importé aurait complété la bagasse issue de la canne à sucre en dehors des périodes de récolte. Le projet de la CNR vise un projet alternatif de 4 MW utilisant exclusivement la bagasse de l’usine sucrière.

Jean-François Carenco, Président de la Commission de régulation de l’énergie (CRE), était en Guadeloupe début février. Il y a annoncé qu’il n’y aurait finalement pas d’importation de bois à Marie-Galante. Il estime toutefois qu’il ne faut pas opposer les projets des deux sociétés, car ils peuvent désormais être complémentaires. Et il préconise sur FranceInfo une centrale de 7,5 MW, ayant recours aux déchets ménagers pour compléter la bagasse.

Quel avenir pour Marie-Galante ?

En coulisses, se jouent les orientations stratégiques pour l’avenir de l’île. Le projet Albioma vise à consolider la filière sucre. Les acteurs de la filière estiment en effet qu’un projet de centrale thermique de grande taille est indispensable à la rentabilité de l’usine. Du côté de la communauté de communes, le projet alternatif s’inscrit dans une transition écologique, énergétique et numérique plus globale. Il vise à rendre les infrastructures locales résilientes au changement climatique, diversifier l’agriculture et aller vers l’agriculture biologique. Le projet promeut également le tourisme durable, grâce à paysages exceptionnellement préservés. Afin de lutter contre le chômage des jeunes qui atteint 60 %, l’objectif est enfin de créer un centre de ressources et de compétences numériques et former les jeunes marie-galantais aux métiers de demain.

Pour réaliser ce projet de transition énergétique et écologique, une société par actions simplifiée (SAS) a été créée avec au capital, la communauté de communes de Marie-Galante, Vinci construction, la CNR et le cabinet d’avocats Maryse Coppet. « Nous sommes en pourparlers avec les autres opérateurs du territoire pour qu’ils intègrent cette SAS, car nous voulons que cela profite à Marie-Galante », prévient Maryse Etzol.

Par Matthieu Combe, journaliste scientifique

Acidité des océans : quel sera l’impact de variations saisonnières plus marquées ?

Neuf modèles climatiques globaux, dont deux français, établissent que les variations d’acidité entre été et hiver devraient augmenter dans toutes les régions océaniques au cours du siècle à venir. Dans les régions tropicales et subtropicales, les organismes marins sont exposés pendant l’été à un surcroît d’acidité associé à la hausse estivale des températures. Dans les régions océaniques plus froides, les variations sont inversées, les mécanismes dominants étant la photosynthèse l’été (puits de CO2) et la dégradation de la matière organique l’hiver (source de CO2).

Les scientifiques estimaient jusqu’alors que cette variabilité saisonnière favorisait la capacité d’adaptation des organismes aux changements à plus long terme, notamment la hausse de l’acidité causée par l’augmentation du CO2 dissous, associée au réchauffement climatique. Cependant, ils montrent que des fluctuations saisonnières de plus grande amplitude affecteront négativement cette capacité d’accoutumance, contrebalançant ainsi ce relatif optimisme. Les chercheurs ont confronté leurs simulations des variations saisonnières de l’acidité de l’océan aux mesures des fluctuations quotidiennes (jour-nuit) de pH d’un réservoir d’eau de mer représentatif. Pour cela, ils ont exploité des mesures de pH effectuées en continu sur deux sites marins voisins de la baie de Naples, l’un représentant l’océan actuel et l’autre celui attendu en 2100, le bouillonnement volcanique y augmentant localement le CO2 dissous.

Résultat : la différence jour nuit de l’acidité du site perturbé est environ le double de celle du site de référence, en accord avec les simulations. Ces modèles ont également permis de réaliser des projections sur un indicateur de « calcification », le processus par lequel les coraux et les organismes à coquille produisent leur matériel squelettique, montrant que les conditions estivales pourraient finalement devenir moins propices à la formation des coraux et des coquilles carbonatées dans la majeure partie des océans.

Source : cnrs

Les entreprises à l’assaut de la nouvelle économie de l’énergie

Outils classiques

L’étude, porte sur 236 grandes entreprises du monde entier réalisant un chiffre d’affaires supérieur à 100 millions de dollars. Elle révèle que 85% d’entre elles prévoient de mettre en œuvre dans les trois ans à venir des mesures pour que leurs programmes de réduction d’émissions de CO2 demeurent « au niveau des meilleurs standards industriels ». Cependant, les projets initiés ou en développement se concentrent fortement sur la réduction des déchets et des consommations d’eau et d’énergie, se désole Schneider Electric, gros fournisseur d’équipements et d’automatisme pour la gestion de l’énergie.

Les résultats montrent que 81% des entreprises ont mis en œuvre des actions sur  l’efficacité énergétique ou envisagent de le faire dans les deux ans à venir ; et 51% ont réalisé ou envisagent de développer des projets d’énergies renouvelables. Les solutions plus complexes de type stockage d’énergie, microgrids, ou encore cogénération sont moins bien connues des entreprises et donc logiquement peu plébiscitées (30%). Enfin, seules 23% ont ou envisagent à court terme des stratégies d’effacement électrique. En clair, les entreprises privilégient des solutions connues, bénéficiant d’un bon retour d’expérience, et surtout rentables.

Les hyper en pointe

Ces statistiques globales ne rendent pas bien compte des fortes disparités entre secteurs et acteurs dans l’intégration de la nouvelle économie de l’énergie. Les grandes surfaces (supermarchés, hypermarchés) par exemple sont en pointe sur l’installation de panneaux photovoltaïques. Disposant de grands terrains fonciers et de larges toitures, les professionnels de la distribution ont bénéficié à plein des aides de l’Etat, notamment à travers les dispositifs d’autoconsommation.

Les grandes surfaces ont remporté une large part des projets attribués dans le cadre des deux appels d’offres de 20 MW chacun organisé par la Commission de régulation de l’énergie (CRE). Les hyper et supermarchés ont représenté près de la moitié des 72 lauréats désignés en novembre 2016 et le tiers en mars 2017. « Les aides permettent de gagner deux ans de retour sur investissement », indique Richard Loyen à nos confrères des Echos. L’investissement serait amorti entre 8 et 10 ans. Outre les toitures, ces magasins développent aussi des ombrières solaires sur leur parking leur permettant à terme d’imaginer l’installation de bornes de recharge pour véhicules électriques, afin d’attirer davantage de clients potentiels. D’autres appels d’offres, cumulant 450 MW, sont prévus dans les trois ans à venir pour soutenir cette dynamique.

Coordination et gestion des données

Le rapport évoque les obstacles auxquels sont confrontés les entreprises. La mauvaise coordination des acteurs en interne apparaît comme une difficulté majeure. 61% des entreprises interrogées déclarent que leurs décisions en matière d’énergie et de développement durable souffrent d’un manque de coordination entre les fonctions concernées. La création de postes transversaux est vue comme une solution qui peut faciliter la communication entre les départements.

La gestion des données est également citée comme un autre obstacle à une gestion intégrée de l’énergie. Environ 45% des entreprises interrogées déclarent que la gestion de leurs données est disséminée à des niveaux locaux ou régionaux. Parmi les entreprises considérant « le manque d’outils et d’indicateurs pour le partage des données et l’évaluation des projets » comme un problème entravant la collaboration entre les départements, 65% gèrent leurs données à un niveau local, régional ou national, et non à un niveau mondial.

« Il est essentiel de disposer de données et de renseignements exploitables. Mais ce que l’on fait de ces données une fois qu’elles sont en notre possession est tout aussi important », conclue Neil Johnston, directeur des opérations techniques d’Iomart, spécialiste des services en cloud computing.

Romain Chicheportiche

Les cryptomonnaies : phantasmes et réalités

C’est connu, les médias ne parlent que des « trains qui arrivent en retard » ! Logiquement, ils s’intéressent beaucoup au Bitcoin en ce moment, car son cours est en chute libre. Il valait 16.000 dollars début janvier. Le 6 février, il n’en valait plus que 6.400 dollars. D’autres monnaies comme Ethereum et Ripple ont connu ces derniers jours un coup de fatigue.

Comme pour l’argent « réel », les financiers et autres spéculateurs n’aiment pas les mauvaises nouvelles (ni d’ailleurs les situations idéales comme en ce moment avec le mini-krach boursier). Il est vrai que le piratage de la plate-forme d’échanges japonaise Coincheck n’est pas rassurant. Fin janvier, la société a perdu l’équivalent de quelque 530 millions de dollars dans le piratage d’actifs en NEM (acronyme de New Economy Movement). C’est à ce jour le vol le plus important dans l’histoire des cryptomonnaies.

Micro paiements

Mais la situation est aussi mal interprétée par des non-spécialistes. Il y a quelques jours, l’une des plus importantes plates-formes de transactions en cryptomonnaies, CoinMarketCap.com, a décidé de ne plus prendre en compte dans son calcul de prix les cours du marché sud-coréen (Bithumb). Résultat, Ripple de 40 %. « Regardez attentivement les données et ne vous laissez pas tromper », a tenu à rappeler David Schwartz, chef cryptographe chez Ripple.

La réalité est donc parfois mal comprise. Et il y a les phantasmes autour de ces monnaies. Leur principale source remonte à 2013. Cette année-là, le FBI ferme le site Silk Road qui s’appuyait sur le Bitcoin pour vendre de la drogue. Aussitôt, de nombreuses voies affirment que ces monnaies virtuelles ne servent qu’à acheter de la drogue et des armes ! Une vision caricaturale.

Ces monnaies doivent être considérées comme une base pour « construire » des services décentralisés et plus sécurisés. Ainsi, le Bitcoin est à la fois une monnaie, un réseau et un protocole open source. Il existe tout un écosystème autour de ces monnaies qui présentent toutes des particularités.

Créé en juillet 2015, l’Ethereum repose sur un réseau opérateur, un registre des transactions (une Blockchain) et une cybermonnaie dénommée l’Ether. Il donc aussi employé pour créer et exécuter des « smart contracts ». Il s’agit de programmes informatiques décentralisés et hébergés au sein d’une Blockchain.

De son côté, Ripple (créé en mai 2012) est un système de paiement en mode P2P et un logiciel permettant des transferts de fonds à moindres frais. Une soixantaine d’institutions financières l’utilisent parmi lesquelles UBS et UniCredit.

Apparu en juin 2014, NEM (développé par la Fondation Nem.io) permet aussi de transférer de l’argent au sein de cet écosystème. Mais elle propose aussi une messagerie P2P sécurisée (protocole de chiffrement).

Quant à IOTA, lancé en octobre 2015 par une start-up spécialisée dans les microprocesseurs pour des objets connectés (d’où la référence à l’internet des objets – IoT, « Internet of Things »), il est adapté aux gros volumes de micropaiements sans frais (car peu de ressources utilisées).

Par Philippe Richard

Linky: l’ardoise salée pour les consommateurs ?

« L’analyse bénéfices-coût au niveau de la distribution ne peut à elle seule justifier économiquement le projet et, en l’état actuel des travaux, le système n’apportera pas les bénéfices annoncés en ce qui concerne la maîtrise de la demande d’énergie », estime la Cour des comptes. En effet, l’investissement total pour remplacer l’ensemble des compteurs électriques Linky par Enedis et quelques autres distributeurs est évalué à 5,67 milliards d’euros. La fourniture du compteur représente un tiers de ce coût et sa pose un autre tiers. Le dernier tiers correspond aux autres éléments du dispositif, notamment les systèmes d’information et les adaptations du réseau électrique. Avec l’ensemble des systèmes nécessaires, chaque compteur coûte donc 130 euros.

90 % du parc de compteurs Linky devrait être installé fin 2021 et 100 % fin 2024. En septembre 2017, l’avancement du déploiement était conforme aux prévisions, avec 6,3 millions de compteurs installés, soit 17,4 % du parc total. « Le coût prévisionnel de la phase de déploiement massif sera tenu », estime la Cour des comptes qui dénonce toutefois « un dispositif coûteux pour le consommateur mais avantageux pour Enedis ».

Des conditions avantageuses pour Enedis ?

Le rapport remet en cause le principe du différé tarifaire mis en place. Celui-ci fait en sorte que le distributeur avance les coûts de déploiement de Linky. L’objectif de ce dispositif est que le surcoût ne soit répercuté aux consommateurs que lorsque la majorité d’entre eux bénéficieront des bénéfices du compteur. Mais cette avance sera bien intégralement remboursée par les consommateurs à partir de 2021. « Le taux d’intérêt de cette avance est de 4,6 % et les intérêts s’élèvent à 785 millions d’euros au total sur la période 2015- 2030, soit en moyenne 49 millions d’euros par an », calcule la Cour des Comptes.

Concrètement, Enedis finance 3 millions de compteurs sur fonds propres et 31 millions de compteurs par un prêt intragroupe au taux de 0,77 % adossé à un financement de la Banque européenne d’investissement (BEI).« Enedis bénéficie donc d’un différentiel de rémunération de 3,83 %, pour la part financée par le prêt intragroupe », observe la Cour. Ainsi, le surcoût pour les usagers pourrait être de l’ordre de 506 millions d’euros. Des primes sont également prévues si Enedis respecte les coûts, les délais et les niveaux de performance. Au final, la rémunération d’Enedis pourrait s’élever entre 10 % et 11 %, avec une rémunération minimale prévue par contrat à 5,25 %. L’investissement, remboursé par les consommateurs, sera donc très rentable pour Enedis.

Un bilan économique presque nul payé par les consommateurs

Le contrôleur des comptes publics demande donc de faire évoluer le dispositif de différé tarifaire pour en réduire le coût pour le consommateur. Il souhaite aussi faire réduire les primes qui pourraient être accordées à Enedis, au regard de la forte rémunération prévue. Dans une lettre, la Commission de régulation de l’énergie (CRE) rejette toutefois cette idée. « Une modification a posteriori du dispositif de différé tarifaire ou de la rémunération d’Enedis créerait un précédent en termes d’insécurité juridique quant à la portée des décisions du régulateur », prévient-elle.

Pour Enedis, les gains attendus au niveau de la production, de la commercialisation et de la consommation apportés par le déploiement de Linky sont à la hauteur des investissements. Au niveau de ce seul distributeur, le bilan économique devrait être nul, tout au plus légèrement négatif de 200 millions d’euros. Autrement dit, sur les 5,3 milliards d’euros payés par les consommateurs à Enedis, ils dépenseraient 200 millions d’euros en plus par rapport au statu quo. En revanche, les consommateurs pourraient bénéficier en contrepartie de gains largement supérieurs.

Des gains pour les consommateurs ?

Finalement, ce sont les gains potentiels pour les usagers qui seraient les plus importants. Ils pourraient atteindre 9,2 milliards d’euros, essentiellement grâce à l’amélioration de la concurrence, la valorisation de la télé-relève et des télé-opérations. Sans oublier la baisse de la consommation résultant de la maîtrise de la demande de l’énergie.

Toutefois, la Cour des comptes note que les moyens actuellement mis en place pour réellement atteindre ces gains potentiels sont largement insuffisants.Elle invite donc les pouvoirs publics, les distributeurs et les fournisseurs à développer les actions de maîtrise de la demande d’énergie et à contribuer à maîtriser la demande de pointe. Cela passe notamment par le développement de moyens simples pour communiquer la consommation détaillée aux particuliers et définir de nouvelles offres. En particulier, la juridiction financière incite les fournisseurs à définir des plages tarifaires plus nombreuses et variées, pour aller au-delà du traditionnel heures pleines/heures creuses. Enfin, elle invite l’ensemble des acteurs à une meilleure communication pour rassurer la population. Celle-ci devra porter sur l’absence de risques sanitaires et la protection des données personnelles.

Par Matthieu Combe, journaliste scientifique

Bioéthique : Ouverture des Etats généraux pour une révision de la loi

Au programme, sept thèmes scientifiques et deux thèmes sociétaux

C’est inscrit dans la loi : tous les 7 ans, la loi de bioéthique fait l’objet d’une révision qui s’accompagne d’un débat public sous forme d’états généraux orchestrés par le CCNE (Comité Consultatif National d’Ethique), une institution indépendante créée en 1983. Cette discussion a pour vocation de solliciter la participation de l’ensemble des parties prenantes (citoyens, scientifiques, autorités religieuses, associations) avec pour but de faire émerger un avis représentatif de la société sur une série de neufs grands thèmes de bioéthique relevant de deux axes. Le premier axe regroupe les questions éthiques soulevées par les progrès issus de la recherche scientifique et technologique, et comprend les 7 thèmes suivants :

    • la Reproduction, le développement embryonnaire et les cellules souches ;
    • la Génétique et la génomique ;
    • les Dons et transplantations d’organes ;
    • l’Intelligence artificielle et la robotisation ;
    • les Données de santé ;
    • les Neurosciences ;
    • la thématique Santé et environnement.

Le second ensemble répertorié par le CCNE rassemble « des domaines où les opinions de la société ont pu évoluer et qui interrogent de façon directe la société que l’on souhaite pour demain ». On y retrouve deux thèmes sociétaux forts : les questions liées à la procréation avec l’ouverture de la PMA aux couples de femmes et celles liées à la fin de vie avec une éventuelle « légalisation de l’assistance au suicide, lorsque l’estimation du pronostic vital est inférieure à six mois ».

Les lois de bioéthiques depuis 1994

Les premières lois de bioéthiques en France datent de 1994 ; depuis elles sont révisées au gré des progrès scientifiques et de l’évolution des mentalités. Cette même année, deux lois avaient été votées : des lois relatives au respect du corps humain qui posent trois fondements éthiques : « inviolabilité du corps humain, impossibilité pour le corps humain d’être l’objet d’un droit patrimonial évaluable en argent, obligation du consentement » et une loi organisant le don et l’utilisation des éléments et produits du corps. En outre, une autre loi de juillet 1994 a permis de définir les règles juridiques et administratives qui encadrent les données médicales nominatives. Dix ans plus tard, la loi de 2004 apporte des innovations telles que l’interdiction du clonage d’un être humain ou la limitation de la recherche sur les embryons et elle permet une extension des principes de la loi de 1994 régissant le don en généralisant le consentement présumé. La loi de 2011 avait abouti à l’autorisation de la congélation des ovocytes ultra rapide dans un cadre très rigide ainsi qu’au don croisé d’organes en cas d’incompatibilité entre proches. C’est cette même loi qui va faire l’objet d’une révision en 2018.

Par Aliye Karasu

100% de gaz renouvelable en 2050 ?

Il serait possible de couvrir entièrement la demande française de gaz naturel de réseau par des alternatives renouvelables d’ici 2050. C’est le principal enseignement de cette étude prospective. À cet horizon, les gains d’efficacité énergétique et la baisse de la demande énergétique devraient amener la demande en gaz de réseau entre 276 et 361 térawattheures (TWh), contre 460 TWh aujourd’hui.

Le potentiel théorique de ressources renouvelables permettrait de produire jusqu’à 460 TWh de gaz renouvelable injectable.  Et cela, sans entrer en concurrence avec les usages alimentaires, pas plus qu’avec les usages « matières premières », notamment l’industrie du bois et les biomatériaux. 30 % de ce gaz pourrait être obtenu par méthanisation de déchets agricoles, de biodéchets et de résidus d’algues. Par ailleurs, 30 % de gaz renouvelable pourrait provenir du power-to-gas si le mix électrique est 100 % renouvelable. Enfin, la majorité proviendrait de la pyrogazéification – un processus thermochimique – du bois et de ses dérivés, des combustibles solides de récupération (CSR) et d’une faible fraction de résidus agricoles.

Entre 75 % et 100 % de gaz renouvelable

Dans les quatre scénarii étudiés, il est donc possible d’amener la production de gaz renouvelable entre 276 et 361 TWh en 2050. Simplement, l’un des scénarios prévoit un développement plus faible du power-to-gas en raison de ses coûts élevés. Il ne projette donc que 75 % de gaz renouvelable en milieu de siècle.

Les organismes ont fait une évaluation du coût total du mégawattheure (MWh) 100% renouvelable consommé. Il se situerait entre 116 et 153 euros. Ces coûts comprennent ceux de production, de stockage, d’utilisation et d’adaptation des réseaux gaziers. En 2050, le rapport estime le prix du gaz naturel à 42 €/MWh. Une taxe carbone à 200 € la tonne de CO2 rehausserait ce prix de 44 €/MWh soit un prix total de 86 €/MWh. À l’opposé, passer à 100 % de gaz renouvelable permettrait d’éviter l’émission d’environ 63 millions de tonnes de CO2 par an.

mix-gaz
Mix de gaz renouvelable dans les 4 scénarios. EnR&R = Énergies Renouvelables et de Récupération

Des scénarii prospectifs qui invitent à l’action

Les organismes rappellent l’importance d’assurer la complémentarité du réseau gazier avec le réseau électrique dans le cadre de la transition énergétique. Notamment, le power-to-gas permettra de stocker sous forme de gaz les excédents de production d’électricité renouvelable. Il pourra être utilisé dans le réseau gazier ou dans des centrales thermiques en période de pointe de consommation.

« Pour que ces potentiels soient accessibles en 2050, il sera nécessaire de lever les freins à la méthanisation agricole, de généraliser les cultures intermédiaires (cultures temporaires qui protègent les sols entre deux cultures de vente), de mobiliser davantage de ressources agricoles et forestières et de favoriser l’émergence de technologies à fort potentiel mais peu matures (pyrogazéification, gazéification des algues etc.) », prévient l’ADEME.

Par Matthieu Combe, journaliste scientifique

Le Kazakhstan se tourne (un peu) vers les renouvelables

Un appel d’offres en mai

Gani Sadibekov, le vice-ministre de l’Energie kazakh, a annoncé qu’un appel d’offres sera organisé en mai pour installer 1 GW d’énergies renouvelables dans le pays. Aujourd’hui les Enr ne représentent que 1% de la production d’électricité. Une part que le gouvernement s’est engagé à élever à 30% en 2030 et 50% en 2050. Des objectifs ambitieux qui s’appuient sur la chute des coûts des Enr et un potentiel très important. En effet, l’exploitation du potentiel éolien des seules régions capitale et Fort-Shevchenko  (5% du territoire) suffirait à couvrir les besoins électriques du pays. Cette annonce intervient quelques mois après l’Expo 2017 Astana Future Energy, qui avait pour but d’attirer les investisseurs sur ce marché naissant.

Autre argument en faveur d’un renouvellement du mix électrique : l’âge des centrales. Ces dernières, à 85% alimentées par des énergies fossiles, ont pour la plupart été construites sous l’ère soviétique. Le parc affiche aujourd’hui une moyenne d’âge de 35 ans. Or, les récents appels d’offres internationaux (Mexique, Abou Dhabi, Chili, Arabie Saoudite) ont battu tous les records en terme de prix. De plus, la guerre commerciale qui a fait rage dans le secteur mondial photovoltaïque s’est traduite par une surproduction de la production chinoise de panneaux solaires qu’il faut bien écouler. Des arguments qui peuvent expliquer l’intérêt d’Astana pour rééquilibrer son parc électrique.

Etat rentier

Cette campagne de communication gouvernementale ne doit pas faire oublier que le Kazakhstan reste avant tout un pays dépendant du pétrole. Il représente 50% du PIB auxquels il faut ajouter l’industrie extractive. En effet, ce pays d’Asie recèle de nombreux minerais, notamment de l’uranium dont il est de loin le premier producteur mondial. Il est d’ailleurs un des fournisseurs des centrales nucléaires françaises, Orano (ex-Areva) exploitant les mines de Muyunkum et Tortkuduk avec l’entreprise publique locale Kazatomprom depuis 1996.

Les ressources naturelles abondantes du Kazakhstan l’ont posé de fait comme un fournisseur multi-énergies. Il exploite toutes les énergies fossiles (gaz, pétrole, charbon), participe au nucléaire grâce à l’uranium, et mise désormais sur l’installation d’énergies renouvelables, avant peut-être d’en produire.

Romain Chicheportiche