Télécoms : un gouffre énergétique

On ne s’en aperçoit pas, mais nos appareils du quotidien (téléphone, tablette, TV, caméra de vidéosurveillance…) sont des gloutons. Selon le rapport Clicking Clean publié en janvier 2017 par Greenpeace, le secteur informatique représente environ 7 % de la consommation mondiale d’électricité. Si Internet était un pays, il serait le 3e plus gros consommateur d’électricité au monde avec 1500 TWH par an, derrière la Chine et les États-Unis.

Pour Anders Andrae, cette situation ne devrait pas s’améliorer avec la multiplication d’appareils connectés. Selon ce chercheur suédois travaillant pour le fabricant chinois Huawei, et qui a participé à une étude récente sur cette problématique, les TIC pourraient utiliser 20 % de toute l’électricité et émettre jusqu’à 5,5 % des émissions mondiales de carbone d’ici 2025.

L’explosion du streaming vidéo

Pourquoi une telle augmentation ? La consommation d’électricité devrait tripler au cours des prochaines années à cause de la très forte croissance du trafic Internet mondial. Deux facteurs l’expliquent cette augmentation. Premièrement, un milliard de personnes supplémentaires se connectent en ligne dans les pays en développement.

Deuxièmement, le tsunami de données provoqué par l’Internet des objets (8,4 milliards d’appareils connectés en 2017, presque 21 milliards trois ans plus tard selon le cabinet Gartner), et le streaming vidéo (en 2015, il a capté 63 % du trafic web mondial) qui séduit de plus en plus d’internautes dans les pays développés.

Tous ces usages s’appuient sur des données stockées dans des datacenters. Un seul consomme autant d’électricité (la climatisation représentant 40 % de cette consommation) que 30 000 habitants européens. Or, ces énormes entrepôts pourraient avoir besoin de plus de 100 TWh d’électricité par an d’ici 2020, selon un rapport publié à Berkeley en 2016. C’est l’équivalent d’une dizaine de grandes centrales nucléaires.

Datacenters et énergies renouvelables

La situation ne sera peut-être pas aussi catastrophique. Google et Apple notamment multiplient les datacenters alimentés en énergies renouvelables ou localisés dans les pays nordiques, afin de profiter de l’air frais pour refroidir les ordinateurs et ainsi minimiser l’utilisation de la climatisation.

En juillet 2017, Google a ainsi décidé d’acquérir toute l’électricité produite dans la ferme solaire (équipée de 123.000 panneaux photovoltaïques) du spécialiste de l’énergie renouvelable Eneco pour alimenter son nouveau datacenter ouvert aux Pays-Bas. Le géant américain a aussi signé des contrats avec vingt parcs éoliens et solaires dans le monde, notamment en Suède et aux Pays-Bas. Résultat, en seulement 10 ans, il est parvenu à diminuer de 50 % les besoins en électricité de ses sites.

Apple mise aussi sur les énergies renouvelables. Chaque nouveau datacenter de l’entreprise est implanté dans une zone permettant de satisfaire une alimentation 100 % renouvelable en continu. Autre initiative intéressante : les rejets de chaleur de son datacenter danois sont directement injectés dans le réseau de chaleur local permettant de réduire la dépendance en énergies fossiles.

Mais nous devons être aussi un peu plus responsables. Plus de 150 millions d’emails sont envoyés chaque minute dans le monde, soit la production électrique de 18 centrales nucléaires pendant une heure. On peut réduire notre consommation en n’envoyant que des courriers vraiment nécessaires, en se désabonnant de newsletters inutiles ou en limitant le nombre de destinataires lors de l’envoi d’un email.

Par Philippe Richard

Batteries : des pistes pour une durée de vie plus longue

En décembre dernier, Apple a été pointé du doigt. Pour protéger la batterie et les composants des iPhone, la marque a décidé de ralentir les modèles équipés de batteries beaucoup trop utilisées. Cette affaire confirme que le lithium-ion reste toujours le point faible des appareils connectés.

Plusieurs chercheurs tentent de relever ce défi depuis quelques années. C’est le cas d’une équipe de l’Université de Warwick au Royaume-Uni. Fin janvier, elle a présenté son étude portant sur le potentiel des électrodes composites en graphène à faible teneur en silicium (FLG, acronyme anglais de « Silicon-Few Layer Graphene »).

Cette étude démontre que l’incorporation de graphène améliore de façon importante le nombre de cycles, la résistance des électrodes et les propriétés de diffusion. En un mot, le remplacement du graphite dans les anodes par du silicium et du graphène présente deux avantages détaillés dans cet article. Premièrement, une augmentation de la capacité énergétique. Deuxièmement, une amélioration de la durée de vie en atténuant « la fusion électrochimique du silicium ». Cette réaction est à l’origine du vieillissement des batteries.

250 km à bicyclette…

Cette université britannique n’est pas la seule à s’intéresser aux propriétés du graphène. Le SAIT (Samsung Advanced Institute of Research) a aussi breveté aux États-Unis ainsi qu’en Corée du Sud son procédé de batterie au graphène.

Début 2016, Graphenano, une entreprise spécialisée dans la production de graphène en Espagne, avait aussi annoncé que de telles batteries pouvant être intégrées aux voitures, motocyclettes et vélos électriques. Selon les Espagnols, leur batterie permettrait aux vélos de bénéficier d’une autonomie de 250 km, contre 65 km environ avec des batteries Li-ion traditionnelles. Fin 2017, l’entreprise a lancé sa première chaîne de production (sur 7000 m²) en Espagne.

Autre piste poursuivie par Tiamat : des batteries sodium-ion. Cette start-up amiénoise, issue du Réseau sur le stockage électrochimique de l’énergie (RS2E) porté par le CNRS, espère les commercialiser d’ici à 2020. Selon cette entreprise, des véhicules pourraient avoir une autonomie de 200 km et seraient rechargés en… quelques minutes.

Supercondensateur étirable

Quant aux chercheurs de Nanyang Technology University (NTU), ils misaient dès 2014 sur un gel constitué de nanotubes de dioxyde de titane. Il permettrait jusqu’à 10.000 recharges avant que la performance de la batterie diminue. Dans un article publié il y a quelques semaines dans la revue Advanced Materials, l’équipe a précisé qu’elle avait développé un supercondensateur personnalisable ou « modifiable ». Sa structure et sa forme peuvent être modifiées après sa fabrication, tout en conservant sa fonction de source d’énergie.

Précisons qu’un supercondensateur n’est pas une batterie. C’est une sorte de super condensateur capable de stocker une certaine quantité de charges électriques. Mais il en existe déjà dans des bus électriques, des tramways ou encore des bateaux électriques.

Selon le professeur Chen Xiaodong, qui dirige ces travaux, le nouveau supercondensateur, une fois monté dans une structure en nid d’abeilles, a la capacité de stocker une charge électrique quatre fois plus élevée que la plupart des supercondensateurs extensibles existants.

De plus, lorsqu’il est étiré à quatre fois sa longueur initiale, il conserve près de 98 % de la capacité initiale de stockage de l’énergie électrique, même après 10 000 cycles d’étirement et de dégagement. Autre intérêt : Le coût de production de 1 cm2 serait d’environ 0,10 dollar.

Par Philippe Richard

Aérospatial et agroalimentaire ont résisté au repli de l’industrie française

Entre 2006 et 2015, presque toutes les activités industrielles françaises ont enregistré une diminution de leur nombre d’établissements employeurs et une diminution des effectifs salariés. En dix ans, l’industrie manufacturière a ainsi perdu  27 300 établissements (– 18 %) et 530 000 salariés (– 16 %). Avec la crise de 2008-2009 qui a durement touché ce secteur déjà en repli, la tendance n’a fait que se poursuivre et dès 2009, l’industrie, qui était encore le premier employeur hors secteur agricole, s’est fait doubler par le commerce. En décembre 2015, elle restait tout de même le deuxième employeur avec 123 300 établissements et 2,7 millions de salariés.

Cette tendance à la baisse n’est pas nouvelle puisque l’emploi salarié dans l’industrie diminue depuis 1975 et sa part dans la valeur ajoutée de l’ensemble de l’économie à été divisée par deux entre 1970 et 2014.

Tous secteurs et toutes tailles

Cette étude révèle que la taille moyenne des établissements est resté stable autour de 22 salariés : « la baisse du nombre de salarié résulte alors quasi-exclusivement de celle du nombre d’établissements employeurs », explique ainsi les auteurs. On remarque ainsi que la forte diminution du nombre d’établissements et de salariés ont été enregistré dans toutes les classes de taille, même si elle est un peu plus importante pour les petits établissements. En ce qui concerne les différents secteurs, même si certains sont plus durement touchés que d’autres, le repli est général. Le secteur les plus atteint en terme de volume relatif et absolu est celui du textile, de l’habillement et du cuir qui perd un tiers de ses effectifs et de ses établissements en 10 ans. On retrouve ensuite le travail du bois, les industries papetières et l’imprimerie en recul de 25 %. Dans ces deux groupes de secteurs l’emploi est peu concentré (8 à 9 salariés sur 10 travaillent dans des établissements de moins de 250 salariés). Nombre d’activités liées à l’industrie automobile et aux transports connaissent aussi un repli vraiment notable : ainsi la fabrication de produits en caoutchouc tels que la fabrication et le rechapage de pneumatiques et la fabrication de produits en plastique tels que les pièces techniques perdent un cinquième de leurs établissements et un quart de leurs salariés. Parmi les autres secteurs très touchés on peut aussi citer la sidérurgie et la métallurgie ou encore la fabrication de meubles ou la réparation et l’installation de machines et équipements. Au niveau territorial, la perte d’emploi industriel touche l’ensemble de la France mais plus particulièrement la moitié nord. En volume, c’est le bassin parisien qui est le plus touché entre 2006 et 2015, perdant ainsi 3800 établissements et 54200 salariés. Rare sont les zones d’emplois où l’emploi progresse comme celle de Toulouse qui profite de l’essor de la construction aéronautique et spatiale.

Agroalimentaire et aérospatial en bonne santé

Ces deux secteurs ont bien résisté au repli industriel français. Ainsi, dans l’agroalimentaire, c’est la concentration qui prédomine : le nombre d’établissements diminue de 9 % (-4500) mais les effectifs seulement de 0,4 %. Ce secteur confirme sa position dominante dans l’industrie nationale regroupant à lui seul 35 % des établissements employeurs et 20 % des salariés à fin 2015. Au sein de ce secteur, on peut noter une différence de tendance très nette entre les produits à base de viandes qui reculent et les produits de boulangerie-pâtisserie dont les effectifs augmentent de 12 % en 10 ans. Un autre grand secteur sort du lot de la récession. Il s’agit de la construction aéronautique et spatiale dont les effectifs salariés enregistrent une hausse de 24 % et qui s’étoffe d’une quarantaine d’établissements supplémentaires. Ce secteur est caractérisé par une forte concentration, puisque 75 % des salariés le sont dans des établissements de plus de 1000 salariés.

Référence : Insee Première – n°1689 – Février 2018 

Par Sophie Hoguin

La RSE des grands groupes vue par les Français

« Notre enquête révèle que les Français, dans leur ensemble, attendent aujourd’hui des grands groupes qu’ils adoptent des pratiques sociales et environnementales responsables, estime Thierry Denjean, président du cabinet de conseil et d’audit Denjean & Associés. Les grandes entreprises qui ne tiendraient pas compte de cette attente risquent de connaître de graves difficultés, aussi bien pour développer leur chiffre d’affaires que pour recruter de nouveaux talents ! ». En effet, 97 % des Français sont désormais prêts à boycotter des entreprises ayant des pratiques sociales ou environnementales destructrices.

Ce sont les enseignements d’un sondage commandé par Denjean & Associés et réalisé par l’institut GoudLink. Concrètement, 88 % des Français ont une meilleure opinion d’une entreprise qui met en oeuvre une bonne politique de RSE. Pour rester dans le coeur des Français ou améliorer son image, une entreprise se doit de déployer une telle politique, sous peine de voir son image se ternir.

De bonnes pratiques environnementales et sociales

Les Français ont bien conscience des impacts que les entreprises peuvent avoir sur l’environnement et les hommes. Selon eux, le critère le plus important à suivre est l’impact qu’une entreprise peut avoir sur la santé d’un groupe humain. Les craintes concernent également le fait qu’elle puisse nuire à certaines espèces animales, participer au réchauffement climatique et contribuer à la destruction d’espèces animales.

Les pratiques sociales sont également passées au crible. Une entreprise qui délocalise son activité et son siège social hors de France affaiblit son image. Même constat pour celle qui dépose un bilan ou déploie des licenciements économiques sans contrepartie supérieure au minimum légal. Les pratiques les plus courantes comme le fait d’employer des stagiaires très peu payés à la place de collaborateurs en CDI, de mettre la pression sur les salariés ou de les mettre en danger sont également dans le collimateur des Français. En haut du podium, le travail des enfants par l’intermédiaire des sous-traitants étrangers est toujours aussi mal vu. Face à ces comportements, 90 à 98 % des Français se disent choqués ou révoltés.

La RSE, c’est aussi la transparence de la gouvernance

En France, on aime la transparence et le respect des règles. Les dirigeants qui blanchissent de l’argent, font de l’évasion fiscale ou ont recours à la corruption ou aux fausses factures pour développer le chiffre d’affaires de l’entreprise reçoivent les foudres de nos compatriotes. Même constat pour ceux qui emploient des personnes non déclarées. Cette fois, entre 89 et 96 % des Français se déclarent choqués ou révoltés. La spéculation sur les marchés financiers semble toutefois être plus acceptée, puisque seulement 67 % d’entre eux se disent révoltés ou choqués par cette pratique.

À l’inverse, il est possible de conquérir le coeur de nos concitoyens en pratiquant le mécénat d’entreprise. 65 % à 93 % des Français affirment être « contents » ou « enthousiastes » face à cette pratique. Ils plébiscitent particulièrement les projets ou associations dans les domaines de la santé, de l’éducation et de l’aide sociale.

Des engagements récompensés

Toute les actions qui peuvent être soutenues en faveur de la préservation de l’environnement recueillent l’adhésion de plus de 90 % des Français. En tête, celles qui préservent la santé humaine et améliorent le bien-être animal. Une entreprise qui utilise des technologies plus propres, fabrique des produits ou services plus « verts » et met en place des outils pour mesurer son impact environnemental sera assurée de recueillir l’approbation des Français.

De la même façon, les bonnes pratiques de ressources humaines sont récompensées. Une rémunération confortable, un environnement de travail agréable et le fait de favoriser l’emploi local se révèlent être les critères les plus importants. Suivent la mise en place d’une politique d’emploi de personnes en situation de handicap, l’égalité homme-femme et la formation continue.

Pour se forger une opinion d’une grande entreprise, les Français se fient avant tout à l’avis formulé par ses employés, puis les journaux et la télévision. En revanche, le sondage montre qu’ils ne sont pas crédules. Les autres sources, notamment le site Internet de l’entreprise, les discussions sur les réseaux sociaux, les propos des dirigeants ou les publicités jouissent d’une crédibilité médiocre à faible.

Par Matthieu Combe, journaliste scientifique

Des puces neuronales pour booster les machines

On ne cesse de parler d’Intelligence artificielle et en particulier d’une de ses déclinaisons : le Machine learning. Cette branche de l’IA sert à développer des processus d’apprentissage permettant à une machine de proposer des conclusions et des interprétations que nous devrons (jusqu’à quand ?) valider.

Si l’on croit tous les fondeurs (Intel, AMD…) mais aussi les ténors des nouvelles technologies, différents appareils grand public pourraient bénéficier de ces capacités d’auto apprentissage grâce à de nouvelles architectures.

Fin septembre dernier, Huawei a présenté le premier processeur mobile intégrant une Neural Processing Unit (NPU). Fabriquée par TSMC et gravée en 10 nm, cette puce (baptisée Kirin 970) d’un centimètre carré regroupe 5,5 milliards de transistors.

Ce n’est pas la première fois que ce type d’architecture est dévoilé. En 2013, le fondeur américain Qualcomm avait présenté son Zeuroth, une puce inspirée, par analogie, des cerveaux humains. Aussi intéressante soit-elle, cette puce n’est jamais sortie de son laboratoire.

1  million de neurones humains

Aujourd’hui, les innovations technologiques pourraient-elles favoriser la commercialisation de processeur de réseau neuronal ? En tous les cas, les géants de l’informatique s’y mettent et veulent nous convaincre : Intel, AMD, nVidia et bien sûr IBM. C’est en 2004 que ce géant a commencé à travailler sur le développement de puces neuronales. Cinq ans plus tard, il mettait au point un modèle informatique ayant la taille du cerveau d’un chat. En 2011, sa puce prototype contenant 256 neurones numériques.

Aujourd’hui, son processeur 4096 core TrueNorth imite un million de neurones humains et 256 millions de synapses. Il est capable de classer des données images à une vitesse de 1 200 à 2 600 images par seconde en ne consommant que 25 à 275 milliwatts. Le processeur sait identifier et reconnaître des éléments dans des images générées par 50 à 100 caméras à 24 images par seconde.

De telles capacités pourraient être exploitées dans les voitures autonomes. Une NPU leur permettrait de contrôler leur trajectoire, de reconnaître les signaux routiers, voire d’anticiper un danger.

Autre application grand public, les fameux smartphones. Le fabricant chinois Huawei n’est pas le seul à communiquer sur ce type d’architecture. Apple a aussi embarqué une puce neuronale dans son iPhone X, baptisée « A11 bionic neural engine ». Dotée de 2 cœurs, elle est capable de réaliser 600 milliards d’opérations par seconde, selon les chiffres donnés par Apple. C’est elle qui est mise en œuvre par la reconnaissance familiale FaceID ou encore par les Animoji.

Quels pourraient être les autres usages de ce type de puce dans les téléphones ? Ces processeurs pourraient par exemple faciliter le montage vidéo. Imaginez que vous filmez le match de football de votre fils. À la fin de la rencontre, vous pourriez demander à votre smartphone, par commande vocale, de créer un résumé vidéo avec uniquement les actions de votre fils. De quoi constater ses progrès ou ses faiblesses !

Des associations « d’idées »

Une puce NPU serait aussi très utile aux touristes qui se rendent dans un pays dont ils ne connaissent pas bien la langue. Microsoft travaille en effet avec Huawei (dont au passage, le FBI, la NSA et la CIA recommandent de ne plus utiliser ses téléphones…) pour améliorer les capacités offline de son application Translator. Préinstallée sur les Huawei Mate 10, elle permet de bénéficier de traductions de qualité et plus rapides, même lorsque l’appareil n’est pas connecté à un réseau.

À terme, IBM est encore plus ambitieux. Il espère développer un ordinateur aussi intelligent que l’homme et doté de capacités décisionnelles comparables. D’après ses tests de performance, sa puce TrueNorth est plus rapide et plus économe en énergie que les processeurs et cartes graphiques actuels. Elle serait capable d’apprendre des notions complexes et de prendre des décisions en faisant des associations « d’idées » et du calcul de probabilités, un peu comme le ferait le cerveau humain.

Mais pour l’instant, son processeur reste confidentiel. Seul le laboratoire de recherche atomique américain Lawrence Livermore dispose de cette puce afin d’aider les chercheurs à analyser les résultats de leurs simulations.

Philippe Richard

Les recrutements de cadres au plus haut niveau en 2018

« La confiance des entreprises est solide et l’ensemble des secteurs et des fonctions profiteraient de ce marché très bien orienté. Au total, le nombre d’embauches devrait se situer entre 248 000 et 271 000. La progression par rapport à 2017 pourrait aller jusqu’à +13 %, selon les 11 000 entreprises1 que nous avons interrogées » affirme  Jean-Marie Marx, directeur général de l’Apec.

« Certes, des aléas subsistent notamment sur l’environnement international » explique-t-il, « mais tout nous incite à tabler sur une croissance pérenne, ce qui permettrait aux recruteurs d’effectuer plus de 276 000 embauches de cadres à l’horizon 2020, selon le modèle économétrique élaboré par l’Apec. »

« Un point de vigilance cependant, souligne-t-il, les entreprises rencontrent des difficultés de recrutements sur certaines fonctions. Ces tensions sont à mettre en lien avec l’accélération de la transformation numérique, la transition énergétique, et les évolutions des organisations et de leur mode de management qui nécessitent des compétences nouvelles. Se former, et anticiper ces changements s’imposent comme de nouveaux enjeux, non seulement pour les cadres et les jeunes diplômés, mais aussi pour les entreprises. »

L’analyse par secteur révèle sans surprise que les Services pourraient totaliser jusqu’à 196 600 embauches de cadres sur l’ensemble de l’année. Dans le même temps, le Commerce, la Construction et l’Industrie devraient être boostés par la bonne santé économique et accroître sensiblement leurs recrutements de cadres. Respectivement jusqu’à +9 % et +12 %.

Par ailleurs, la majeure partie des recrutements continuent de se concentrer sur les Activités Informatiques et télécommunication, l’Ingénierie-R&D, et les Activités juridiques et comptables, conseils et gestion des entreprises. Par ailleurs, les fonctions Informatique, Etudes recherche & développement et Commercial représenteraient un peu moins de 60 % des embauches.

Ce sont toujours les cadres ayant 1 à 10 ans d’expérience qui seraient les plus recherchés par les recruteurs. Les débutants ayant moins d’un an d’expérience, quant à eux, commenceraient à profiter d’un marché de l’emploi cadre dynamique.

Enfin, la quasi-totalité des régions ont le vent en poupe. L’Île-de-France s’imposerait toujours comme la 1ère région avec un recrutement sur deux de cadres. Suivent Auvergne-Rhône-Alpes, Occitanie, Hauts de France, Provence-Alpes-Côte d’Azur-Corse et Nouvelle Aquitaine.

Marché de l’emploi cadre en 2018 : 248 000 à 271 000 embauches

Capture d’écran 2018-02-15 à 15.29.37

À partir des réponses de 11 000 entreprises interrogées entre les mois d’octobre et décembre 2017, l’Apec estime que les recrutements de cadres pourraient être compris entre 248 000 à 271 000 en 2018. Cette évolution correspondrait à une augmentation de 3 % à 13 % par rapport à 2017. La médiane des recrutements se situerait à 259 500. Dans un contexte où les indicateurs économiques sont au vert, ces résultats reflètent une confiance solide de la part des recruteurs en la pérennité de la croissance. Au moment de l’enquête, trois fois plus d’entreprises ont déclaré avoir l’intention d’accroître leur effectif cadre que de le réduire, respectivement 12 % contre 4 %. Une configuration inédite depuis 2007.

Capture d’écran 2018-02-15 à 15.30.50

Tous les secteurs profiteraient de la dynamique à l’œuvre. L’Industrie maintiendrait son rythme de croisière atteint l’an dernier (jusqu’à +12% de recrutements). Tandis que les Services qui représentent plus de 7 recrutements sur 10, atteindraient des niveaux inégalés avoisinant les 197 000 embauches de cadres. Enfin, la Construction, dont la reprise a déjà été très sensible l’an dernier, maintiendrait son cap, avec 12 400 à 13 200 recrutements. Quant au Commerce, qui a connu une baisse de 2 % l’an dernier, ce sont entre 19 800 à 21 500 cadres qui pourraient être recrutés.

Capture d’écran 2018-02-15 à 15.31.28

En termes de fonctions, le trio de tête demeurerait l’Informatique, Etudes-R&D et le Commercial. Celui-ci concentrerait 57 % de l’ensemble des recrutements. La hausse la plus marquée devrait être celle de l’Informatique qui atteindrait 20% de croissance.

Capture d’écran 2018-02-15 à 15.32.00

En 2018, les cadres les plus courtisés devraient être ceux dont l’expérience se situe entre 1 et 10 ans. Pour les cadres seniors de plus 20 ans d’expérience, les prévisions sont plus mitigées entre + 7 % et – 6%, Les débutants quant à eux, commenceraient à profiter de la bonne santé du marché de l’emploi cadre, avec 47 500 à 53 000 embauches.

Capture d’écran 2018-02-15 à 15.32.31

Sur le plan géographique, la quasi-totalité des régions devraient avoir le vent en poupe. L’Île-de-France s’imposerait toujours comme la 1ère région avec près d’un recrutement sur deux de cadres. Suivent Auvergne-Rhône-Alpes et Occitanie. Provence-Alpes-Côte d’Azur-Corse enregistrerait la plus forte progression.

Capture d’écran 2018-02-15 à 15.33.01

Enfin, en 2017 la France a enregistré une hausse de ses recrutements de cadres de 10 %, soit un volume total de 240 100. Les créations2 de postes, qui reflètent cette bonne santé du marché se sont établies à 53 800.

Prévisions 2018-2020 issues du modèle économétrique de l’Apec : le scénario de croissance « pérenne »

Le modèle construit en 2009 par l’Apec est le fruit des travaux de sa direction données, études et analyses. Il a permis de montrer que l’investissement, mesuré par la formation brute de capital fixe (FBCF), est au cœur de la dynamique de l’emploi en général et de l’emploi cadre en particulier. Le modèle intègre également le niveau du PIB ainsi qu’une dimension démographique en tenant compte des départs à la retraite de cadres en emploi. Afin d’élaborer le plus précisément possible des scénarios, l’Apec s’est intéressée aux prévisions établies par différents instituts de conjoncture nationaux ou internationaux (Insee, OCDE, OFCE, FMI, Banque de France, Eurostat). Ces prévisions concernent le PIB et ses principales composantes (FBCF, dépenses de consommation, variations des stocks, exportations et importations).

Après plusieurs années de croissance étale (2012 à 2014) et de rendez-vous manqués (2015 et 2016), l’économie française semble avoir enfin renoué avec une croissance robuste qui s’est traduite par une hausse du PIB de +1,9 % en 2017. Ce solide rebond est lié à la conjonction de différents facteurs.

Capture d’écran 2018-02-15 à 15.34.52

L’environnement international s’est avéré particulièrement porteur, tant pour les économies émergentes que pour celles avancées (États-Unis, zone euro). L’accélération de l’activité a également bénéficié de la stabilité du prix du pétrole et de la politique accommodante en matière de crédit de la Banque centrale européenne.

Sur le plan intérieur, le secteur de la Construction a retrouvé des couleurs, porté par le fort investissement des ménages en biens immobiliers (+5,2 % en 2017). La production agricole s’est redressée, en lien avec des conditions météorologiques favorables, et l’Industrie a tiré profit de la tonicité de la demande intérieure. Enfin, les Services ont renoué avec le dynamisme qui les caractérisait avant la vague d’attentats qui a touché l’Hexagone en 2016, en particulier dans l’hôtellerie-restauration.

Dans les entreprises, l’investissement productif a poursuivi son redressement (+4,4 % en 2017). Le rétablissement de la situation financière des entreprises, associé à des conditions de financement favorables, à des carnets de commandes regarnis et aux tensions sur l’appareil productif, devraient renforcer ce mouvement.

Seul l’investissement public est en retrait.

Au final, la Formation Brute de Capital Fixe devrait progresser de +3,7 % en 2017. Dans ce scénario, cet enchaînement vertueux se poursuivrait en dépit de la fin de la mesure de suramortissement. Les conditions de reprise tant externes qu’internes seraient durables, avec une croissance de la FBCF systématiquement au-dessus des + 3 % entre 2018 et 2020.

Portée par l’investissement mais également par la consommation des ménages, la croissance hexagonale perdurerait aux alentours de +1,9 % à l’horizon 2020. Cette croissance soutenue s’accompagnerait d’un recul du chômage (9,5 % à fin 2017). À court terme, la baisse des emplois aidés et la fin de la prime à l’embauche dans les PME freineraient la progression de l’emploi, mais la dynamique engagée sur le marché du travail ne serait pas remise en cause (242 000 emplois salariés marchands générés en 2017 et 100 000 attendus au cours du 1er semestre 2018).

Des aléas entourent toutefois cette prévision. Les exportations françaises peinent à constituer un moteur de croissance pérenne. Elles ont, jusqu’à présent, pesé sur l’évolution du PIB, et les mesures censées soutenir la productivité des entreprises exportatrices n’ont pas encore produit pleinement leurs effets. Enfin, la reprise des pays émergents n’offre pas toutes les garanties et leur fragilité pourrait obérer la dynamique du commerce mondial.

En 2018, le nombre de recrutements de cadres augmenterait de plus de 6 % et se situerait au-dessus du seuil des 250 000. Cette prévision se situe légèrement en deçà de la médiane des prévisions des entreprises à fin 2017 (259 500). Si le maintien de ce niveau de croissance se confirmait, le volume de recrutements de cadres atteindrait en 2019 et 2020 des niveaux inégalés.

Capture d’écran 2018-02-15 à 15.36.26

Capture d’écran 2018-02-15 à 15.36.46

Capture d’écran 2018-02-15 à 15.37.03

Source : Apec

Trophées « Chimie Responsable » 2018

Les Trophées « Chimie Responsable » constituent ainsi une opportunité exceptionnelle pour promouvoir les démarches, actions ou réalisations mises en œuvre par vos entreprises et ses collaborateurs, ainsi que par vos sous-traitants. Ils récompensent les initiatives innovantes et exemplaires à travers six catégories :

  • TROPHÉE SANTÉ :

démarches visant à améliorer la santé des salariés, la qualité de vie au travail, les impacts sur la santé liés aux produits…

  • TROPHÉE SÉCURITÉ :

démarches visant à améliorer la sécurité des salariés, celle des installations, des riverains, des produits,…

  • TROPHÉE ENVIRONNEMENT :

démarches visant à réduire l’impact environnemental des installations, de l’activité, des produits, des procédés,….

  • TROPHÉE RESPONSABILITÉ SOCIÉTALE DES ENTREPRISES (RSE) :

démarches globales ou transverses visant à développer la RSE et/ou à ancrer localement son établissement.

  • TROPHÉE ÉNERGIE :

démarches visant à réduire les consommations d’énergie, à améliorer l’efficacité énergétique, …

  • TROPHÉE COUP DE CŒUR 

 

La cérémonie de remise des Trophées « Chimie Responsable » aura lieu le mardi 13 novembre 2018 après-midi, à la Préfecture des Hauts-de-Seine sous la présidence du Préfet Pierre SOUBELET.

Nous espérons vous retrouver nombreux pour cette nouvelle édition qui nous donnera une nouvelle et belle opportunité de valoriser le « vrai visage » de la Chimie !

 

Information pratique :

  • Clôture des dépôts de dossier le 16 avril 2018
  • Dossier de candidature et Règlement 2018 des trophées « Chimie Responsable»  à télécharger ici
  • Contact : Mathilde TIMSIT – [email protected] – 01.46.53.11.88

PETRUS : une nouvelle technique hybride d’imagerie médicale non invasive ultra performante

Des équipes de l’Institut Langevin (ESPCI Paris – Université PSL / CNRS), de l’Accélérateur de Recherche Technologique (A.R.T. Inserm) en Ultrasons biomédicaux et du centre de recherche cardiovasculaire de Paris (Inserm / Université Paris Descartes) ont mis au point un nouvel instrument d’imagerie médicale associant la tomographie par émission de positons – « Pet-scan* » – avec l’imagerie ultrasonore ultrarapide, baptisé PETRUS pour Positron Emission Tomography Registered Ultrafast Sonography. Elles ont obtenu des images en trois dimensions où l’anatomie, le métabolisme, la fonctionnalité et même l’élasticité des organes sont parfaitement superposés.

Les chercheurs ont pu tester leur méthode à partir d’instruments commercialisés et assemblés sans modification majeure. Ils ont notamment imagé des tumeurs cancéreuses chez la souris, ou encore l’activité cardiaque chez le rat afin de tester la synchronisation des deux méthodes et la complémentarité des paramètres observés. Parce qu’elle permet de visualiser simultanément plusieurs paramètres biologiques fondamentaux sous forme de cartes paramétriques quantitatives, cette nouvelle imagerie reflète encore plus finement la complexité de la topologie du vivant.

Cette technique totalement a-traumatique d’observation du vivant en temps réel offre de nombreuses perspectives : explorer le lien entre le métabolisme et la vascularisation d’organes comme le cœur, le rein ou encore le foie, suivre de manière plus précise l’effet des nouveaux traitements sur le cancer, caractériser les suites d’un infarctus, etc. Développée dans un contexte préclinique, PETRUS est une technologie performante aisément traduisible cliniquement pour la recherche biomédicale.

Source : cnrs

Les biotechnologies françaises ont dynamisé le marché au premier semestre 2017

De bons résultats en bourse

Au total, 3 sociétés biotechnologiques ont fait leur introduction en bourse (IPO) au premier semestre 2017 :

  • Inventiva, spécialisée dans les traitements contre la fibrose ;
  • Lysogene, société de développement de thérapies géniques contre les maladies neurodégénératives ;
  • Valbiotis, spécialisée dans l’élaboration de solutions nutritionnelles dédiées à la prévention des maladies cardio-métaboliques.

Ces 3 sociétés ont permis de lever au total 82 millions d’euros avec en tête la société Inventiva qui a réalisé l’IPO la plus importante pour un montant de 48 millions euros selon France Biotech.

Pour le premier semestre 2017, le secteur des biotechnologies représente 55,47% des financements post-IPO ; les biotechs/medtechs françaises ayant levé 273 millions d’euros grâce à ces opérations. Au total, 23 sociétés ont été financées avec en moyenne 11, 8 millions d’euros de financement. Le plus grand cycle de financement s’élève à un montant de 70,5 millions d’euros et est réalisé par Erytech Pharma, une société biopharmaceutique qui développe des thérapies innovantes en encapsulant des médicaments dans les globules rouges.

En outre, cinq biotechnologies françaises arrivent en tête du classement des biotechs/medtechs françaises aux capitalisations boursières les plus importantes :

  • DBV Technologies (1833 million d’euros) ;
  • Genfit (820 million d’euros) ;
  • Cellectis (802 million d’euros) ;
  • Innate Pharma (623 million d’euros) ;
  • AB Science (406 million d’euros).

Les biotechnologies profitent de plus de 80% des financements

Pour le premier semestre 2017, les biotechs/medtechs françaises ont levé 137 millions d’euros grâce à des investissements réalisés par des fonds de « private equity ». Au total, 19 sociétés ont été financées avec en moyenne 7,2 millions d’euros de financement selon France Biotech. Le segment le plus important est, ici aussi, représenté par les biotechnologies avec 81,88% des financements. Vivet Therapeutics, société biotechnologique, arrive à la première place avec un financement de 37,5 millions d’euros conclu pour développer son programme de thérapies géniques pour les maladies métaboliques rares et héréditaires.

En cette fin d’année, plusieurs sociétés biotechnologiques françaises ont dévoilé leurs résultats cliniques pour des traitements phares dans une optique de commercialisation de leur premier produit l’année prochaine. Parmi elles, Cellectis, dont le candidat-médicament UCART19, un anticancéreux fonctionnant avec des lymphocytes T ingénierés, a obtenu des résultats encourageants suite aux essais cliniques de phase 1. C’est aussi le cas d’AB Science qui a récemment publié les résultats des études précliniques sur sa molécule phare, le masitinib.

Ceux-ci mettent en évidence une propriété de résistance de cette molécule à certains types de traitements en cancérologie, dont la gemcitabine.

Ces premières indications devraient relancer les espoirs des investisseurs et permettre de collecter des fonds afin de faire progresser les cibles de développement scientifique dans des domaines thérapeutiques stratégiques.

Par Aliye Karasu

Mobike, service de vélo partagé vraiment durable, déferle à Paris

Créé en avril 2016 Mobike dispose aujourd’hui d’une flotte de plus de 10 millions de vélos et est déjà présente dans 200 villes réparties dans 12 pays du monde entier. Parmi les dernières conquêtes : Manchester le 29 juin (100ème ville), Florence le 21 juillet, Londres le 31 juillet, Sapporo (Japon) le 22 août, Bangkok le 30 août, Washington le 20 septembre, NewCasttle le 25 septembre, Cyberjaya (seconde ville de Malaisie) le 6 octobre, Rotterdam le 9 novembre, Sydney le 14 décembre, Berlin le 22 décembre 2017 et enfin Paris le 24 janvier 2018. Mexico est au programme pour février, tout comme New Delhi, Chennai, Bangalore, Ahmedabad et Indore en Inde.

Les déplacements en vélo constituent une alternative aux transports polluants et permettent d’économiser l’espace urbain. Avant l’avènement du vélo en free-floating dans les villes chinoises, le vélo représentait 5,5% du kilométrage de l’ensemble des modes de transport. Il a maintenant plus que doublé à 11,6%. C’est ce que l’on peut lire dans un rapport récent du Beijing Tsinghua Tongheng Innovation Institute.

Un demi-milliard d’utilisateurs

Mobike (https://mobike.com/global/) offre à présent son service à 200 millions d’usagers dans le monde et souhaite atteindre le cap du demi-milliard pour l’été 2018, selon Davis Wang, son PDG, ex-Directeur d’Uber China. « C’est extraordinaire ! » c’est exclamé le journaliste du magazine Fortune qui l’a interviewé en décembre 2017 (Vidéo).

A Pékin (ville de 20 millions d’habitants), berceau de Mobike, 4 millions de personnes font appel quotidiennement au service proposé. Soit 20% de la population de cette énorme ville, et le double du service assuré par les flottes de taxis.

Mobike a collecté 600 millions de dollars en 2017 (puis un milliard de dollars en janvier 2018) pour financer son développement international exponentiel. Notamment auprès du géant de l’Internet chinois Tencent, de Foxconn, le fabricant taïwanais de l’iPhone, et enfin de Sequoia Capital basé dans la Silicon Valley.

Champion of the Earth

Cette start-up basée à Shangaï a déposé 200 brevets pour développer un vélo particulièrement solide, et donc durable : sans chaîne, sans chambre à air et sans rayons. Une petite révolution technologique. Les vélos Mobike, équipés de systèmes GPS et GSM sont par ailleurs élégants. Un vélo Mobike coûte environ 3 000 yuans (385 euros) à produire. Mobike a établi un partenariat avec  Dow Chemical dans le but de développer des vélos encore plus solides tout en restant légers. « Notre dernière conception de Mobike en Chine utilise les matériaux innovants à base de polyuréthane mis au point par Dow Chemical pour ses pneus d’insertion, réduisant le poids des pneus de 20%, ce qui est impressionnant. »

L’ONU a décerné à Mobike le prix de « Champion of the Earth » à Nairobi le 5 décembre 2017. Le WWF lui a aussi remis un prix. Mobike estime que la durée de ses vélos sera de 4 ans. Mais la start-up n’a tout juste que 2 ans. Les 2 années qui viennent confirmeront, ou pas, cette estimation.

Mobike a publié son second WhitePaper (richement illustré) le 12 janvier 2018. La Licorne chinoise a collecté 30 TeraBytes de données quotidiennes sur une flotte de 8 millions de vélos équipés de GPS et d’appareils connectés IoT. L’analyse porte sur 13 grandes villes: Pékin, Shanghaï, Guangzhou, Shenzhen, Chengdu, Londres, Singapour, Milan, Washington D.C., Sapporo, Berlin et Sydney. » Dans un article publié sur son blog officiel Mobike explique avoir changé les villes grâce au Big Data et à l’Intelligence artificielle.

Les vélos partagés solutionnent la problématique dite « du dernier kilomètre » et renforcent ainsi l’intérêt des transports en commun (métro, RER, train et bus), en permettant une excellente synergie intermodale. Mobike a mis en place à Pékin des « Smart Parkings ».

Des architectes ont également proposé des concepts de parkings innovant pour les secteurs encombrés de vélos :

Le business-model de Mobike fonctionne sans subventions

Les premiers systèmes de vélos partagés avaient recours à des stations dédiées (et particulièrement coûteuses) pour garer les vélos. C’est le cas de Vélib, qui a coûté 16 millions d’euros à la Mairie de Paris durant la seule année 2013. Dans les villes non plates (ce qui est souvent le cas), les vélos sont utilisés pour descendre les rues, et bien plus rarement pour les remonter. Il faut alors déployer des unités logistiques pour rééquilibrer les stations, ce qui est onéreux.

Vélib permet d’offrir une image « green » aux politiques qui permettent son financement, car les vélos sont bien visibles par tous à Paris. Il s’agit clairement d’affichage. « Delanoë lui a largement dû sa réélection en 2008 » estime Serge Federbush dans un article publié dans Atlantico.fr. « Le fait que ce joujou extrêmement dispendieux coûtait près de 3000 euros par an et par vélo aux contribuables parisiens était soigneusement passé sous silence. De même que les scandaleux avenants dont Decaux a bénéficié pendant des années, tondant la laine sur le dos de la mairie. Mais Hidalgo, là comme ailleurs, a voulu faire plus que Delanoë. Elle a donc fait pire. »

Par opposition au système Vélib les vélos en free-floating ne sont, par définition, pas contraints d’être stationnés au niveau de stations dédiées. Une fois une appli téléchargée sur son smartphone, on peut détecter les vélos dans le voisinage grâce à la géolocalisation. Un clic sur son smartphone suffit à déverrouiller le cadenas.

Mais recourir à des vélos classiques pour faire du free-floating n’était manifestement pas une bonne idée : trop fragiles, les vélos Gobee ont été largement vandalisés. « Avec ses vélos sans borne, Gobee veut ringardiser Vélib » titrait Capital.fr le 26 décembre 2017.  Mais la start-up originaire de HongKong a dû se retirer de Lille et Reims et de Bruxelles le 9 janvier 2018 trois mois après son déploiement en France en octobre 2017. A Reims sur 400 vélos Mobike il n’en restait plus que 20 en état de marche. Elle est toujours présente à Paris et à Lyon, mais son business-model manque de robustesse, plombé par la fragilité des vélos mis à disposition.

« Nous avons dû affronter la triste réalité que notre vision de la mobilité n’était pas partagée par une minorité déterminée à nuire, et nous ne pouvons plus supporter ni le coût financier ni le coût moral des réparations » a déclaré Gobee dans un communiqué du 9 janvier 2018.

En Chine les vélos dégradés s’entassent dans les rues. D’impressionnantes photos de vélos empilés ont diffusé dans les médias et sur les réseaux sociaux, ce qui a nuit à l’image du free-floating et du bike-sharing dans son ensemble.  Dans un article particulièrement fouillé la journaliste Céline Deluzarche dresse un panorama assez apocalyptique du vélo partagé en free-floating dans le monde, et pose la question : « Vélo libre service : la bulle est-elle en train d’éclater ? »

Selon Emmanuel Nedelec, chez Ubeequo, un spécialiste de l’autopartage en entreprise « Le système de free-floating coûte plus cher à opérer qu’une service à station ». C’est probablement valable pour les systèmes de free-floating à base de vélos standards. Mais peut-être pas pour les flottes de vélo adaptées à la violence de l’environnement urbain. Les innovations apportées par Mobike, fruit du retour d’expérience chinois, pourraient constituer la clé du succès. Le PDG de Mobike affirme qu’il s’agit d’un business très rentable.

Le 24 janvier 2018 Mobike a délivré 1000 vélos à Paris. 3000 le seront à partir de la semaine du 29 janvier. Dans quelques mois l’objectif est d’offrir « plusieurs dizaines de milliers de vélos »  selon Mobike. Les 25.000 emplacements des parcs à vélo de la ville de Paris sont potentiellement utilisables, mais Mobike demande à la Ville de Paris d’en installer bien davantage.

Concernant les vélos mal garés ou dégradés et abandonnés sur la voie publique, ce ne sont pas les start-ups qui sont responsables, mais les usagers.

Des bâtons dans les roues de la part de la Ville de Paris ?

Ce développement massif et ultra-rapide de Mobike pourrait porter un coup fatal à Vélib 2 (Smovengo) dont le tiers de la flotte est électrifié, ce qui implique au niveau des stations de recharge des raccordements électriques aux délais parfois rallongés. Sauf si la Mairie met en place une règlementation favorisant son bébé gavé d’argent public. Les pouvoirs publics n’ont pas vraiment intérêt à le voir concurrencé. La collectivité voudrait imposer aux opérateurs de vélos sans borne d’acquitter une redevance pour occupation de l’espace public.

Si les 3 opérateurs (Gobee, Ofo et Obike) de free-floating qui existent à Paris pourraient souffrir d’une telle mesure, elle ne semble pas effrayer Mobike : « Payer une redevance, pourquoi pas si avec cet argent la mairie transforme 5000 places de parking pour voitures en parking à vélos », estime Étienne Hermite, directeur de Mobike France. De quoi garer plus de 50.000 vélos.

N’est-il pas aberrant de vouloir faire payer une redevance à ces sociétés qui ne demandent pas un seul centime à la collectivité et qui lui rendent service en réduisant le nombre de voitures et donc la pollution de l’air et l’encombrement urbain ? Et si les 16 millions annuels que coûte Vélib étaient utilisés pour installer des aires de parking pour vélos ? Les entreprises qui louent des voitures ne payent pas de redevance pour les places de parking publiques occupées par les loueurs. Et il n’y a pas des places de parking spécifiques pour ce type de voitures.

Selon Xue Ding, confondateur d’Ofo, « si vous ne pouvez vous stationner que dans des endroits spécifiques, c’est revenir à l’ancienne ère du vélo-partage. Le Japon va peut-être commencer par cet extrême, tout comme la Chine a commencé avec l’autre extrême avec aucune restriction de stationnement. En fait l’équilibre est quelque part entre les deux. »

Leçon chinoise

Il n’est pas impossible que l’entreprise montpelliéraine qui galère actuellement à mettre en place Velib 2 à Paris fasse faillite. « Non seulement plus de 90 % des stations sont inutilisables, mais l’informatique ne fonctionne pas et le service aux abonnés découragerait les plus acharnés » s’indigne la journaliste Sophie Coignard dans un article intitulé « Kafka à bicyclette ». La Mairie de Paris a annoncé le remboursement intégral de l’abonnement du mois de janvier aux usagers (et les mois de février et mars pourraient être également concernés). L’élue a aussi agité la menace de lourdes pénalités, de l’ordre du million d’euros.

Mobike (qui a proposé une fusion avec Ofo) pourrait alors devenir alors le roi du vélo partagé à Paris. Et dans le reste du monde. Même s’il ne faut pas vendre la peau de l’ours, Velib 2 serait alors un « accident industriel », un « cauchemar », selon les maux de Charles Manguin, président de l’association cycliste « Paris en Selle».

Jean-Gabriel Marie

Logiciels et applications mobiles : le casse-tête de la conformité avec le RGPD

Même s’il existe déjà tout un arsenal juridique protégeant les données personnelles des consommateurs et des internautes, le RGPD devient un peu plus contraignant. Tout repose sur la définition d’une donnée à caractère personnel. Il s’agit de toute information permettant d’identifier une personne : nom, prénom, date de naissance, numéro de téléphone privé, mais aussi adresse IP, biométrie…

Une acception suffisamment large pour apparaître comme un casse-tête pour les éditeurs de logiciels et d’applications pour smartphone. Le texte européen prévoit notamment que toute personne peut récupérer l’ensemble de ses données personnelles auprès de n’importe quelle entreprise qui en possède.

L’ensemble de ces données doit impérativement être dans un format standard pour respecter l’interopérabilité.

Or, tout le monde n’est pas prêt à être en conformité avec le RGPD validé en 2016 ! Selon une étude de SafeDK, plus de la moitié des applications sur Play Store ne seraient pas conformes au RGPD.  Ce cabinet, spécialisé dans l’utilisation des kits de développement logiciel (SDK) dans les applications mobiles, s’est appuyé sur l’analyse approfondie de centaines de milliers d’applications populaires de Google Play.

La transparence de Microsoft

Bilan ? Plus de la moitié (56 %) des applications ont au moins un SDK qui essaye d’accéder à l’emplacement de l’utilisateur. Deux applications sur cinq ont au moins un SDK qui tente d’obtenir la liste des applications installées sur le dispositif de l’utilisateur, tandis que 29,3 % des applications cherchent à obtenir la liste des contacts de l’utilisateur. Or, les informations personnelles ne sont protégées par aucune option permettant à l’utilisateur d’accorder ou non ce recueil.

SafeDK remarque cependant que l’accès aux données privées des utilisateurs tend à diminuer. Cette évolution positive témoignerait de la volonté d’éditeurs de se préparer à cette nouvelle réglementation. Elle s’explique aussi par la pression de Google qui a jouté de nouvelles règles détaillées sur le Play Store fin 2017.

Elles indiquent que les développeurs doivent « faire preuve de transparence quant à la façon dont vous gérez les informations sur l’utilisateur […] y compris en publiant les méthodes de collecte et de partage de ces informations, ainsi que la façon dont vous les utilisez ». Google insiste : ils doivent « limiter l’utilisation de ces données au cadre ». Reste à savoir si ces nouvelles règles s’appliqueront aussi à Google…

De son côté, Apple prône une approche de type « differential privacy » : les données seraient anonymisées lors de leur traitement. Mais il collectera et traitera des données en lien avec photos, email, contacts, calendar, iCloud Drive. La raison ? l’amélioration de ses produits et services en utilisant, de manière confidentielle, les données des comptes iCloud. Bref, pour conserver une vie privée sous iOS, mieux vaut ne pas utiliser iCloud…

Même constat pour Microsoft qui veut mettre en avant son souci de transparence. Le géant entend assurer que les données qu’il recueille sont utilisées pour améliorer ses produits et non pas pour suivre l’activité de ses utilisateurs…

Début février, l’éditeur a intégré une application permettant de constater les données collectées depuis Windows 10 (via le composant « Connected User Experience and Telemetry »). Cette option existe déjà pour les professionnels. La version « Diagnostic Data Viewer » sera destinée à un usage plus grand public.

Selon ZDNet, la plupart des données de diagnostic appartiennent à l’une des cinq catégories suivantes :

  • Les données communes incluent la version du système d’exploitation et un ID terminal unique ;
  • Les données de connectivité et de configuration des périphériques ;
  • Les données Produit et Performance service comprennent les événements de performances et de fiabilité et des informations sur la santé du poste de travail ;
  • Les données d’utilisation du produit et du service, c’est à dire sur Windows et les logiciels ;
  • Les données de configuration avec entre autres des détails sur les applications installées et les mises à jour du terminal.

D’autres options permettent de supprimer l’historique de navigation, l’historique de recherche, les données de localisation enregistrées, les données vocales et l’activité de santé .

Philippe Richard

Marie-Galante, l’autonomie énergétique en 2020 ?

Marie-Galante est une petite île de 158 km2 et de 11.000 habitants en plein cœur du bassin caribéen. Actuellement, plus des deux tiers de l’électricité qui y est consommée est importée de Guadeloupe par un câble sous-marin, avec un mix électrique carboné à plus de 85 %. Deux projets énergétiques s’y opposent pour préparer l’avenir de l’île. D’un côté, un projet de centrale thermique porté par le producteur d’énergie français Albioma. Il nécessiterait l’importation de 45.000 tonnes de bois chaque année, en provenance des Etats-Unis et du Canada. De l’autre, un projet d’autonomie avec des énergies renouvelables locales, portée par la Compagnie Nationale du Rhône (CNR).

Pour 100% d’énergies renouvelables locales

Maryse Etzol, maire de Grand-Bourg et présidente de la Communauté de communes de Marie-Galante était au 19e colloque du Syndicat des Energies Renouvelables le 8 février. Elle y a vanté les mérites du projet d’autonomie énergétique de cette petite île portée par la CNR. « J’ai mené un combat tout au long de l’année dernière contre l’Etat et la région pour ne pas accepter l’importation de bois venant du Canada et des Etats-Unis à Marie-Galante, rappelle Maryse Etzol. Nous voulons utiliser uniquement la biomasse locale pendant la période de la récolte ».

Le projet qu’elle défend a été le seul projet d’outre-let lauréat en 2016 de l’appel d’offres  « Démonstrateurs industriels pour la ville durable » du précédent ministère de l’Environnement. Il repose sur trois axes : l’autonomie énergétique, l’autonomie alimentaire et le développement du numérique. L’objectif de ce démonstrateur vise notamment à rendre l’île autonome grâce à un mix électrique renouvelable et un modèle de sobriété, tout en développant les véhicules électriques. Ce projet associe 4 mégawatts (MW) de photovoltaïque et d’éolien avec stockage avec une centrale thermique de 4 MW et reposant exclusivement sur la bagasse locale, un résidu obtenu après le broyage de la canne et utilisé comme combustible. Il prévoit aussi le déploiement de véhicules électriques et de bornes de recharge.

La production et la consommation sont pilotées par une centrale virtuelle, grâce à un réseau électrique intelligent. Pour développer cette centrale virtuelle, le CNR a signé un accord de collaboration avec le CEA en juin 2017. Il s’agit de créer une vitrine des technologies françaises pour la transition énergétique dans les zones insulaires. La Commission européenne soutient d’ailleurs le projet et veut dupliquer le modèle aux îles européennes.

Remplacer le bois par les déchets ?

Le projet Albioma visait à construire une centrale thermique de 12 MW adossée à l’usine sucrière de l’île. Le bois importé aurait complété la bagasse issue de la canne à sucre en dehors des périodes de récolte. Le projet de la CNR vise un projet alternatif de 4 MW utilisant exclusivement la bagasse de l’usine sucrière.

Jean-François Carenco, Président de la Commission de régulation de l’énergie (CRE), était en Guadeloupe début février. Il y a annoncé qu’il n’y aurait finalement pas d’importation de bois à Marie-Galante. Il estime toutefois qu’il ne faut pas opposer les projets des deux sociétés, car ils peuvent désormais être complémentaires. Et il préconise sur FranceInfo une centrale de 7,5 MW, ayant recours aux déchets ménagers pour compléter la bagasse.

Quel avenir pour Marie-Galante ?

En coulisses, se jouent les orientations stratégiques pour l’avenir de l’île. Le projet Albioma vise à consolider la filière sucre. Les acteurs de la filière estiment en effet qu’un projet de centrale thermique de grande taille est indispensable à la rentabilité de l’usine. Du côté de la communauté de communes, le projet alternatif s’inscrit dans une transition écologique, énergétique et numérique plus globale. Il vise à rendre les infrastructures locales résilientes au changement climatique, diversifier l’agriculture et aller vers l’agriculture biologique. Le projet promeut également le tourisme durable, grâce à paysages exceptionnellement préservés. Afin de lutter contre le chômage des jeunes qui atteint 60 %, l’objectif est enfin de créer un centre de ressources et de compétences numériques et former les jeunes marie-galantais aux métiers de demain.

Pour réaliser ce projet de transition énergétique et écologique, une société par actions simplifiée (SAS) a été créée avec au capital, la communauté de communes de Marie-Galante, Vinci construction, la CNR et le cabinet d’avocats Maryse Coppet. « Nous sommes en pourparlers avec les autres opérateurs du territoire pour qu’ils intègrent cette SAS, car nous voulons que cela profite à Marie-Galante », prévient Maryse Etzol.

Par Matthieu Combe, journaliste scientifique

Acidité des océans : quel sera l’impact de variations saisonnières plus marquées ?

Neuf modèles climatiques globaux, dont deux français, établissent que les variations d’acidité entre été et hiver devraient augmenter dans toutes les régions océaniques au cours du siècle à venir. Dans les régions tropicales et subtropicales, les organismes marins sont exposés pendant l’été à un surcroît d’acidité associé à la hausse estivale des températures. Dans les régions océaniques plus froides, les variations sont inversées, les mécanismes dominants étant la photosynthèse l’été (puits de CO2) et la dégradation de la matière organique l’hiver (source de CO2).

Les scientifiques estimaient jusqu’alors que cette variabilité saisonnière favorisait la capacité d’adaptation des organismes aux changements à plus long terme, notamment la hausse de l’acidité causée par l’augmentation du CO2 dissous, associée au réchauffement climatique. Cependant, ils montrent que des fluctuations saisonnières de plus grande amplitude affecteront négativement cette capacité d’accoutumance, contrebalançant ainsi ce relatif optimisme. Les chercheurs ont confronté leurs simulations des variations saisonnières de l’acidité de l’océan aux mesures des fluctuations quotidiennes (jour-nuit) de pH d’un réservoir d’eau de mer représentatif. Pour cela, ils ont exploité des mesures de pH effectuées en continu sur deux sites marins voisins de la baie de Naples, l’un représentant l’océan actuel et l’autre celui attendu en 2100, le bouillonnement volcanique y augmentant localement le CO2 dissous.

Résultat : la différence jour nuit de l’acidité du site perturbé est environ le double de celle du site de référence, en accord avec les simulations. Ces modèles ont également permis de réaliser des projections sur un indicateur de « calcification », le processus par lequel les coraux et les organismes à coquille produisent leur matériel squelettique, montrant que les conditions estivales pourraient finalement devenir moins propices à la formation des coraux et des coquilles carbonatées dans la majeure partie des océans.

Source : cnrs

Les entreprises à l’assaut de la nouvelle économie de l’énergie

Outils classiques

L’étude, porte sur 236 grandes entreprises du monde entier réalisant un chiffre d’affaires supérieur à 100 millions de dollars. Elle révèle que 85% d’entre elles prévoient de mettre en œuvre dans les trois ans à venir des mesures pour que leurs programmes de réduction d’émissions de CO2 demeurent « au niveau des meilleurs standards industriels ». Cependant, les projets initiés ou en développement se concentrent fortement sur la réduction des déchets et des consommations d’eau et d’énergie, se désole Schneider Electric, gros fournisseur d’équipements et d’automatisme pour la gestion de l’énergie.

Les résultats montrent que 81% des entreprises ont mis en œuvre des actions sur  l’efficacité énergétique ou envisagent de le faire dans les deux ans à venir ; et 51% ont réalisé ou envisagent de développer des projets d’énergies renouvelables. Les solutions plus complexes de type stockage d’énergie, microgrids, ou encore cogénération sont moins bien connues des entreprises et donc logiquement peu plébiscitées (30%). Enfin, seules 23% ont ou envisagent à court terme des stratégies d’effacement électrique. En clair, les entreprises privilégient des solutions connues, bénéficiant d’un bon retour d’expérience, et surtout rentables.

Les hyper en pointe

Ces statistiques globales ne rendent pas bien compte des fortes disparités entre secteurs et acteurs dans l’intégration de la nouvelle économie de l’énergie. Les grandes surfaces (supermarchés, hypermarchés) par exemple sont en pointe sur l’installation de panneaux photovoltaïques. Disposant de grands terrains fonciers et de larges toitures, les professionnels de la distribution ont bénéficié à plein des aides de l’Etat, notamment à travers les dispositifs d’autoconsommation.

Les grandes surfaces ont remporté une large part des projets attribués dans le cadre des deux appels d’offres de 20 MW chacun organisé par la Commission de régulation de l’énergie (CRE). Les hyper et supermarchés ont représenté près de la moitié des 72 lauréats désignés en novembre 2016 et le tiers en mars 2017. « Les aides permettent de gagner deux ans de retour sur investissement », indique Richard Loyen à nos confrères des Echos. L’investissement serait amorti entre 8 et 10 ans. Outre les toitures, ces magasins développent aussi des ombrières solaires sur leur parking leur permettant à terme d’imaginer l’installation de bornes de recharge pour véhicules électriques, afin d’attirer davantage de clients potentiels. D’autres appels d’offres, cumulant 450 MW, sont prévus dans les trois ans à venir pour soutenir cette dynamique.

Coordination et gestion des données

Le rapport évoque les obstacles auxquels sont confrontés les entreprises. La mauvaise coordination des acteurs en interne apparaît comme une difficulté majeure. 61% des entreprises interrogées déclarent que leurs décisions en matière d’énergie et de développement durable souffrent d’un manque de coordination entre les fonctions concernées. La création de postes transversaux est vue comme une solution qui peut faciliter la communication entre les départements.

La gestion des données est également citée comme un autre obstacle à une gestion intégrée de l’énergie. Environ 45% des entreprises interrogées déclarent que la gestion de leurs données est disséminée à des niveaux locaux ou régionaux. Parmi les entreprises considérant « le manque d’outils et d’indicateurs pour le partage des données et l’évaluation des projets » comme un problème entravant la collaboration entre les départements, 65% gèrent leurs données à un niveau local, régional ou national, et non à un niveau mondial.

« Il est essentiel de disposer de données et de renseignements exploitables. Mais ce que l’on fait de ces données une fois qu’elles sont en notre possession est tout aussi important », conclue Neil Johnston, directeur des opérations techniques d’Iomart, spécialiste des services en cloud computing.

Romain Chicheportiche

Les cryptomonnaies : phantasmes et réalités

C’est connu, les médias ne parlent que des « trains qui arrivent en retard » ! Logiquement, ils s’intéressent beaucoup au Bitcoin en ce moment, car son cours est en chute libre. Il valait 16.000 dollars début janvier. Le 6 février, il n’en valait plus que 6.400 dollars. D’autres monnaies comme Ethereum et Ripple ont connu ces derniers jours un coup de fatigue.

Comme pour l’argent « réel », les financiers et autres spéculateurs n’aiment pas les mauvaises nouvelles (ni d’ailleurs les situations idéales comme en ce moment avec le mini-krach boursier). Il est vrai que le piratage de la plate-forme d’échanges japonaise Coincheck n’est pas rassurant. Fin janvier, la société a perdu l’équivalent de quelque 530 millions de dollars dans le piratage d’actifs en NEM (acronyme de New Economy Movement). C’est à ce jour le vol le plus important dans l’histoire des cryptomonnaies.

Micro paiements

Mais la situation est aussi mal interprétée par des non-spécialistes. Il y a quelques jours, l’une des plus importantes plates-formes de transactions en cryptomonnaies, CoinMarketCap.com, a décidé de ne plus prendre en compte dans son calcul de prix les cours du marché sud-coréen (Bithumb). Résultat, Ripple de 40 %. « Regardez attentivement les données et ne vous laissez pas tromper », a tenu à rappeler David Schwartz, chef cryptographe chez Ripple.

La réalité est donc parfois mal comprise. Et il y a les phantasmes autour de ces monnaies. Leur principale source remonte à 2013. Cette année-là, le FBI ferme le site Silk Road qui s’appuyait sur le Bitcoin pour vendre de la drogue. Aussitôt, de nombreuses voies affirment que ces monnaies virtuelles ne servent qu’à acheter de la drogue et des armes ! Une vision caricaturale.

Ces monnaies doivent être considérées comme une base pour « construire » des services décentralisés et plus sécurisés. Ainsi, le Bitcoin est à la fois une monnaie, un réseau et un protocole open source. Il existe tout un écosystème autour de ces monnaies qui présentent toutes des particularités.

Créé en juillet 2015, l’Ethereum repose sur un réseau opérateur, un registre des transactions (une Blockchain) et une cybermonnaie dénommée l’Ether. Il donc aussi employé pour créer et exécuter des « smart contracts ». Il s’agit de programmes informatiques décentralisés et hébergés au sein d’une Blockchain.

De son côté, Ripple (créé en mai 2012) est un système de paiement en mode P2P et un logiciel permettant des transferts de fonds à moindres frais. Une soixantaine d’institutions financières l’utilisent parmi lesquelles UBS et UniCredit.

Apparu en juin 2014, NEM (développé par la Fondation Nem.io) permet aussi de transférer de l’argent au sein de cet écosystème. Mais elle propose aussi une messagerie P2P sécurisée (protocole de chiffrement).

Quant à IOTA, lancé en octobre 2015 par une start-up spécialisée dans les microprocesseurs pour des objets connectés (d’où la référence à l’internet des objets – IoT, « Internet of Things »), il est adapté aux gros volumes de micropaiements sans frais (car peu de ressources utilisées).

Par Philippe Richard

Linky: l’ardoise salée pour les consommateurs ?

« L’analyse bénéfices-coût au niveau de la distribution ne peut à elle seule justifier économiquement le projet et, en l’état actuel des travaux, le système n’apportera pas les bénéfices annoncés en ce qui concerne la maîtrise de la demande d’énergie », estime la Cour des comptes. En effet, l’investissement total pour remplacer l’ensemble des compteurs électriques Linky par Enedis et quelques autres distributeurs est évalué à 5,67 milliards d’euros. La fourniture du compteur représente un tiers de ce coût et sa pose un autre tiers. Le dernier tiers correspond aux autres éléments du dispositif, notamment les systèmes d’information et les adaptations du réseau électrique. Avec l’ensemble des systèmes nécessaires, chaque compteur coûte donc 130 euros.

90 % du parc de compteurs Linky devrait être installé fin 2021 et 100 % fin 2024. En septembre 2017, l’avancement du déploiement était conforme aux prévisions, avec 6,3 millions de compteurs installés, soit 17,4 % du parc total. « Le coût prévisionnel de la phase de déploiement massif sera tenu », estime la Cour des comptes qui dénonce toutefois « un dispositif coûteux pour le consommateur mais avantageux pour Enedis ».

Des conditions avantageuses pour Enedis ?

Le rapport remet en cause le principe du différé tarifaire mis en place. Celui-ci fait en sorte que le distributeur avance les coûts de déploiement de Linky. L’objectif de ce dispositif est que le surcoût ne soit répercuté aux consommateurs que lorsque la majorité d’entre eux bénéficieront des bénéfices du compteur. Mais cette avance sera bien intégralement remboursée par les consommateurs à partir de 2021. « Le taux d’intérêt de cette avance est de 4,6 % et les intérêts s’élèvent à 785 millions d’euros au total sur la période 2015- 2030, soit en moyenne 49 millions d’euros par an », calcule la Cour des Comptes.

Concrètement, Enedis finance 3 millions de compteurs sur fonds propres et 31 millions de compteurs par un prêt intragroupe au taux de 0,77 % adossé à un financement de la Banque européenne d’investissement (BEI).« Enedis bénéficie donc d’un différentiel de rémunération de 3,83 %, pour la part financée par le prêt intragroupe », observe la Cour. Ainsi, le surcoût pour les usagers pourrait être de l’ordre de 506 millions d’euros. Des primes sont également prévues si Enedis respecte les coûts, les délais et les niveaux de performance. Au final, la rémunération d’Enedis pourrait s’élever entre 10 % et 11 %, avec une rémunération minimale prévue par contrat à 5,25 %. L’investissement, remboursé par les consommateurs, sera donc très rentable pour Enedis.

Un bilan économique presque nul payé par les consommateurs

Le contrôleur des comptes publics demande donc de faire évoluer le dispositif de différé tarifaire pour en réduire le coût pour le consommateur. Il souhaite aussi faire réduire les primes qui pourraient être accordées à Enedis, au regard de la forte rémunération prévue. Dans une lettre, la Commission de régulation de l’énergie (CRE) rejette toutefois cette idée. « Une modification a posteriori du dispositif de différé tarifaire ou de la rémunération d’Enedis créerait un précédent en termes d’insécurité juridique quant à la portée des décisions du régulateur », prévient-elle.

Pour Enedis, les gains attendus au niveau de la production, de la commercialisation et de la consommation apportés par le déploiement de Linky sont à la hauteur des investissements. Au niveau de ce seul distributeur, le bilan économique devrait être nul, tout au plus légèrement négatif de 200 millions d’euros. Autrement dit, sur les 5,3 milliards d’euros payés par les consommateurs à Enedis, ils dépenseraient 200 millions d’euros en plus par rapport au statu quo. En revanche, les consommateurs pourraient bénéficier en contrepartie de gains largement supérieurs.

Des gains pour les consommateurs ?

Finalement, ce sont les gains potentiels pour les usagers qui seraient les plus importants. Ils pourraient atteindre 9,2 milliards d’euros, essentiellement grâce à l’amélioration de la concurrence, la valorisation de la télé-relève et des télé-opérations. Sans oublier la baisse de la consommation résultant de la maîtrise de la demande de l’énergie.

Toutefois, la Cour des comptes note que les moyens actuellement mis en place pour réellement atteindre ces gains potentiels sont largement insuffisants.Elle invite donc les pouvoirs publics, les distributeurs et les fournisseurs à développer les actions de maîtrise de la demande d’énergie et à contribuer à maîtriser la demande de pointe. Cela passe notamment par le développement de moyens simples pour communiquer la consommation détaillée aux particuliers et définir de nouvelles offres. En particulier, la juridiction financière incite les fournisseurs à définir des plages tarifaires plus nombreuses et variées, pour aller au-delà du traditionnel heures pleines/heures creuses. Enfin, elle invite l’ensemble des acteurs à une meilleure communication pour rassurer la population. Celle-ci devra porter sur l’absence de risques sanitaires et la protection des données personnelles.

Par Matthieu Combe, journaliste scientifique

Bioéthique : Ouverture des Etats généraux pour une révision de la loi

Au programme, sept thèmes scientifiques et deux thèmes sociétaux

C’est inscrit dans la loi : tous les 7 ans, la loi de bioéthique fait l’objet d’une révision qui s’accompagne d’un débat public sous forme d’états généraux orchestrés par le CCNE (Comité Consultatif National d’Ethique), une institution indépendante créée en 1983. Cette discussion a pour vocation de solliciter la participation de l’ensemble des parties prenantes (citoyens, scientifiques, autorités religieuses, associations) avec pour but de faire émerger un avis représentatif de la société sur une série de neufs grands thèmes de bioéthique relevant de deux axes. Le premier axe regroupe les questions éthiques soulevées par les progrès issus de la recherche scientifique et technologique, et comprend les 7 thèmes suivants :

    • la Reproduction, le développement embryonnaire et les cellules souches ;
    • la Génétique et la génomique ;
    • les Dons et transplantations d’organes ;
    • l’Intelligence artificielle et la robotisation ;
    • les Données de santé ;
    • les Neurosciences ;
    • la thématique Santé et environnement.

Le second ensemble répertorié par le CCNE rassemble « des domaines où les opinions de la société ont pu évoluer et qui interrogent de façon directe la société que l’on souhaite pour demain ». On y retrouve deux thèmes sociétaux forts : les questions liées à la procréation avec l’ouverture de la PMA aux couples de femmes et celles liées à la fin de vie avec une éventuelle « légalisation de l’assistance au suicide, lorsque l’estimation du pronostic vital est inférieure à six mois ».

Les lois de bioéthiques depuis 1994

Les premières lois de bioéthiques en France datent de 1994 ; depuis elles sont révisées au gré des progrès scientifiques et de l’évolution des mentalités. Cette même année, deux lois avaient été votées : des lois relatives au respect du corps humain qui posent trois fondements éthiques : « inviolabilité du corps humain, impossibilité pour le corps humain d’être l’objet d’un droit patrimonial évaluable en argent, obligation du consentement » et une loi organisant le don et l’utilisation des éléments et produits du corps. En outre, une autre loi de juillet 1994 a permis de définir les règles juridiques et administratives qui encadrent les données médicales nominatives. Dix ans plus tard, la loi de 2004 apporte des innovations telles que l’interdiction du clonage d’un être humain ou la limitation de la recherche sur les embryons et elle permet une extension des principes de la loi de 1994 régissant le don en généralisant le consentement présumé. La loi de 2011 avait abouti à l’autorisation de la congélation des ovocytes ultra rapide dans un cadre très rigide ainsi qu’au don croisé d’organes en cas d’incompatibilité entre proches. C’est cette même loi qui va faire l’objet d’une révision en 2018.

Par Aliye Karasu

100% de gaz renouvelable en 2050 ?

Il serait possible de couvrir entièrement la demande française de gaz naturel de réseau par des alternatives renouvelables d’ici 2050. C’est le principal enseignement de cette étude prospective. À cet horizon, les gains d’efficacité énergétique et la baisse de la demande énergétique devraient amener la demande en gaz de réseau entre 276 et 361 térawattheures (TWh), contre 460 TWh aujourd’hui.

Le potentiel théorique de ressources renouvelables permettrait de produire jusqu’à 460 TWh de gaz renouvelable injectable.  Et cela, sans entrer en concurrence avec les usages alimentaires, pas plus qu’avec les usages « matières premières », notamment l’industrie du bois et les biomatériaux. 30 % de ce gaz pourrait être obtenu par méthanisation de déchets agricoles, de biodéchets et de résidus d’algues. Par ailleurs, 30 % de gaz renouvelable pourrait provenir du power-to-gas si le mix électrique est 100 % renouvelable. Enfin, la majorité proviendrait de la pyrogazéification – un processus thermochimique – du bois et de ses dérivés, des combustibles solides de récupération (CSR) et d’une faible fraction de résidus agricoles.

Entre 75 % et 100 % de gaz renouvelable

Dans les quatre scénarii étudiés, il est donc possible d’amener la production de gaz renouvelable entre 276 et 361 TWh en 2050. Simplement, l’un des scénarios prévoit un développement plus faible du power-to-gas en raison de ses coûts élevés. Il ne projette donc que 75 % de gaz renouvelable en milieu de siècle.

Les organismes ont fait une évaluation du coût total du mégawattheure (MWh) 100% renouvelable consommé. Il se situerait entre 116 et 153 euros. Ces coûts comprennent ceux de production, de stockage, d’utilisation et d’adaptation des réseaux gaziers. En 2050, le rapport estime le prix du gaz naturel à 42 €/MWh. Une taxe carbone à 200 € la tonne de CO2 rehausserait ce prix de 44 €/MWh soit un prix total de 86 €/MWh. À l’opposé, passer à 100 % de gaz renouvelable permettrait d’éviter l’émission d’environ 63 millions de tonnes de CO2 par an.

mix-gaz
Mix de gaz renouvelable dans les 4 scénarios. EnR&R = Énergies Renouvelables et de Récupération

Des scénarii prospectifs qui invitent à l’action

Les organismes rappellent l’importance d’assurer la complémentarité du réseau gazier avec le réseau électrique dans le cadre de la transition énergétique. Notamment, le power-to-gas permettra de stocker sous forme de gaz les excédents de production d’électricité renouvelable. Il pourra être utilisé dans le réseau gazier ou dans des centrales thermiques en période de pointe de consommation.

« Pour que ces potentiels soient accessibles en 2050, il sera nécessaire de lever les freins à la méthanisation agricole, de généraliser les cultures intermédiaires (cultures temporaires qui protègent les sols entre deux cultures de vente), de mobiliser davantage de ressources agricoles et forestières et de favoriser l’émergence de technologies à fort potentiel mais peu matures (pyrogazéification, gazéification des algues etc.) », prévient l’ADEME.

Par Matthieu Combe, journaliste scientifique

Le Kazakhstan se tourne (un peu) vers les renouvelables

Un appel d’offres en mai

Gani Sadibekov, le vice-ministre de l’Energie kazakh, a annoncé qu’un appel d’offres sera organisé en mai pour installer 1 GW d’énergies renouvelables dans le pays. Aujourd’hui les Enr ne représentent que 1% de la production d’électricité. Une part que le gouvernement s’est engagé à élever à 30% en 2030 et 50% en 2050. Des objectifs ambitieux qui s’appuient sur la chute des coûts des Enr et un potentiel très important. En effet, l’exploitation du potentiel éolien des seules régions capitale et Fort-Shevchenko  (5% du territoire) suffirait à couvrir les besoins électriques du pays. Cette annonce intervient quelques mois après l’Expo 2017 Astana Future Energy, qui avait pour but d’attirer les investisseurs sur ce marché naissant.

Autre argument en faveur d’un renouvellement du mix électrique : l’âge des centrales. Ces dernières, à 85% alimentées par des énergies fossiles, ont pour la plupart été construites sous l’ère soviétique. Le parc affiche aujourd’hui une moyenne d’âge de 35 ans. Or, les récents appels d’offres internationaux (Mexique, Abou Dhabi, Chili, Arabie Saoudite) ont battu tous les records en terme de prix. De plus, la guerre commerciale qui a fait rage dans le secteur mondial photovoltaïque s’est traduite par une surproduction de la production chinoise de panneaux solaires qu’il faut bien écouler. Des arguments qui peuvent expliquer l’intérêt d’Astana pour rééquilibrer son parc électrique.

Etat rentier

Cette campagne de communication gouvernementale ne doit pas faire oublier que le Kazakhstan reste avant tout un pays dépendant du pétrole. Il représente 50% du PIB auxquels il faut ajouter l’industrie extractive. En effet, ce pays d’Asie recèle de nombreux minerais, notamment de l’uranium dont il est de loin le premier producteur mondial. Il est d’ailleurs un des fournisseurs des centrales nucléaires françaises, Orano (ex-Areva) exploitant les mines de Muyunkum et Tortkuduk avec l’entreprise publique locale Kazatomprom depuis 1996.

Les ressources naturelles abondantes du Kazakhstan l’ont posé de fait comme un fournisseur multi-énergies. Il exploite toutes les énergies fossiles (gaz, pétrole, charbon), participe au nucléaire grâce à l’uranium, et mise désormais sur l’installation d’énergies renouvelables, avant peut-être d’en produire.

Romain Chicheportiche

Stockage de l’énergie : une nouvelle approche des batteries à sels fondus

Dans la compétition technologique en cours pour s’imposer comme solution au stockage de l’énergie intermittente sur les réseaux d’électricité, des chercheurs du MIT viennent de remettre dans la course un accumulateur sodium-chlorure de nickel dont le concept n’avait eu que peu de succès en raison de la fragilité de la membrane intérieure.

De la céramique au treillis métallique

Le principe chimique des batteries sodium-sulfure ou sodium-chlorure de nickel est connu depuis la seconde guerre mondiale. Le modèle de base Na-NiCl2 a été conçu avec une membrane céramique fine, cassante et fragile qui l’a fortement handicapé pour son exploitation industrielle. Beaucoup d’industriels ont essayé d’améliorer son rendement, ses composants pour la rendre exploitable mais mis à part la variante créée par Zebra pour l’automobile, ce type de batterie est resté réservée aux militaires ou à des applications industrielles très spécifiques.

Des chercheurs du MIT ont trouvé une toute nouvelle approche de ce type de batterie en remplaçant la membrane céramique par un treillis en acier traité avec une solution de nitrure de titane. Leurs travaux, parus dans Nature Energy ouvrent la voie à de toutes nouvelles approches de ces batteries et à leur utilisation sur des réseaux électriques pour le stockage des énergies intermittentes notamment.

L’électrique prend le pas sur le chimique

La découverte s’est faite un peu fortuitement. Alors que les chercheurs exploraient différentes options pour des batteries à base de métaux liquides, spécialité des équipes du Pr. Donald Sadoway, un de leurs tests, utilisant des composés au plomb a fourni des résultats inattendus. En ouvrant la cellule d’électrolyse, ils se sont aperçus que le composé qui devait servir de membrane entrait dans la réaction et se comportait comme une électrode. La membrane jouait bien son rôle de tri des molécules, mais elle ne le faisait pas en fonction des pores mais en fonction des ses propriétés électriques.

Après d’autres essais, les chercheurs ont montré qu’un simple treillis en acier couvert d’une solution de nitrure de titane pouvait assurer les fonctions des membranes de céramiques habituellement utilisées dans les accumulateurs Na-NiCl2 mais sans la fragilité. L’article publié porte sur une batterie comprenant du plomb mais le concept peut s’appliquer à de très nombreuses autres batteries chimiques simples dont le fonctionnement, les composants et la manipulation sont peu coûteux, sûrs et recyclables.

Par Sophie Hoguin

Cette serrure s’ouvre à l’aide d’une clé lumineuse

Les serrures connectées traînent la réputation d’être vulnérables aux tentatives de piratage, et la nature même de leur protocole de communication est parfois en cause. «Les transmissions radiofréquence comme le Bluetooth, le RFID et le NFC émettent à 360° et sont susceptibles de traverser les murs, constate Alexandre Ballet, directeur technique et cofondateur de la société Havr, née en novembre dernier. De fait, les opportunités d’intercepter le signal s’accroissent. C’est d’autant plus vrai que, dans le cas du Bluetooth, la portée grandit sans cesse.»

design_produit

C’est l’idée qui a motivé la création de Havr et de sa serrure connectée d’un nouveau genre : la «clé» est transmise par l’intermédiaire d’un signal lumineux, qui a l’avantage d’être directionnel et ne risque pas de passer outre une cloison. Le flash du smartphone, et non plus sa puce Bluetooth, est mis à contribution pour ouvrir la serrure, à une vingtaine de centimètres de distance. «Le code est modulé dans le signal lumineux du flash, décrit Alexandre Ballet. Bien que la fréquence des flashs soit limité à environ 50 hertz, ce code-morse est assez rapide pour ne pas être déchiffrable à l’oeil nu. Il sert à authentifier l’utilisateur et l’appareil employé.»

Code à usage unique

Toutefois, le code en question pourrait être enregistré par une caméra puis reproduit. Mais une parade a été mise au point. «Ce code est à usage unique et renouvelé à chaque utilisation, explique Alexandre Ballet. Il est engendré de manière automatique et symétrique par l’application iOS/Android du smartphone et par la serrure. Un signal qui serait répété n’est donc plus valide. La serrure, du côté intérieur de la porte, est équipée d’une LED modifiée afin de capter ce code lumineux et d’indiquer en retour si la procédure d’authentification a réussi ou non. Le signal est relayé par une fibre optique traversant le cylindre.»

Si la serrure est connectée au WiFi, elle l’est de manière intermittente. «La connexion Internet n’est activée que lorsque une mise à jour de la liste des accès est nécessaire (nouveaux accès, modification des accès existants…), précise Alexandre Ballet. L’absence de connexion permanente diminue à la fois le risque de piratage et la consommation énergétique. La puce WiFi est mise hors veille grâce au réseau Sigfox. Nous envisageons de coupler les technologies Sigfox et LoRa pour maximiser la couverture géographique.»

Pour le particulier et l’entreprise

Le moteur et les composants électroniques sont alimentés par deux piles CR2, dont l’autonomie serait de six mois, moyennant dix cycles d’utilisation par jour. Le changement du cylindre de la porte est requis, contrairement à la serrure de l’autrichien Nuki par exemple, mais l’opération est simple a priori pour quiconque sait manier un tournevis. L’accéléromètre intégré est utile en temps normal pour notifier l’utilisation de la porte et aussi pour détecter des tentatives de forçage ou de perçage.

Cette serrure devrait être livrée avec une licence gratuite pour cinq utilisateurs, et payante au-delà via un abonnement. La start-up Havr cible le marché du particulier et aussi celui de l’entreprise. «Les espaces de co-working et les bureaux sont des débouchés possibles, estime Alexandre Ballet. Et de manière générale, partout où le flux de personnes et la gestion de clés induisent une logistique importante.» La commercialisation est prévue à la fin de l’année, à un prix aux alentours de 300 €.

Frédéric Monflier

Adhésifs : des feuilles d’hydrogel qui se verrouillent en milieu humide

Cette découverte, qui a fait l’objet de la Une de la revue ACS Macro Letters de décembre 2017, est à la fois facile à mettre en œuvre, peu coûteuse et très efficace. L’adhésion en milieu humide est particulièrement recherchée pour des applications en bioingénierie, en électronique et dans le domaine médical où de nombreuses surfaces sont humides. A titre d’exemples, on a développé des adhésifs synthétiques imitant les protéines présentes sur le pied des moules, mais ces adhésifs ont montré leurs limites : adhésion irréversible, performances qui se dégradent par oxydation et coût de production élevé. D’autres adhésifs chimiques comme le cyanoacrylate posent le problème de forces d’adhésion par cisaillement insuffisantes ou de la présence de composés toxiques. L’approche adoptée par l’équipe de l’Unist (Ulsan National Institute of Science and Technology – Corée du Sud), menée par le Pr. Hoon-Eui Jeong a donc consisté à jouer sur la microstructure d’un hydrogel pour rendre deux surfaces adhésives de manière stable mais réversible via un procédé à la fois simple et peu onéreux.

Jouer sur la microstructure

Le principe de fonctionnement repose sur un interverrouillage réversible via des rangées de micro-crochets qui sont reconfigurables. Les chercheurs ont fabriqué un réseau de crochets à l’échelle micrométrique par un moulage de répliques avec un PEGDMA ( polyethylene glycol dimethacrylate). Le PEGDMA est un hydrogel qui peut absorber une grande quantité d’eau ou de solutions physiologiques et qui peut être traité par exposition aux UV pour une fabrication rapide de structures aux échelles micro voire nanométriques. Les chercheurs affirment par ailleurs que d’autres hydrogels aux propriétés similaires pourraient aussi être utilisés. Au final, le PEGDMA prend la forme d’un fin film flexible qui lui permet d’être facilement intégré à toutes sortes de systèmes.

L’adhésion est créée par contact entre deux feuilles de PEGDMA ainsi fabriquées en condition sèche. Elle est effective via l’emboîtement des crochets les uns aux autres. L’adhésion est alors légère. Au contact de l’humidité, les têtes des micro-crochets de l’adhésif deviennent plus larges et plus protubérantes engendrant un verrouillage plus solide. Plus le temps d’exposition à l’humidité est long, plus l’adhésion est forte (dans le sens du cisaillement). Ainsi, après 20h de gonflement à l’humidité, la force d’adhésion a été mesurée à 79,9 N.cm–2 contre 9.6 N.cm–2 en milieu sec, soit une adhésion plus de 732 % supérieure. Un modèle théorique simple décrivant l’évolution des forces d’adhésion en fonction du temps de gonflement a pu être bâti, il semble être en concordance avec les données expérimentales. Quand, l’hydrogel est séché, les têtes des micro-crochets se rétractent et l’adhésion s’arrête. Le process est ainsi réversible.

adhesif humide
Crédit : UNIST A gauche, une photographie du film flexible et une image en microscopie électronique du réseau des micro-crochets de PEGDMA qui permettent l’adhésion. A droite, un schéma du principe d’adhésion réversible permise par les micro-crochets et leur gonflement en milieu humide.

Par Sophie Hoguin

Réponse à la taxe anti-solaire de Trump : la Chine construit une énorme usine de panneaux photovoltaïques en Inde

Le président américain, qui veut préserver l’industrie du charbon américaine, a décidé d’adopter une politique protectionniste en taxant à hauteur de 30% les panneaux solaires importés de Chine, de Corée du sud et du Mexique.

L’Inde est moins concernée par la taxe anti-solaire bon marché de Trump. La Chine a donc décidé de construire en Inde une usine capable de produire 500 MW de cellules PV et 500 MW de modules PV chaque année. Elle sera installée à Sri City dans l’état d’Andhra Pradesh.

« Longi Solar a confirmé qu’elle sera la première entreprise solaire chinoise à implanter des une usine de fabrication en Inde » a souligné le site spécialisé PV Magazine.« Cette annonce arrive juste un mois après que la compagnie ait annoncé qu’elle investirait 300 millions de dollars dans une usine de 5 GW en Chine. »

Selon le lobby du solaire PV aux USA (SEIA) la politique anti-solaire bon marché menée par Donald Trump pourrait se solder par une perte nette de 23.000 emplois américains. A l’inverse l’usine chinoise en Inde sera fortement créatrice d’emplois.

Pour de nombreux analystes le comportement de Trump est nuisible aux intérêts économiques et géopolitiques des USA. Trump a notamment insulté les pakistanais début 2018, ce qui a renforcé l’amitié sino-pakistanaise et la cohérence du projet du China–Pakistan Economic Corridor (CPEC) entre le port pakistanais de Gwadar (à la frontière avec l’Iran) et la ville chinoise de Kashgar, un élément central du projet de la « nouvelle route de la soie » (One Belt, One Road), un gigantesque projet d’infrastructures à 900 milliards de dollars.  Après Djibouti (Afrique) la Chine construit une base militaire à Gwadar.

A parité de pouvoir d’achat le PIB chinois a déjà dépassé celui des USA. L’administration Trump vient de publier un rapport où la Chine et la Russie sont considérés comme des menaces plus importantes que le terrorisme islamiste. 

D’après Nikkei Asian Review des parades militaires conjointes des marines japonaises et françaises ont été organisées en mer de Chine du sud dans le but de tenter d’intimider la Chine. La diplomatie française suit-elle celle de Donald Trump ? Ce dernier cherche à réveiller le sentiment nationaliste et la peur des japonais en instrumentalisant la question nord-coréenne.

Alors que Barack Obama avait mis en place un accord de partenariat trans-pacifique entre les USA et la Chine (accord éliminé par Trump peu après son arrivée au pouvoir), une ambiance de nouvelle guerre froide est en train d’émerger.

L’Inde et la Chine font partie des BRICS aux côtés du Brésil, de la Russie et de l’Afrique du sud. 3 milliards de personnes, soit 42% de la population mondiale (contre moins d’un milliard pour les pays membres de l’OTAN), vivent dans ces 5 pays qui constituent le moteur des deux tiers de la croissance économique mondiale. Ils possèdent leur propre banque de développement, basée à Shangaï.

Jean-Gabriel Marie

Un pas de plus vers la maîtrise de la lévitation acoustique

La lévitation acoustique est étudiée depuis plusieurs années maintenant mais depuis deux-trois ans elle a fait plusieurs avancées majeures. Le principe de la lévitation acoustique est de créer des ondes acoustiques, donc des variations de pression de l’air, qui permettent de contrer la force de gravité. Dans les différents systèmes développés ces dernières années, les chercheurs ont testé différentes combinaisons : créer une onde stationnaire en faisant entrer des ondes en résonance ou en les faisant s’annuler, créer des hologrammes acoustiques de formes différentes dans lesquels l’objet est piégé. Selon les techniques, le dispositif a permis de faire simplement léviter l’objet puis d’en contrôler une partie du mouvement. L’ équipe britannique de l’Université de Bristol, à l’origine de plusieurs de ces recherches et de celles présentées ci-après, a même proposé l’an dernier un rayon tracteur acoustique de maison (il peut attirer à lui de petits objets et les plans sont disponibles sur internet pour que n’importe qui puisse le fabriquer.

Mais dans tous ces cas, les objets manipulés sont limités en taille. Jusqu’à présent, les scientifiques pensaient que la longueur d’onde utilisée pour la lévitation représentait la limite de la taille de l’objet. En effet, dès qu’un objet plus grand que la longueur d’onde était mis en lévitation il reçoit une partie du moment de rotation du champ acoustique et se met à tourner sur lui-même de plus en plus vite jusqu’à être éjecté du rayon acoustique. Dès lors difficile d’envisager de faire léviter de gros objets sans utiliser des sons aux longueurs audibles et/ou dangereuses pour le manipulateur.

Le principe de fonctionnement des vortex acoustiques : des vortex intriqués de directions opposés sont émis permettant de piéger et stabiliser la particule.
Le principe de fonctionnement des vortex acoustiques : des vortex intriqués de directions opposés sont émis permettant de piéger et stabiliser la particule.

Un vortex changeant

La nouvelle approche adoptée par les chercheurs de Bristol, dont les résultats ont été publiés dans un article de Physical Review Letters utilise des vortex acoustiques intriqués et fluctuants. Les cônes de sons émis, présentent, à l’instar d’un cyclone en leur centre un coeur silencieux de basses pressions.

Les chercheurs ont découvert que le taux de rotation de l’objet en lévitation pouvait être contrôlé en mêlant deux vortex de directions opposées. En jouant sur la fréquence d’apparition ou de rotation du deuxième vortex, on peut maîtriser l’objet et le stabiliser. En outre, ils ont pu augmenter la taille de « l’oeil du cyclone » acoustique afin d’y placer des objets plus grands. En travaillant avec des ondes ultrasoniques à la fréquence de 40 kHz (fréquence que les chauve-souris peuvent entendre), ils ont réussi à faire léviter une boule de polystyrène de 2cm de diamètre. Cela représente deux fois la taille des longueurs d’onde utilisées et constitue un record en matière de taille d’un objet en lévitation acoustique. Les scientifiques suggèrent que dans le futur de beaucoup plus gros objets pourraient ainsi être mis en lévitation acoustique à des fréquences qui ne seraient pas dangereuses pour l’homme. « Les rayons tracteurs acoustiques ont un énorme potentiel dans de nombreuses applications. Je suis particulièrement enthousiaste à l’idée de lignes de production qui pourraient assembler des objets délicats sans avoir à les toucher. », conclut Bruce Drinkwater, qui a supervisé les travaux d’Asier Marzo et Mihai Caleap.

Sophie Hoguin

Construction : un aérogel rend les briques simples ultra-isolantes

Depuis quelques années, la brique d’argile s’est offert une seconde jeunesse dans le bâtiment grâce à l’apparition de briques dites monomur qui offrent de très bonnes performances d’isolation pour des bâtiments bioclimatiques. Très épaisses (entre 30 et 50 cm), elles présentent une structure alvéolaire qui stocke de l’air assurant fraîcheur en été, isolation en hiver et ne retenant pas l’humidité. Pour réduire cette épaisseur, ces briques sont à présent souvent garnies directement d’un isolant, naturel ou non (laine de verre, perlite, polystyrène…) préservant leurs performances mais diminuant leur taille.

Des chercheurs suisses du Laboratoire fédéral d’essai des matériaux et de recherche (Empa) ont mis au point un aérogel qui bat largement toutes ces garnitures. Leurs travaux ont été publiés dans Energy Procedia. Les aérogels, généralement basés sur des silicates dont 98-99 % du volume est assuré par la présence de bulles d’air de taille nanométrique, sont des matériaux d’isolation récents dans le secteur du bâtiment. C’est cette présence d’air qui en fait d’excellents isolants. Mais ils ont d’autre atouts : perméables à la vapeur, recyclables, non toxiques et non inflammables. Bref, tous les atouts d’un isolant idéal.

Aerobrick

Des performances inégalées

L’aérogel fabriqué par les scientifiques suisses a déjà fait ses preuves intégré à un enduit isolant testé en 2012 et commercialisé en 2013 et qui avait permis la rénovation de bâtiments historiques en préservant leur apparence. Cette fois, ils ont conçu leur aérogel sous une forme pâteuse qui permet de remplir les alvéoles des briques. Une fois dans les briques, l’aérogel se joint à l’argile des briques qui peuvent être manipulées normalement. Les briques ainsi créées ont été baptisées Aerobricks. Des tests pour évaluer la conductivité thermique de ces briques ont révélé des performances inégalées : pour atteindre la même isolation qu’un mur d’Aerobricks de 16,5 cm, il faudrait un mur de 26,3 cm de briques emplies de perlite et plus d’un mètre pour un mur de briques simples (voir photo). Autant dire que cet aérogel pourrait offrir une véritable cure d’amincissement aux murs en briques isolantes. Le hic ? La production de l’aérogel est pour l’instant trop coûteuse pour que les Aerobricks soient compétitives (plus de 400€ supplémentaires par mètre carré !). Cependant, les chercheurs espèrent que les prix chutent drastiquement à moyen terme permettant à cette brique d’entrer sur le marché.

Par Sophie Hoguin

Big Data Paris 2018

Véritable laboratoire d’innovation et d’inspiration, le sommet vous dévoilera des retours d’expérience inédits de plus de 100 speakers visionnaires, fleurons de l’économie internationale, qui réinventent jour après jour les codes et usages de la data au sein de leurs organisations.

Soyez l’un des 15 0000 professionnels à prendre à ce rendez-vous : réservez votre accès dès à présent !

Consultez le programme complet des conférences

Big Data Paris 2018, c’est :
+ de 48H de talks inspirants
+ de 100 speakers visionnaires
+ de 250 leaders du Big Data et de l’intelligence algorithmique exposant sur le salon
+ de 15 000 décideurs attendus

L’expérience Big Data Paris 2018 c’est aussi…

DES CONFERENCES STRATEGIQUES & RETOURS D’EXPERIENCE : Inspirez-vous de plus de 100 Top speakers emblématiques de la scène Big Data Internationale et découvrez plus de 20 retours d’expérience pratiques et concrets propres à la mise en œuvre de projets big data au sein d’entreprises de tous secteurs d’activité en France et à l’international.

Parmi les thématiques phares du congrès :

  • Fast Data : l’organisation à l’heure du temps réel !
  • Les technologies de l’Intelligence Artificielle & du Machine Learning appliquées au Big Data
  • Data Literacy : vers une démocratisation des données au service des métiers
  • Evolution règlementaire : GDPR : DERNIÈRE LIGNE DROITE !

Consultez le programme complet des conférences

DES CONSULTING TRACKS : Bénéficiez de l’expertise projet d’acteurs emblématiques du consulting stratégique qui vous accompagneront demain sur l’ensemble de vos problématiques Big Data.

DES ATELIERS PRODUITS : Découvrez les solutions et technologies innovantes qui font et feront l’actualité de l’innovation Big Data au travers d’une série de présentation IT de 30 minutes. Consultez le programme des ateliers

DES PARCOURS EXPERTS : Anticipez les dernières avancées technologiques de l’écosystème Big Data en prenant part à des conférences techniques de hauts niveaux mêlant présentations et retours d’expériences sur tous les environnements techniques liés au Big Data !

UNE EXPOSITION : Rencontrez les fleurons internationaux du Big Data au travers d’une exposition d’envergure.

UN VILLAGE STARTUP : Partez à la rencontre des pépites de la scène tech’ française au travers d’un espace dédié aux innovations digitales & data de rupture.

LES TROPHÉES DE L’INNOVATION : Inspirez-vous des projets Big Data les plus innovants et performants de la data economy.

Revue du web #110 : les vidéos scientifiques étonnantes du mois

La réalité virtuelle au service des JO 2018

Voici comment s’entraîne l’équipe américaine de ski !

Science vs fake news

Ou comment vérifier les informations qui circulent sur les réseaux sociaux grâce à des algorithmes bien rodés.

Au coeur de la galaxie

Découvrez le cosmos à 360 degrés…

Des plumes presque aussi noires que le Vantablack, le matériau le plus noir jamais fabriqué

Vous vous souvenez de ce matériau qui absorbe 99,96% de la lumière ? Avec une jolie performance de 99,95% , les plumes de cet oiseau lui feraient presque de l’ombre.

Par I. B

Les premiers aimants liquides

Jusqu’à maintenant, seules des solutions ou des suspensions présentant des propriétés magnétiques diluées avaient pu être préparées. Cette fois, ce sont des matériaux purs, en l’occurrence des sels à bas point de fusion, qui présentent à la fois des propriétés de liquides ioniques et des propriétés de complexes moléculaires ferro ou antiferromagnétiques.

Des composés complexes

Dans l’article paru dans la revue, Dalton Transactions, les chercheurs de l’Institut de chimie de Strasbourg et de l’Institut de physique et chimie des matériaux de Strasbourg expliquent les trois complexes qu’ils ont réussi à fabriquer et présentant ces étranges propriétés.  Il s’agit de deux complexes dianioniques et d’un complexe monoanionique. Les deux premiers se présentent comme des solides cristallins et le troisième comme une pâte visqueuse.

Pour les fabriquer, ils sont partis d’un cation organique appelé bmim+ ( 1-butyl-3-methylimidazolium) dont le sel chlorure ne fond qu’à 70°C. Pour apporter des propriétés magnétiques à ce liquide ionique, ils se sont inspirés de travaux qui avaient décrits des complexes chargés négativement et possédant des propriétés magnétiques. C’est en associant bmim+ et ces complexes qu’ils ont pu obtenir leurs aimants liquides.

Propriétés ferro et antiferromagnétiques

Au final, ils ont obtenu un sel ferromagnétique qui fond à 140°C et qui reste fondu en refroidissant jusqu’à 70°C. Les deux autres composés ont produit des sels antiferromagnétiques (c’est-à-dire que leur aimantation totale est nulle car les moments magnétiques atomiques sont alignés de manière antiparallèle au sein du matériau ; leurs propriétés magnétiques ne se manifestant qu’à certaines températures précises). L’un de ces deux sels antiferromagnétique, obtenu sous forme d’une pâte visqueuse à température ambiante ne cristallise pas lors du refroidissement, il devient plus visqueux à l’instar du comportement des verres.

boudalis_fig

Par Sophie Hoguin

D’Areva à Orano, quels changements ?

Le groupe Areva n’est plus. La transformation aura été rude pour l’entreprise et la faillite évitée de justesse grâce au secours de l’État actionnaire et le départ de 6.000 salariés. Le plan de restructuration a donné naissance à trois entreprises distinctes : Areva SA, Areva NP et New Areva. Areva SA a pour mission de mener à bien les opérations et les engagements hérités d’AREVA. Il s’agit notamment d’achever le projet de réacteur EPR OL3 en Finlande, de suivre les risques liés aux irrégularités constatées au Creusot et de clôturer les projets renouvelables résiduels, une fois les engagements contractuels remplis. De son côté, la branche réacteur Areva NP a été reprise par EDF et est retournée aux sources, en reprenant son ancien nom de Framatome. C’est l’entreprise New Areva qui devient désormais Orano.

Exit la gestion des centrales nucléaires, les activités d’Orano sont centrées autour des métiers de la production du combustible le démantèlement des centrales.« Orano couvre les activités mines, conversion-enrichissement, recyclage des combustibles usés, logistique, démantèlement et ingénierie », précise le sobre communiqué d’Orano envoyé pour l’occasion.

Quelles activités pour Orano ?

Le directeur général est Philippe Knoche. L’entreprise dispose désormais de 16.000 salariés dans le monde, pour un chiffre d’affaires de 4 milliards d’euros. Elle hérite d’un carnet de commandes de 31,8 milliards d’euros, mais aussi d’une dette nette proche de 3 milliards d’euros. Orano compte investir 1,8 milliard dans ses usines à l’horizon 2025 et un montant comparable dans ses activités minière. Avec une augmentation de capital de 2,5 milliards d’euros souscrite en juillet 2017, l’Etat est actionnaire majoritaire de l’entreprise.

Le chiffre d’affaires d’Orano provient à 36 % des mines, à 26 % de la conversion et l’enrichissement et à 38 % des activités aval. Les mines sont situées au Canada, au Kazakhstan et au Niger. Ses activités sont avant tout françaises (41 %) et européennes (15 %). L’entreprise est également présente en Chine, en Corée du Sud, en Mongolie, au Japon, aux Etats-Unis, au Gabon, en Namibie.

Quelle nouvelle politique pour Orano ?

Orano mise sur les marchés porteurs de l’Asie, avec le redémarrage en cours des réacteurs japonais et l’accélération du marché chinois. En effet, l’Agence internationale de l’énergie (AIE) prévoit une hausse importante des capacités nucléaires mondiales d’ici 2040. Elles devraient passer de 398 gigawatts (GW) à 606 GW, dont plus de la moitié en Chine. Mais le nouveau Areva mise aussi sur le traitement des combustibles usés qui devrait augmenter de 70 % à cet horizon. Sans oublier les 150 réacteurs qui seront à démanteler d’ici là.

Dans le cadre de son plan stratégique, l’entreprise se fixe trois objectifs. À court terme, l’entreprise veut être rentable dès 2018 et assurer « une génération de cash net positif dès 2018 ». Conformément aux nouveaux marchés émergents, elle souhaite assurer plus de 30 % de son chiffre d’affaires dès 2020 en Asie, contre 20 % aujourd’hui. Enfin, elle mise sur un relais de croissance dans les services et l’ingénierie liée au démantèlement des centrales. Elle espère ainsi avoir plus de la moitié de ses effectifs dans les activités de service dès 2020.

L’entreprise précise que son nouveau nom est tiré du dieu grec Ouranos et devenu Uranus dans la mythologie romaine. Il donna son nom à la planète Uranus à l’origine de l’appellation « uranium ».Le logo, constitué de cercles superposés, est jaune en référence au yellowcake, un concentré d’uranium.

Par Matthieu Combe, journaliste scientifique