Les restrictions contre le bisphénol A se confirment

Un règlement de l’Union européenne adopté au titre de Reach fixe une restriction pour la mise sur le marché des papiers thermiques contenant du bisphénol A (BPA). Cette interdiction, qui entre en vigueur le 2 janvier 2020 concernera les papiers thermiques contenant cette substance dans une concentration égale ou supérieure à 0.02% en poids. C’est la France qui est à l’origine de cette proposition via une demande déposée en mai 2014. La France a d’ailleurs aussi fait une demande afin de classer le bisphénol A comme substance extrêmement préoccupante (SVHC). Demande à laquelle l’Echa a fait suite en classant le BPA (CAS 80-05-7) sur la liste des substances candidates à cette appellation et à la réglementation qui y est liée début janvier 2017.

D’autres bisphénols sont susceptibles d’être sur la sellette à l’avenir. En particulier le bisphénol S (BPS), envisagé comme substitut pour le bisphénol A par certains industriels. En effet, la Commission européenne a déjà demandé à l’Echa de déterminer si le BPS dans les papiers thermiques pouvait présenter des risques pour la santé en juin 2016. Les résultats sont attendus courant de l’année 2017.

Un label sans phénols ajoutés

Dans le cadre de cette suspicion envers les bisphénols et les phénols en général, l’Ineris a de son côté développé un label “sans phénol ajouté” à destination des fabricants et utilisateurs de papiers thermiques. Ce label garantit l’absence de quinze phénols dont les bisphénols A, S et F. Il vient compléter le label “tickets sans BPA” qui avait été développé dans le cadre de la stratégie nationale contre les perturbateurs endocriniens. Ce nouveau label s’appuie sur un référentiel mis au point par l’Ineris. Les mesures permettant de garantir l’absence des composés dans le papier sont effectuées “à partir de techniques d’analyses chimiques reconnues et largement pratiquées par les laboratoires”, précise l’Ineris. Les premiers labels viennent d’être attribués à Carrefour, Lidl, Système U et au fabricant de papier Koelher.

Plastics Europe contre DGCCRF : match nul ?

Côté justice, l’association Plastics Europe avait déposé une requête auprès du Conseil d’Etat pour faire annuler une note de la DGCCRF (direction générale de la concurrence, de la consommation et de la répression des fraudes) du 8 décembre 2014. Cette note fournissait des précisions concernant certaines dispositions de la loi de juin 2010 modifié en décembre 2012 suspendant la commercialisation de tout conditionnement comportant du bpa et destiné à recevoir des produits alimentaires pour les enfants en bas âge et les nourrissons.

Le Conseil d’Etat a rendu son verdict le 7 décembre 2016: il approuve la mesure de sauvegarde, estimant que cette restriction “ n’apparaît ni disproportionnée ni incohérente” mais il a tout de même annulé une partie de la note de la DGCCRF concernant les conditions d’application de la loi aux matériaux plastique fabriqués à partir de matières recyclées car la DGCCRF excède ses pouvoirs en fixant de nouvelles règles au lieu de seulement interpréter celles édictées dans la loi.

Sophie Hoguin

L’Arctique connait de lourds bouleversements

L’Arctique connait un nouveau record. En novembre et décembre 2016, l’étendue de la banquise arctique a connu quotidiennement ses niveaux les plus bas depuis le début des observations par satellites en 1979. Mi-novembre, la banquise a peiné à se reformer. La glace de la mer arctique a même diminué pendant plusieurs jours, au lieu de croître.

Selon le Centre américain de données sur la glace et la neige (NSIDC), en décembre, la glace de mer gagnait 90.000 kilomètres carrés (km2) par jour. Une vitesse de croissance beaucoup plus rapide que la moyenne à long terme (64.100 km2). Ainsi, après un gel tardif de la saison et des niveaux exceptionnellement bas en novembre, la vitesse avec laquelle la glace s’est étendue a permis d’éviter un record d’étendue moyenne mensuelle.

De nouveaux records en Arctique

Pour le NSIDC, l’étendue moyenne mensuelle des glaces de mer dépend non seulement de la moyenne quotidienne du mois, mais aussi de la vitesse de croissance des glaces. Bien que les niveaux quotidiens pour décembre 2016 aient atteint un minimum record, l’étendue moyenne mensuelle s’est élevée à 12,1 millions de km2. C’est tout juste 20.000 km2 de plus que le minimum historique atteint sur le mois de décembre 2010. Mais c’est surtout 1,03 million de km2 en dessous de la moyenne à long terme de décembre entre 1981 et 2010. Depuis décembre 1978, la glace de mer a perdu 3,4% par décennie, soit 44.500 km2.

Sur l’année 2016, une vague de nouveaux creux historiques ont été atteints en Arctique, que cela concerne l’étendue des glaces de mer, en moyenne quotidienne ou mensuelle. De nouveaux records pour janvier, février, avril, mai, juin, octobre et novembre ! Par ailleurs, l’étendue minimale de la glace de mer en fin d’été, enregistrée le 10 septembre, est au coude-à-coude avec 2007 pour être le deuxième niveau le plus bas enregistré (4,14 millions de km2). Le triste record de 2012 reste pour le moment inégalé avec ses 3,38 millions de km2.

banquise-arctique
Etendue de la glace de mer entre le 1er novembre et le 31 décembre. Ligne rouge: 2016. Ligne bleue : 2010. Ligne pointillée: 2012. La ligne grise indique l’étendue moyenne de 1981 à 2010 pour la journée indiquée,+/- 2 écart-types. Source : NSIDC.

Des températures de plus en plus chaudes

L’Arctique est la région du monde qui subit le plus rapidement le réchauffement climatique : la région se réchauffe deux fois plus vite que le reste de la planète. L’Agence américaine océanique et atmosphérique (NOAA) a annoncé courant décembre que l’Arctique venait de connaître ses 12 mois les plus chauds depuis le début des relevés de températures dans cette région.

D‘octobre 2015 à septembre 2016, la température annuelle moyenne de l’air au-dessus du sol  était ainsi supérieure de 3,5°C à celle de 1900. Dans certaines zones de l’Arctique, l’air extérieur a même atteint des températures de -5°C, au lieu de -25°C, en novembre et décembre.

arctique-temperature
Températures moyennes quotidiennes (en Kelvin) dans la région de l’Arctique au-dessus du 80e parallèle nord en 2016 (rouge), comparées aux températures moyennes sur la période 1958-2002 (vert). L’axe horizontale correspond aux jours de l’année.  Source : DMI

Par Matthieu Combe, journaliste scientifique

Oled flexibles : en route pour l’intégration industrielle

Pi-Scale est un projet européen qui intègre des infrastructures de recherches et des partenaires industriels de toute la chaîne de valeur des Oled flexibles. A travers Pi-Scale, ce consortium vise à fournir aux PME et industriels un accès libre à des chaînes pilotes de production pour tester la faisabilité de leurs projets et intensifier la commercialisation des produits intégrant cette technologie.

Premiers démonstrateurs, premières productions

Les premiers démonstrateurs ont été présentés en fin d’année 2016 à l’occasion de plusieurs forums ou conférences dont le 23e International Display Workshops au Japon. Il s’agissait en l’occurrence de bandes d’Oled en verre ultra-fin de 15m avec une performance de 30lm/W et un rendement proche de 100% qui avaient été produites par un procédé de dépôt d’anode R2R (roll-to-roll).

Mais, Pi-Scale offre beaucoup d’autres possibilités aux entreprises intéressées: fabrication feuille-à-feuille S2S (sheet-to-sheet) et R2R sur support verre ou plastique, barrières spéciales conditions extrêmes (haute et basse température, immersion… [voir vidéo]), toutes formes et tous design, toutes couleurs (rouge, bleu, vert, cyan, jaune, blanc…), encapsulation flexible, intégration à des produits, haute flexibilité (rayon de courbure 10mm), très faible épaisseur (0,2 mm) etc. pour des tests de production pré-industrielle de l’ordre de 5000m2 d’Oled/an.

Bientôt les premières commercialisations

Si les différentes lignes pilotes seront disponibles à partir de juillet 2017 pour tous, quatre industriels, parties prenantes du projet testent déjà leurs produits sur les démonstrateurs. Il s’agit d’Audi, de Rehau pour toutes applications à base de polymères, de Pilkington pour les applications à base de verre et de Emdedesign pour le secteur des l’éclairage des bâtiments. L’architecture, l’aéronautique et l’automobile devraient donc être les premiers secteurs à bénéficier des infrastructures issues du projet Pi-Scale mais bien d’autres secteurs sont susceptibles de s’intéresser aux Oled flexibles : télécommunications, dispositifs de santé, objets de grande consommation…

Par Sophie Hoguin

Droit de réponse

Cité plusieurs fois dans un article du 17 octobre 2016 (100% d’énergie renouvelable en France : un projet «délirant» ?), Philippe Hansen a souhaité bénéficier d’un droit de réponse.

Le voici :

Peu à peu, depuis quarante ans, la communication sur l’approvisionnement énergétique de la France a été confisquée aux ingénieurs pour se trouver partiellement, si ce n’est pas totalement aux mains d’une mouvance politique.

Pour défendre une politique énergétique qui puisse éviter à notre pays une future crise pétrolière et qui lui permette de réduire ses émissions de CO2 en conservant la croissance économique nécessaire à la cohésion sociale,  je me suis attelé sur mon site énergie-crise.fr (initialement énergie-gouv.fr) à une comparaison qui se veut objective des sources d’énergie. Une lecture critique m’a ainsi permis de démonter les principales impostures de la mouvance antinucléaire. N’étant pas professionnel du secteur, une telle publication ne peut reposer  que sur des erreurs logiques, physiques ou économiques fondamentales et non sur des points spécialisés. Seules des critiques sur la forme ont pu être opposées aux arguments avancés. Mes principaux adversaires n’ont pas répondu à mes propositions de débats en école d’ingénieurs.

Mark Jacobson propose un scénario de déploiement mondial de l’éolien et du solaire, et comme il le répète lui-même, sans système de stockage de l’électricité (autre que le solaire thermodynamique et l’hydraulique de barrage). Ce scénario repose sur une surproduction électrique et une gestion de la demande, dont il prétend ainsi pouvoir en effacer les 2/3 ! Est-ce vraiment possible pour une durée assez longue ? Testé à l’échelle des 48 états connexes des Etats-Unis, le scénario a été approuvé comme une étude théorique. Compte-tenu de la taille du pays considéré qui bénéficie d’une large variété de conditions météorologiques, l’étude pourrait être réaliste techniquement si ce n’est économiquement. Maintenant, Mark Jacobson en déduit un modèle énergétique pour 139 pays de la planète.

jacobson_hiver_2013

Testé sur la France à partir des productions éoliennes et solaires mesurées par RTE entre 2012 et mars 2016, ce mix énergétique n’assure même pas l’approvisionnement électrique hors transport pendant 23% du temps (2000 heures par an). Les simulations sur deux mois ont été publiées. Une telle constatation est en accord avec les études parues sur l’éolien ; Aucune puissance éolienne n’est garantie (Nifenecker, Techniques de l’ingénieur ! 2014), la production éolienne décroît avec la température (Flocard, 2012), la distribution de la production éolien-solaire et celle de la consommation ne peuvent coïncider (Wagner 2013). Faut-il aller chercher aussi un auteur à Stanford pour affirmer que le photovoltaïque produit, dans notre pays, quatre fois moins en hiver qu’en été et que la demande de chaleur en Europe y est maximale à cette période-là ? Pourquoi nier que la somme d’une fonction aléatoire et d’une fonction périodique ne donne pas une fonction à peu près constante ?

Il est assez curieux, dans une revue technique, de voir opposer à des mesures en accord avec la littérature théorique une publication non encore validée au seul motif que l’auteur appartient à une université réputée et partage les opinions de la rédaction.

D’autant plus que Mark Jacobson a modifié son mix énergétique, le jour même où il a pris connaissance de la simulation pour la France en introduisant 130 TWh de solaire thermodynamique à concentration. Ainsi les sources modulables passent de 3 à 14 %, un aveu de la faiblesse de son plan ? Une telle production représenterait une surface de 2000 km2 de miroirs dans le sud de la France et un surcoût annuel de 35 milliards d’euros . Mais en restant dans des puissances et des stockages raisonnables, le CSP (Concentrating Solar Power ) ne peut combler les failles du scénario : un déficit de 80 GW pendant 15 jours, durée de référence pour les périodes sans vent en Europe de l’Ouest. La situation serait pire dans les grands pays comme l’Allemagne, le Royaume-Uni et la Pologne, qui ne reposent que sur des sources électriques fluctuantes.

Il est étrange de faire appel au scénario ADEME pour justifier Jacobson. En effet, cette étude exploratoire en montre plutôt les limites. Elle se donne un objectif deux fois plus faible de production électrique, pour profiter d’une plus grande part d’hydraulique. Elle utilise le report de consommation, le stockage et, malgré tout, nécessite encore des importations d’électricité de centrales  thermiques.

Un travail d’ingénieur ne se limite pas à utiliser des densités surfaciques, sur un coin de table. Il existe un territoire sur lequel il y a d’autres activités, un patrimoine immobilier et naturel. Les études d’impact vont bien au-delà de la zone des 500 mètres, utilisée pour déterminer la surface consommée par les parcs éoliens. Le potentiel éolien calculé par l’ADEME consiste en 17 000 parcs. En considérant les lumières clignotantes la nuit aux sommets des mâts, il y a de quoi transformer un pays millénaire en sapin de Noël. L’ADEME est partie, elle, de 10 000 parcs éoliens dans le scénario de référence, puis s’est replié sur 6000 (dans un le cas d’une acceptabilité modérée), puis sur 4000 (dans le cas d’une acceptabilité très contrainte). Lorsque les autorités régionales ont voulu déterminer leur potentiel éolien, elles ne trouvent que 1700 à 3000 parcs possibles. Que de contradictions avec une étude qui s’affranchit du stockage et envisage un déploiement éolien délirant. Il ne faut pas lire que le titre des études.

Pour poursuivre sur cette dernière remarque, dans la seule publication (Scénario Message Supply–N) qui décrit un scénario énergétique mondial  permettant de stopper le réchauffement climatique, nous ne proposons pas « de construire 7000 GW entre 2060 et 2100 », ce qui est la description du scénario IIASA mais 17 000 à 20 000 GW entre 2020 et 2100, ainsi que 1500 centrales solaires de 100 km2 et 2 millions d’éoliennes.

Il est étonnant de lire, dans le pays qui a recyclé plus de trois fois le plutonium dans le réacteur Phénix, que le nucléaire ne serait pas renouvelable. C’est le cas politiquement, mais physiquement, le caractère renouvelable du nucléaire a été démontré dès 1983 par Cohen (publication téléchargeable sur le site de l’université de Stanford !) : il s’agit d’extraire une partie de l’uranium apporté par les fleuves dans la mer. Aujourd’hui les études américaines, japonaises et chinoises sur l’extraction de l’uranium de l’eau de mer se poursuivent et on arrive à des retours énergétiques entre 20 et 1000, alors que les publications récentes de Hall, Pietro et Weissbach  ramènent celui du solaire en Europe à un intervalle 4-6 à partir des seuls facteurs physiques. Bien sûr, on peut contester ces études, mais alors il faut expliquer pourquoi.

Enfin comme la production solaire est en opposition de phase avec la consommation énergétique, il est faux de prétendre qu’il est possible de répondre à une demande énergétique par la même quantité d’électricité solaire produite annuellement par un autre mix énergétique. Il faudrait investir dans 1600 GW solaires tous les vingt-ans. Pour sortir des fossiles le compte est vite fait : 3200 milliards d’euros jusqu’en 2050 sans les batteries ; au lieu de 300 pour le nucléaire. On peut se demander pourquoi sacrifier des milliers de kilomètres carrés contre le risque d’en perdre quelques centaines par une fusion de cœur sur un réacteur nucléaire.

La faible performance de l’éolien-photovoltaïque n’est pas due à des contraintes techniques, mais à des facteurs physiques immuables : la hauteur du soleil en hiver ou en été, la pente des toits, le rendement maximal des transitions électroniques, la puissance en fonction de la vitesse du vent, etc… La vérité est donc qu’un pays à notre latitude et notre densité de population ne peut reposer très majoritairement que sur l’atome pour produire une électricité sans  carbone. L’intérêt du solaire et de l’éolien est faible pour le réseau électrique, c’est ce qui fait  la faillite du système électrique de Jacobson, qui ne résisterait pas à des hivers exceptionnellement froids.

En France, le photovoltaïque et l’éolien coûtent plus de 5 milliards d’euros par an à la collectivité, bien plus que les ratés du nucléaire, dont le bilan est globalement très positif. Les éoliennes et le photovoltaïque sont importés, et il nous restera des éoliennes et des panneaux usés sur les bras lors de leur fin de vie. Avec le nucléaire nous accumulons de la matière fissile réutilisable chaque année et des platinoïdes pour nos descendants dans les colis vitrifiés. Lors de l’accident de Fukushima, il n’y a pas eu d’impact des radiations sur la population civile, alors que les réacteurs étaient beaucoup moins sûrs que les nôtres. Ils n’avaient pas de recombineurs passifs d’hydrogène, qui auraient évité l’explosion, ni de filtres à sable qui auraient limité les rejets. L’accident n’aurait pas eu cet impact avec nos réacteurs. En parallèle, on ne montre pas les techniciens brulés au sommet des éoliennes ou les installateurs de photovoltaïque qui tombent des toits. Lorsque des journalistes indépendants, comme ceux de Forbes récemment, reprennent des études scientifiques, le nucléaire dépasse les autres énergies, mêmes dans les bilans sanitaires. Nous pouvons donc continuer dans le nucléaire sans regretter qu’une meilleure alternative ne soit disponible et il n’est pas normal d’être mis publiquement en cause pour l’avoir défendu.

L’article à l’origine de ce droit de réponse est disponible ICI.

Philippe Hansen

Dans les Droits de réponse, les auteurs expriment un point de vue propre, qui n’est pas nécessairement celui de la rédaction.

Des leviers d’actions gagnants pour les démarches qualité des TPE PME

L’existant est-il optimisé ?

On constate souvent deux angles morts dans la conduite des démarches qualité, notamment dans les TPE PME :

  • La place de l’humain et du champ social, question escamotée comme si la dimension sociale de l’entreprise n’était pas légitime dans une démarche qualité ;
  • La compréhension systémique de l’entreprise, souvent sommaire ou simpliste et donc peu opérante pour aider l’entreprise face à ses enjeux.

Ces deux angles morts sont d’ailleurs liés par la même croyance malheureusement largement partagée dans l’entreprise, que la performance est avant tout question de technique et d’outils bien utilisés ! Cette croyance s’accompagne souvent d’une certaine méfiance vis-à-vis de ce qui n’est pas tangible et quantifiable.

Ce ne serait pas grave si le tabou dont semblent frappés ces sujets n’avait des conséquences dommageables pour les performances des entreprises :

  • Inefficacité relative de la démarche qualité par faiblesse du modèle de fonctionnement (faiblesse d’analyse systémique) ;
  • Faible implication du personnel faute de prise en compte réaliste de l’humain (faiblesse du champ social).

Et pourtant nombreux sont ceux qui ont alerté sur la question. Déjà dans les années 1970 Joseph JURAN avait alerté sur la double dimension du changement, technique et culturel, et sur la nécessité de prendre en compte les répercussions sociales si l’on veut que le changement technique soit accepté.

Quarante-cinq ans plus tard, Philippe Lorino redit presque la même chose, comme si aucun progrès n’avait été fait sur cette question : « A la philosophie de base, qui date des années 30, on peut tout à fait ajouter une dimension qui prenne en compte le dialogue social et les organisations représentatives des salariés. C’est en effet le principal angle mort de la méthode Lean historique » (Cf. article de Philippe LORINO (Professeur Eminent ESSEC) dans l’article donné à l’Usine Nouvelle en octobre 2014).

Ne pourrait-on pas mieux prendre en compte la réalité de l’entreprise et sa complexité dans les démarches qualité et élargir le modèle techniciste qui prévaut encore ?

Peut-on s’extraire du modèle classique ?

L’évolution du référentiel ISO 9001 en 2015 offre des ouvertures à explorer.

Ainsi par exemple, dans l’ISO 9000, la définition de système de management de la qualité (« SMQ » dans la suite ou simplement « système » pour ne pas alourdir la lecture) s’enrichit et précise sa relation avec les processus.

§ 3.5.3 – Système de management : ensemble d’éléments corrélés ou en interaction d’un organisme, utilisés pour établir des politiques, des objectifs et des processus de façon à atteindre lesdits objectifs. (rappel : SMQ = partie d’un SM relatif à la qualité).

Cette définition suggère que les processus sont établis et déterminés par des éléments du système de management. Que sont ces éléments constitutifs du système de management ?

Monsieur Nigel CROFT, chef du comité technique de l’ISO en charge de la rédaction des référentiels ISO 9000, 9001 et 9004, a répondu à cette question lors d’une de ses conférences de présentation de l’ISO 9001 en regroupant ces éléments en trois catégories désignées par :

  • « Hardware » : équipements, installations, réseaux …,
  • « Software » : connaissances formelles, brevets, procédures …,
  • « Humanware » : humains, valeurs, expériences, savoirs, comportements …

Ces trois éléments se rencontrant et interagissant notamment lors de la mise en œuvre des processus d’une l’entreprise.

En France, une pratique largement répandue consiste à considérer qu’un système de management de la qualité est composé uniquement d’un ensemble de processus. Pour cela, les tenants de cette approche n’hésitent pas à tordre la définition de l’ISO 9000, pour aboutir à ce que les éléments du système, qui créent et établissent les processus, soient finalement phagocytés par ces derniers, à l’instar de la figure de l’humanoïde de Science-Fiction qui se retourne contre son créateur !

Pour s’en convaincre, citons la note 2 de la définition de système de management qui précise :

« Les éléments du système de management comprennent la structure, les rôles et responsabilités, la planification, le fonctionnement de l’organisme, les politiques, les pratiques, les règles, les convictions, les objectifs et les processus permettant d’atteindre ces objectifs. »

Ne serait-il pas alors possible et utile de considérer que le système de management de la qualité est composé d’autres éléments que les seuls processus dont les finalités opérationnelles et économiques, pour importantes qu’elles soient, ne recouvrent pas la totalité des enjeux des parties intéressées de l’entreprise ?

Une entreprise est un système qui créé de la valeur pour les parties intéressées. Selon les parties intéressées considérées on sera enclin à considérer l’entreprise de différents points de vues :

  • d’un point de vue économique : clients, activités, produits et services, chiffre d’affaires, rentabilité, investissement …,
  • d’un point de vue social : emplois, rémunérations, conditions de travail, relations sociales …,
  • d’un point de vue stratégique : compétition, changement, alliances, pouvoir, décisions …

Nous avons beaucoup agit dans les démarches qualité, s’appuyant sur les finalités satisfaction clients et conformité des produits et services du SMQ, comme s’il suffisait de prendre en compte la dimension économique de l’entreprise, siège des activités productives de biens et de services fournis aux clients, pour obtenir un fonctionnement optimisé.

De plus, il a souvent été considéré que les deux autres dimensions de l’entreprise devaient finalement se mettre au service du champ économique pour l’intérêt de tous !

Le modèle largement répandu de système de management de la qualité fondé sur des processus (champ économique) peut se lire de cette façon, comme un modèle réducteur, éclipsant et bridant les deux autres dimensions de l’entreprise :

  • La dimension stratégique, en la réduisant aux principes de leadership et de prise de décision fondée sur les preuves comme si les affects, les essais-erreurs, la chance, les égos … n’entraient pas dans la compétition économique et les prises de décision ;
  • Le social, en le réduisant aux principes d’implication du personnel et à la gestion des « ressources humaines », appellation souvent mal acceptée par ceux qu’elle désigne, comme si les personnes appartenaient à l’entreprise et n’avaient pas, individuellement, un parcours professionnel à construire, à entretenir et à valoriser.

C’est un peu comme si pour obliger un véhicule à aller le plus loin possible en avant, on limitait son rayon de braquage pour l’empêcher de dévier à droite ou à gauche et qu’on supprimait la marche arrière et le frein pour l’obliger à avancer coûte que coûte. Cela ne serait pas efficace n’est-ce pas ?

Et bien, toutes choses égales par ailleurs, c’est pourtant ce que l’on peut voir dans de nombreuses entreprises pour ses dimensions bridées.

Comment faire évoluer le modèle classique ?

Nous savons pourtant depuis longtemps, grâce à la théorie des systèmes élaborée dans les années 1950-60 que « la régulation d’un système n’est efficace que si elle s’appuie sur un système de contrôle aussi complexe que le système lui-même » (in. « Le Macroscope » J. de Rosnay – 1975). Cela est connu sous le nom de « loi de la variété requise » proposée par Ross Ashby en 1958 et jamais démentie depuis, à ma connaissance.

Il ne paraît donc pas déraisonnable de s’interroger sur la variété requise des modèles de systèmes de management de la qualité associés aux démarches qualité dans les entreprises !

Le SMQ, par définition outil permettant d’orienter et diriger un organisme en matière de qualité, peut-il s’acquitter efficacement de sa tâche sans prendre en compte les trois champs d’actions principaux existant dans l’entreprise : économique, stratégique et social ?

Notre réponse est non ! Et c’est cette prise en compte systémique que nous proposons dans notre méta-modèle de système de management de la qualité illustré par la figure associée à cet article :

iso9001

Ce modèle s’est construit progressivement dans la confrontation de l’expérience pratique dans les entreprises et la réflexion à partir des approches existantes des démarches qualité, incluant la perception des angles morts présentés au début de cet article.

La plus grande difficulté a été d’identifier, à côté de l’élément « processus » – représentant la projection du champ « Economique » sur le SMQ –, les éléments qui pourraient représenter efficacement les champs Stratégique et Social de l’entreprise tout en faisant partie du SMQ. Autrement dit, trouver une projection pertinente des champs Stratégique et Social dans le SMQ.

Un résultat possible, testé avec succès dans plusieurs TPE – PME, propose les éléments concrets suivants :

  • Les instances de pilotage et de décisions, représentant le champ Stratégique projeté au niveau du SMQ ;
  • Les métiers, représentant une projection du champ Social sur le SMQ.

Dans la pratique, ce modèle s’est avéré opérant car il traduit des réalités et permet de rendre compte de l’existence de champs d’actions et de logiques spécifiques aux acteurs de l’entreprise, logiques qui ne sont pas naturellement convergentes et qui interagissent en permanence dans une succession temporelle de compromis et d’équilibres à établir.

S’il est compréhensible que d’un point de vue Economique on puisse souhaiter que les décisions prises et les compétences des acteurs soient entièrement consacrées à la performance des processus, la réalité du terrain nous montre quotidiennement que c’est un tout petit peu différent et plus complexe. Continuer à faire semblant n’est pas un crime mais ça n’est probablement pas la voie optimale !

Comment introduire ce modèle dans l’entreprise ?

En pratique, dans entreprise, les rappels théoriques ne sont pas indispensables, et nous posons directement la question suivante aux acteurs : « De quoi dépend la performance de votre entreprise ? »

Ce brainstorming conduit généralement aux réponses suivantes :

  • de la réussite commerciale,
  • de la qualité des prestations et produits,
  • des personnes,
  • des moyens matériels mis à disposition
  • de la direction,
  • de la bonne circulation des informations,
  • des moyens financiers,
  • du climat social,
  • etc.

Nous leur disons : « Vous avez raison ! Et ce que l’on va faire ensemble va intégrer tout cela autour de trois domaines ou leviers d’actions :

  • les processus pour développer l’esprit d’équipe et l’efficacité des activités (commerciales, techniques, administratives) au service des clients ;
  • les métiers pour développer d’une part les savoir-faire et les compétences nécessaires aux processus et d’autre part votre capital-emploi ;
  • le pilotage et les décisions parce que sans cela il n’y a pas de réussite possible ! ».

Pour conclure, c’est grâce à ces trois leviers de notre modèle et à ses déclinaisons et variations opérationnelles, intégrant notamment mais pas uniquement l’approche risques et le principe d’action PDCA, que nous construisons des systèmes de management de la qualité partagés par les acteurs de l’entreprise, contribuant efficacement aux performances et aux objectifs stratégiques des TPE – PME qui nous font confiance.

Par Olec Kovalevsky, Consultant en organisation et démarches qualité Pilote du groupement Performance Qualité TPE PME

 

Postface pour les sceptiques

Terminons, à l’attention de ceux qui pourraient douter de la pertinence de distinguer les éléments « Instances de pilotage et de décisions », « Processus » et « Métiers », par deux extraits de Michel Crozier et Erhard Friedberg dans « L’acteur et le système ».

« Le décideur ne cherche pas l’optimum, la meilleure solution dans l’absolu, qui est de toute façon hors de sa portée, mais il cherche pourtant toujours une solution « rationnelle ». Qu’elle sera-t-elle ? La première solution qui répond aux critères de rationalité qui sont les siens. L’homme n’est pas un animal qui cherche l’optimisation mais la satisfaction. » (cf. modèle de rationalité limitée introduit par Herbert Simon).

« Accepter de penser que c’est au niveau des capacités seulement que l’action sur les hommes ou pour les hommes a un sens pratique permet d’éviter ce piège de la morale éternelle : faire le bien des hommes sans leur demander leur avis. Agir sur les motivations, quelles que soient les intentions, entraîne à toutes les complaisances. Aider les hommes à développer des capacités nouvelles dont on accepte qu’elles puissent s’exercer contre vous offre un pari plus difficile mais raisonnable, et d’autant plus raisonnable qu’il est moins dangereux moralement. Ce pari est associé naturellement à la vision de rationalité limitée, de coopération impossible sans conflit et de relations de pouvoir universelles et inévitables. »

 

Références :

  • « Le Macroscope » Joël de Rosnay – 1975 – Editions du Seuil
  • « L’acteur et le système » Michel Crozier et Erhard Friedberg – 1977 – Editions du Seuil
  • « Réconcilier la stratégie et l’opérationnel – l’approche « processus – compétences » René Demeestere, Vincent Genestet et Philippe Lorino – 2006 – Editions ANACT
  • « Règles, Métier et Processus – trois explorations » Laurent Chiozzotto, Dominique Fauconnier, Michel Raquin – Editions L’Harmattan – 2013
  • « Mettre à niveau son système de management de la qualité avec l’ISO 9001 : 2015 » Olec Kovalevsky – 2016 – Techniques de l’Ingénieur (Livre blanc téléchargeable)

Présidentielles 2017 : les acteurs du numérique veulent faire entendre leurs voix

L’ACSEL, Cap Digital, la FEVAD, France Digitale, Renaissance Numérique, le SNJV, Syntec Numérique, Systematic Paris-Region et Tech In France ont créé en décembre 2016 le collectif France Numérique 2017. Cette action vise à sensibiliser les partis politiques et les candidats a l’élection présidentielle de 2017 aux enjeux du numérique, et au levier qu’il représente pour l’emploi et la croissance économique en France.

Comparer les programmes en ligne

Sur leur plateforme internet, un questionnaire permet de recueillir les propositions des candidats sur sur cinq thématiques liées au numérique : Financement de l’innovation et croissance numérique ; Juridique-Régulation-Réglementation ; Économie de plateforme et modèles collaboratifs ; Éducation et formation ; Numérique et volet social. A terme, les réponses au questionnaire permettront de comparer les programmes de chacun sur la question du numérique. Le collectif annonce par ailleurs l’organisation de débats au cours de la campagne qui seront retransmis sur cette plateforme. En attendant, le Think Tank Renaissance Numérique recueille les propositions et petites phrases des candidats dans une tribune hebdomadaire publié sur l’Usine Digitale.

Revoir le financement de la Tech

Le financement est au coeur des enjeux pour les sociétés du numérique française. Tech In France (ex Afdel) qui veut rassembler les éditeurs et les sociétés d’internet, a présenté son recueil de propositions pour “renforcer l’écosystème du numérique en France”. Elles visent notamment à favoriser l’investissement des particuliers dans le PME innovantes via les FCPI (fonds Professionnels de Capital-Investissement), à orienter l’épargne existante vers les PME innovantes et à développer le corporate venture en le rendant plus attractifs pour les entreprises qui s’y investissent.

Pour Bertrand Diard, président de Tech In France, “notre chaîne de financement comporte des maillons faibles […] et il manque encore des acteurs de l’investissement susceptibles d’accompagner jusqu’à la phase de maturité les prochaines licornes”.

Des propositions qui sont aujourd’hui largement partagées par d’autres acteurs de l’innovation comme France Biotech par exemple (voir cet article).

Par Sophie Hoguin

L’ombre des pirates sur les élections ?

Pour truquer une élection, le « bourrage des urnes » est connu. Mais ce grand classique de la fraude semble aujourd’hui désuet à l’heure d’internet et de l’hyper connexion. Le résultat d’une élection se joue-t-il à distance, via l’Internet ? C’est ce qu’affirme l’administration d’Obama. Selon les services de sécurité américains, les Russes ont « misé » sur Trump en lançant l’opération Grizzly Steppe.

L’objectif de cette attaque informatique aurait consisté à pirater le parti démocrate afin de faire « fuiter » (à destination de WikiLeaks) des documents échangés par emails par John Podesta. Les courriers électroniques du chef de campagne d’Hillary Clinton font mention notamment de trois discours de l’ex-secrétaire d’État rémunérés par la banque Goldman Sachs et mettant ainsi en lumière ses liens avec Wall Street.

Cette opération aurait été menée par un groupe de pirates russes appelé APT29. Il aurait envoyé des emails contenant des liens malveillants à plus de 1 000 destinataires. Évidemment, des personnes ont cliqué sur ces adresses, ce qui a entraîné une infection et une prise de contrôle à distance de leur ordinateur.

Mais est-ce la réalité ? « Les preuves présentées par les Américains sont un rapport de 13 pages, dont 5 qui concernent des méthodes d’attaques utilisées par de nombreux groupes de cybercriminels et 8 qui ne servent à rien. Finalement, on n‘a pas la preuve formelle de cette attribution. C’est le problème du cyberespace : il est très facile de masquer ses traces ou d’utiliser les outils d’attaques des autres », a rappelé fort justement sur BFMTV Gérôme Billois, Cybersecurity Senior Manager chez Wavestone, un cabinet de conseil, notamment en sécurité informatique.

Rien ne dit que ces fuites ont influencé les grands électeurs américains. En réalité, la menace est ailleurs. Elle se trouve principalement dans les machines à voter. Il existe plus de 50 modèles différents aux États-Unis. Et selon les chercheurs de l’université du Michigan, spécialistes du vote électronique, ils sont tous piratables ! Un constat confirmé d’ailleurs fin décembre en Allemagne lors du Chaos Computer Congress, grand-messe des hackers.

Pour rassurer les électeurs, les fabricants de ces appareils exposent un mauvais argument : ils ne sont pas connectés à Internet. Mais l’on sait depuis longtemps qu’il est possible d’infecter une machine sans liaison. Par ailleurs, une carte mémoire contenant les paramètres du vote est insérée dans chaque machine avant chaque scrutin. Or, les ordinateurs qui les configurent sont fréquemment raccordés à Internet…

Par Philippe Richard

Premiers signes de l’étrange propriété quantique du vide ?

L’analyse, au moyen du Very Large Telescope de l’ESO, de la lumière émise par une étoile à neutrons caractérisée par une extrême densité et un puissant champ magnétique, a peut-être conduit une équipe d’astronomes à mettre en évidence les toutes premières preuves de l’existence d’un étrange effet quantique, envisagée au cours des années 1930. La polarisation de la lumière observée suggère que l’espace vide situé en périphérie de l’étoile à neutrons est l’objet d’un effet quantique baptisé biréfringence du vide.

Une équipe pilotée par Roberto Mignani de l’INAF Milan (Italie) et de l’Université de Zielona Gora (Pologne) a utilisé le Very Large Telescope (VLT) de l’ESO installé à l’Observatoire de Paranal au Chili pour observer l’étoile à neutrons RX J1856.5-3754 distante de quelque 400 années-lumière de la Terre.

Bien qu’elle figure parmi les étoiles à neutrons les plus proches de la Terre, RX J1856.5-3754 se caractérise par une luminosité extrêmement faible. Pour pouvoir observer cette étoile dans le domaine visible, les astronomes ont donc été contraints d’utiliser l’instrument FORS2 qui équipe le VLT, poussant le télescope à sa limite technologique.

Les étoiles à neutrons constituent les vestiges des noyaux extrêmement denses d’étoiles massives – de masse supérieure à 10 masses solaires – qui ont explosé en supernovae à la fin de leur vie. Elles sont par ailleurs dotées de champs magnétiques extrêmes, des milliards de fois plus puissants que celui du Soleil, qui transpercent leur enveloppe externe et baignent leur environnement proche.

Du fait de leur intensité, ces champs affectent les propriétés de l’espace vide situé en périphérie de l’étoile. En règle générale, le terme vide désigne un espace totalement vierge, que la lumière peut traverser sans subir la moindre perturbation. En électrodynamique quantique (QED) toutefois, cette théorie quantique qui décrit l’interaction entre particules de lumière et corpuscules chargés tels les électrons, l’espace est rempli de particules virtuelles qui apparaissent et disparaissent à chaque instant. Les champs magnétiques très intenses sont susceptibles de modifier cet espace, et donc de modifier la polarisation de la lumière qui le traverse.

Mignani de préciser : “Selon la QED, un vide fortement magnétisé se comporte à l’image d’un prisme vis à vis de la propagation de la lumière, et produit un effet baptisé biréfringence du vide.”

La QED a donné lieu à la formulation de nombreuses hypothèses qui se sont avérées exactes. Toutefois, le concept de biréfringence du vide n’a pour l’instant pas trouvé le moindre écho expérimental. Les expériences de laboratoire menées ces 80 dernières années – depuis sa formulation au sein d’un article co-signé par Werner Heisenberg (auteur du célèbre principe d’incertitude) et Hans Heinrich Euler – n’ont effectivement pas permis de le mettre en évidence.

“Cet effet ne se manifeste qu’en présence de champs magnétiques extrêmement puissants, tels ceux qui règnent en périphérie d’étoiles à neutrons. Ce qui témoigne, là encore, des formidables laboratoires d’étude des lois fondamentales de la nature que constituent les étoiles à neutrons” précise Roberto Turolla (Université de Padoue, Italie).

Après avoir effectué l’analyse minutieuse des données du VLT, Mignani et son équipe ont détecté un effet de polarisation linéaire – d’environ 16%, ce qui est significatif – qu’ils ont interprété comme la résultante directe de la biréfringence du vide qui se produit au sein de l’espace vide situé en périphérie de RX J1856.5-3754 [2].

Vincenzo Testa (INAF Rome, Italie) d’ajouter : “Il s’agit de l’objet le plus faiblement lumineux dont la polarisation du rayonnement qu’il émet a jamais été mesurée. Cette mesure a requis l’utilisation de l’un des télescopes les plus grands et les plus performants au monde, le VLT, ainsi que l’emploi de techniques d’analyses de données très précises, capables d’amplifier le signal en provenance d’une étoile si peu brillante.”

“Nos modèles ne peuvent rendre compte de la polarisation linéaire élevée que nous avons mesurée au moyen du VLT, qu’à la condition d’y inclure les effets de biréfringence du vide prédits par la QED”, précise Mignani.

“Cette étude réalisée avec le VLT apporte le tout premier élément de preuve observationnelle en faveur de ces types d’effets QED censés se produire au sein de champs magnétiques extrêmement puissants” ajoute Silvia Zane (UCL/MSSL, Royaume Uni).

Mignani est enthousiaste à l’idée que la prochaine génération de télescopes contribue à des avancées dans ce domaine de recherche : “Les mesures de polarisation effectuées au moyen de télescopes plus perfectionnés, tel l’E-ELT, l’European Extremely Large Telescope de l’ESO, pourraient permettre de tester les prédictions de la QED relatives aux effets de la biréfringence du vide dans la périphérie d’un plus grand nombre d’étoiles à neutrons”.

“Cette mesure, effectuée pour la toute première fois en lumière visible, ouvre la voie à de semblables détections dans le domaine des rayons X”, conclut Kinwah Wu (UCL/MSSL, Royaume-Uni).

Notes

[1] Cet objet fait partie intégrante d’un ensemble d’étoiles à neutrons baptisé Les Sept Magnifiques. Ce sont des étoiles à neutrons isolées (INS), dépourvues de tout compagnon stellaire, qui n’émettent aucun rayonnement radio (à la différence des pulsars) et ne sont pas environnées de matière issue d’une supernova.

[2] D’autres processus peuvent polariser la lumière stellaire au cours de son déplacement. L’équipe a soigneusement examiné ces autres hypothèses – la polarisation résultant de la diffusion par les grains de poussière par exemple – avant de les éliminer une à une, aucune d’elles ne leur apparaissant susceptible d’avoir généré le signal observé.

Plus d’informations

Ce travail de recherche a fait l’objet d’un article intitulé “Evidence for vacuum birefringence from the first optical polarimetry measurement of the isolated neutron star RX J1856.5−3754”, par R. Mignani et al., à paraître au sein de la revue Monthly Notices of the Royal Astronomical Society.

Source : eso

Piratage des appareils médicaux : panique au bloc

Jusqu’à présent, les rappels organisés par les industriels ou les distributeurs concernaient des anomalies dans le fonctionnement d’un appareil ou d’une voiture ou la détection de traces suspectes (comme des bouts de métal dans des boites de conserve). Il faut maintenant s’habituer aux rappels à propos de failles de sécurité dans les équipements médicaux !

La réalité a rejoint la fiction. Dans la série Homeland, le vice-président Walden est assassiné à distance au moyen de son pacemaker déréglé par un pirate. Cette attaque n’est pas un délire de scénariste ; comme la majorité des appareils connectés, ce type d’équipement intègre un faible niveau de sécurité, voire une absence totale de mécanismes de protection.

Fin décembre, le laboratoire pharmaceutique Johnson&Johnson est entré en contact avec 114 000 patients aux États-Unis et au Canada. L’un de leurs modèles de pompe à insuline présente une vulnérabilité. Exploitée malicieusement, elle permet d’injecter une dose potentiellement mortelle pour son porteur.

Cet exemple n’est pas unique. Depuis quelques mois, les révélations sur les vulnérabilités de ces équipements se multiplient. Jay Radcliffe, chercheur en sécurité chez Rapid7, lui-même diabétique, a par exemple démontré que le flux de connexion de sa pompe à insuline n’était pas chiffré. En clair, cela signifie qu’il peut être intercepté pour y injecter des données altérées.

Face à ces menaces, la FDA (Food and Drug Administration) a commencé à prendre des mesures drastiques dès 2015. A cette époque, elle avait ordonné le retrait du marché des pompes à perfusion Symbiq de l’américain Hospira. Raccordées en wi-fi, elles pouvaient être modifiées à distance. Pas de cas identique en France. Mais la Haute Autorité de Santé (HAS) a publié un guide de 101 bonnes pratiques afin de concevoir des objets connectés médicaux plus sûrs.

Ce guide est d’autant plus important que la menace concerne aussi les équipements hospitaliers comme les scanners et les IRM qui sont aujourd’hui raccordés au web ou à des réseaux. Comme un PC, ils peuvent donc être infectés par un code malveillant via une liaison internet ou une clé USB. La situation commence à être prise au sérieux par les autorités et les fabricants car le nombre d’incidents déclarés volontairement par les établissements s’est élevé à 1300 en 2015. Mais à la différence de l’informatique de bureau, la problématique est plus compliquée à gérer. « Si un client applique une modification d’un tel système comme la mise en place d’un correctif, cela entraîne la perte d’agrément de santé », signale Philippe Loudenot, Fonctionnaire de sécurité des systèmes d’information au ministère des Affaires sociales.

Philippe Richard

Corps humain : un nouvel organe entre dans le dictionnaire

Dans un article publié dans la revue Lancet Gastroenterology & Hepatology*, une équipe de scientifiques de l’université de Limerick (Irlande), menée par J. Calvin Coffey, a en effet montré que le mésentère est en fait une structure continue et délimitée.

Qu’est-ce que le mésentère ?

Le mésentère est une membrane qui fait la jonction entre les intestins et la partie postérieure du péritoine (paroi abdominale). Cette membrane crée une sorte de tube qui abrite notamment les artères et les nerfs assurant vascularisation et innervation des intestins. Le mésentère joue aussi le rôle de maintien des intestins à leur place et dans une conformation optimale. Selon la section de l’intestin considérée sa largeur et son épaisseur sont variables. Si fin et si collé à la paroi intestinale sur certaines portions que l’on a cru qu’il était compartimenté en plusieurs structures distinctes.
Sa continuité a pu être prouvée grâce à des opérations de chirurgie (excision totale de certaines parties de l’intestin) ou sur des études post-mortem.

Un nouvel organe et alors ?

Le fait de prouver la continuité de cette structure et de le classer comme nouvel organe va changer le regard que la médecine et la recherche médicale porte sur le mésentère. Car on étudie les organes pour les fonctions particulières qu’ils assument et du coup les mal-fonctions ou les maladies qui leur sont propres. L’article du Lancet liste certaines de ces pathologies pour lesquelles un nouvel angle d’attaque pourrait voir le jour: outre les pathologies primaires du mésentère comme les défauts de rotation de l’intestin, les volvulus (torsion d’une anse de l’intestin), les hernies intestinales (dues à une absence du mésentère) etc., l’article suggère par exemple, que la maladie de Crohn pourrait provenir d’une pathologie touchant d’abord le mésentère et s’étendant à l’intestin et non l’inverse. En conclusion, les chercheurs soulignent que le rôle du mésentère est aujourd’hui largement méconnu dans les systèmes lymphatiques, neurologiques, vasculaires pour lesquels il occupe une place centrale. Il reste donc à étudier les propriétés des cellules qui lui sont propres et le rôle qu’elles peuvent jouer par exemple dans les phénomènes inflammatoires par régulation des protéines C-réactives.

Par Sophie Hoguin

*Volume 1, No. 3, p238–247, November 2016

La route solaire suscite l’indignation de riverains en Normandie

Durant l’émission « Energie: comment passer de l’atome au renouvelable ? » (ça vous regarde, LCP), le journaliste Arnaud Ardoin a posé cette question: « on bloque autant qu’on peut le développement des renouvelables en France ? ». « Mais bien sûr » répond Corinne Lepage.

« Par quels biais ? » Réponse de l’ex-Ministre de l’environnement (Minute 19’10 » de la vidéo): « Une règlementation absolument impossible. Madame Royale a inauguré (le 22-12-2016 NDLR) une route solaire, avec une communication d’enfer autour de ce truc là. Je pense que c’est typiquement une fausse bonne idée. Pourquoi ? Parce qu’on a dépensé beaucoup d’argent pour faire cela. Cela rapporte finalement assez peu de kWh, on en prévoyait 17000 il va y en avoir 500 ou 700. Cela va concerner 50 maisons, on a dépensé 5 millions pour faire cela, c’est affreusement cher et pendant ce temps là vous ou moi si l’on veut faire un toit solaire c’est extrêmement compliqué. Et le gouvernement refuse de permettre que cela soit aux individus, aux entreprises  ou aux collectivités locales d’investir massivement sur le renouvelable et l’autonomie énergétique. »

Les critiques les plus dures viennent du terrain: « C’est infect ! » tonne un riverain de la route solaire de Tourouvre dans un reportage LCI intitulé: « la route solaire: un coup de com ? »«Notamment à cause du bruit » explique une journaliste de LCI. Mais peut-être pas que…

En savoir plus :
Dossier – La Route (solaire) du Rhum

Olivier Daniélo

Le 100% Renouvelable est possible pour la région PACA dès 2030 selon ENGIE. Et cela coûtera 20% moins cher

Dans le cadre d’une interview pour Bloomberg publiée le 20 décembre 2016, Thierry Lepercq, Directeur Général adjoint du géant français, en charge de la Recherche & Technologie et de l’Innovation, a déclaré qu’« en France Engie a récemment conduit une étude de modélisation très approfondie (« very deep modeling ») de la région Provence-Alpes-Côte d’Azur où vivent 5 millions de personnes, montrant qu’elle peut fonctionner entièrement avec les énergies renouvelables dès 2030, ceci à un coût 20% moins élevé que le système énergétique actuel » dominé aux trois quarts par le nucléaire d’ancienne génération.

« Le solaire, l’éolien, le biogaz, les batteries à grand échelle et l’hydrogène seront des éléments clés » a ajouté Thierry Lepercq.

Lepercq a par ailleurs dressé un tableau à la fois lucide et enthousiasmant pour le futur de l’Humanité: dans les régions très ensoleillées de la planète le coût du photovoltaïque pourrait  en 2025 passer en dessous de 1 cent le kWh (1 US cent = 0,95 centimes d’€). Autrement dit moins de 10 dollars le MWh.

« Le solaire, le stockage batterie, les véhicules électriques à batterie ou hydrogène ainsi que les objets connectés sont dans une courbe en « J ». » En conséquence ce dirigeant estime que le prix du baril de pétrole pourrait s’effondrer à 10 dollars si le marché anticipe une baisse significative de la demande ». Pour Lepercq « la promesse d’une énergie quasi-infinie et gratuite est là ». 

Des chercheurs finlandais ont mis en ligne un outil pédagogique (Global Internet of Energy Model) montrant que le 100% renouvelable est possible partout sur Terre. Les chercheurs soulignent que leur objectif est de «  débunker les mythes sur les énergies renouvelables » colportés par les défenseurs des énergies non durables.

Vers un pétrole photovoltaïque

L’électricité solaro-éolienne peut servir à alimenter l’électrolyse de l’eau en dihydrogène. Ce dernier permet ahors d’obtenir du CH4 par méthanation. Contacté par Techniques-ingénieur.fr le chercheur Christian Breyer, professeur de « Solar Economy » au sein du MIT finlandais, la Lappeenranta University of Technology, a déclaré que  « l’électricité solaire et éolienne peut tout à fait alimenter les transports aériens et maritimes longue distance ».  Une concrétisation de la vision Solar Impulse du psychothérapeute suisse Bertrand Piccard.

En Novembre 2016 Breyer a co-publié une étude montrant que l’Europe pourrait alors mettre en place une coopération fructueuse dans le domaine du pétrole solaire, de type win-win, avec les pays d’Afrique du nord, du Maroc à l’Egypte. C’est la vision DESERTEC, mais sans les difficultés d’ordre géostratégique que pose la construction d’un grand réseau électrique HVDC sous-marin.

Si le prix de l’électricité tombe en dessous de 1 centime dès 2025 les pays très ensoleillés de la planète pourraient devenir les nouveaux rois du pétrole. Un pétrole qui sera disponible pour les 5000 millions d’années à venir. Ce qui est assez satisfaisant dans une perspective de durabilité.

Par Olivier Daniélo

Expérience#10: « Lâcher prise et finitude »

Le lâcher prise est une démarche difficile car elle nous confronte au sentiment de finitude. En effet, cette attitude consiste à décider d’arrêter de vouloir tout contrôler. Lâcher prise ne veut pas dire renoncer mais se libérer de contraintes excessives. Il ne s’agit pas d’une faiblesse mais au contraire d’une confiance en sa capacité à faire face et à s’ajuster en temps réel.

Voici deux exemples illustrant le lâcher prise en milieu professionnel.

1) Arrêter de vouloir devenir quelqu’un d’autre

Lionel, responsable adjoint du service client, aime se définir comme un manager humaniste. Il accorde un grand soin aux relations interpersonnelles avec ses collaborateurs du service clients, et entretient un climat de saine émulation avec les membres de son équipe.

Il décrit Natacha, son manager, comme une experte volcanique, plutôt expéditive et autoritaire. Lionel admire Natacha pour ses grandes compétences et aussi, il l’avoue, pour son caractère trempé. Le problème c’est la quantité de reproches que cette dernière adresse à Lionel au sujet de sa « familiarité » vis-à-vis des collaborateurs. Avec toute cette brutalité qui la caractérise, et sans y mettre les formes, il arrive même à Natacha de désavouer publiquement certaines options managériales de Lionel. Elle juge notamment « trop amicale » sa manière de traiter les conflits au sein du service.

Lionel a toujours su tenir ses objectifs et ses entretiens annuels ont toujours récompensé sa loyauté, et la qualité de ses compétences professionnelles. Bien que ses opinions, sur l’inefficacité du coaching semblent bien arrêtées, Natacha -pragmatique- a quand même fini par accepter d’accorder à Lionel le support d’un accompagnement individuel afin de l’aider à « tremper » son management. « Après tout certains placebos – comme l’homéopathie- peuvent produire des résultats ; alors pourquoi pas un coaching » a-t-elle ébruité pour couvrir sa décision.

Au cours de ses entretiens de coaching, Lionel prend conscience que la relation qu’il a laissé se développer avec Natacha lui a fait perdre confiance en lui. Il prend également conscience que sa nature humaniste est en ligne avec ses valeurs profondes. Cette observation renforce, à ses yeux, la légitimité de son style managérial.

Il se rend compte qu’il ne pourra pas donner satisfaction à Natacha : Il ne peut, ni ne veut, « durcir » son management. Au contraire, pour améliorer son impact managérial sur les autres, il comprend qu’il doit cesser de vouloir ressembler à Natacha mais au contraire, permettre davantage l’expression de son propre style managérial. Lionel estime que la réussite du projet de développement de son propre style managérial nécessite un investissement personnel incompatible avec la relation installée entre lui et sa responsable.

Pour se protéger désormais de ce qu’il identifie comme une forme de toxicité, Lionel prend alors une décision courageuse et une décision audacieuse :

  1. Il choisit de renoncer au confort de sa fonction actuelle, parfaitement maitrisée, au sein du service client.
  2. Il se lance de nouveaux défis et se porte candidat pour d’autres postes managériaux ouverts au sein de sa société.

Il est à la fois soulagé et fier de la manière avec laquelle il a réussi à traverser sa dévalorisante relation avec Natacha. En acceptant de se concentrer sur le projet de devenir ce qu’il est, Lionel s’est engagé sur une autoroute de changements possibles ; il reprend confiance en lui.

2) Arrêter de vouloir contrôler son image

Martine exerce, en profession libérale, une activité professionnelle de services à la personne. Ambitieuse, consciencieuse, douée, débordant de bonnes idées, Martine souhaite donner une dimension plus industrielle à son activité et s’associe au projet de deux hommes d’affaires de son réseau professionnel. Elle engage ses biens personnels et obtient le financement dont elle a besoin auprès de sa banque pour l’intégration de sa petite société dans le groupe industriel de ses deux associés. Après 18 mois de pratique, Martine regrette déjà. Son affaire tourne assez bien, mais ses valeurs humanistes sont mises à mal. Les comportements de ses deux associés sont arrogants, insensibles, opportunistes, dénués de chaleur et semblent exclusivement motivés par la seule logique financière. Elle ne supporte plus de devoir chaque jour vivre en désaccord avec ses valeurs profondes et n’ose pas se confronter à ces deux associés hommes d’affaires, des « requins » comme elle les qualifie, de peur de paraître non-professionnelle. À l’issue de quelques séances de coaching, Martine s’autorise à s’accepter comme elle est, c’est-à-dire humaniste avant toute autre considération financière. Cet éclairage lui permet de lâcher son projet de développement. Elle rencontre ses deux associés et leur fait connaître sa décision de se désengager. En acceptant de lâcher son acharnement sur ce projet – où elle est pourtant patrimonialement engagée– Martine accède, à sa plus grande surprise, à une renégociation des conditions du partenariat avec ses associés qui ne veulent pas la voir partir. Cette renégociation lui laisse le champ beaucoup plus libre, elle intègre de nouveaux locaux, allège sa contribution aux charges financières du groupe de sociétés, et n’a plus à supporter les comportements de ces deux « machines à sous ». Ils la découvrent même si déterminée qu’ils la qualifient du titre peu enviable de « Martine Thatcher » … Sans doute une marque de respect ! Le lâcher prise de son acharnement à vouloir ressembler à une businesswoman aguerrie lui a permis de devenir davantage l’entrepreneur humaniste qu’elle est réellement. Un acharnement aveugle lui aurait probablement couté sa santé …et son âme.

  • Qu’en pensez-vous ? Ces deux exemples vous inspirent-ils ?
  • Quelles limites voyez-vous dans cette stratégie du lâcher prise ?
  • Cette attitude vous paraît-elle conciliable avec un management efficace ?

Nous vous invitons à prolonger cet article via la zone commentaire (ci-dessous), en nous proposant vos réponses aux problématiques évoquées par l’auteur

12 expériences de management réelles

  1. Expérience #1 : « Je ne vaux plus rien »
  2. Expérience #2 : « Je sais ! Je sais ! Du savoir à la compétence »
  3. Expérience#3: « ça ne marche pas«
  4. Expérience#4 : Managers attention : le succès rend aveugle !
  5. Expérience#5 : Passe-droits, privilèges et courage
  6. Expérience#6 : Justice pour les collaborateurs, solitude pour les managers
  7. Expérience#7 : Le soi du Gestalt consultant comme outil d’observation des processus
  8. Expérience#8 : Perfectionnisme : une coûteuse erreur de management
  9. Expérience#9: « Licenciement : échéance de fin de moi »

CES de Las Vegas 2017 : une pédale de vélo qui mesure la puissance du cycliste

Les visiteurs du CES de Las Vegas, le rendez-vous mondial des acteurs de l’innovation dans les technologies numériques, pourront essayer trois démonstrateurs de technologies les plus avancées du CEA-Leti, institut de CEA Tech.

Push : une pédale de vélo intelligente

Push est la première pédale de vélo innovante qui mesure la puissance en divisant le coût par un facteur 10 par rapport aux systèmes actuels, le prix visé est moins de 100 $ : cette pédale est simple d’utilisation et  adaptable sur tout type de vélo (roulant ou fixe), elle mesure la force appliquée sur la pédale et la cadence de pédalage, puis les combine pour calculer et afficher la puissance du cycliste en temps réel. Une seule pédale Push fournit des mesures de puissance fiables et fonctionne quel que soit la face d’appui de la pédale. Le sportif amateur ou le professionnel du vélo peut ainsi suivre ses performances et améliorer sa technique de pédalage. Cette innovation rend accessible la mesure de la puissance et ouvre des champs d’applications nombreux (coaching, bien-être, gaming).

Quoi de neuf ?
Pédale Push présentée par le CEA-Leti au CES 2017
Pédale Push présentée par le CEA-Leti au CES 2017

Les capteurs de la pédale Push sont couplés à des algorithmes de fusion de données qui permettent une estimation de la puissance délivrée par le cycliste à 8 % près. Le dispositif intègre une communication sans fil  permettant de coupler la pédale à un smartphone. Sa faible consommation d’énergie permet une autonomie de plus 10 000 km sans recharge.

Pédale Push présentée par le CEA-Leti au CES 2017
Pédale Push présentée par le CEA-Leti au CES 2017

Relax : un casque pour mesurer l’état de relaxation

Relax est le casque qui présente le meilleur compromis entre simplicité d’utilisation et précision de la mesure de l’activité cérébrale. Il est très simple à installer ce qui le rend utilisable par tout le monde. Grâce aux informations fournies par le casque et son application sur smartphone ou tablette, l’utilisateur de Relax peut vérifier son état de relaxation. Dans le futur, la technologie pourra être adaptée aussi pour commander des applications informatiques comme la réalité virtuelle, les jeux vidéo, ou les systèmes d’assistance aux personnes en situation de handicap.

Quoi de neuf ?
Relax est le premier système de mesure de l’activité cérébrale par électroencéphalographie (EGG) fonctionnant avec des électrodes sèches (sans gel de contact). Il a vocation à constituer un nouveau standard pour développer et diffuser des applications médicales (il est compatible avec les certifications médicales) et de confort ou de loisir.
casque relax
Casque Relax présenté par le CEA-Leti au CES 2017 © CEA
 Basé sur une technologie très innovante, Relax fonctionne sans gel de contact, et avec précision chez presque tous les individus (en fonction de la masse de cheveux et de l’épaisseur du cuir chevelu). Il mesure les ondes du cerveau mais n’interagit pas en retour sur l’organe. Sa mise en œuvre peut se faire à la maison comme au bureau, et ne nécessite pas un environnement médical.

Sigma Fusion : composant embarqué dans les véhicules autonomes

A bord d’un véhicule autonome, Sigma Fusion est un composant numérique embarqué capable d’interpréter les signaux d’une caméra stéréoscopique et de deux Lidars. En temps réel, il fournit au système de pilotage automatique de la voiture des données précises et fiables sur la position des obstacles et les espaces de sécurité autour de la voiture. Il peut également équiper des drones ou des dispositifs de surveillance, de secours ou de sécurité.

Quoi de neuf ?
Sigma Fusion consomme moins de 1 watt, il est donc 100 fois plus efficace que les systèmes équivalents actuellement disponibles. Il est compatible avec une large gamme de capteurs standards. De faible encombrement et de faible coût, il peut être mis en œuvre sur les chaines de production de tout type de véhicule.
Sigma-fusion-1.jpg
Détecteur d’obstacles pour la voiture autonome Sigma-Fusion présenté par le CEA-Leti au CES 2017 © CEA
Source : cea

Le taux de retour énergétique, une mesure de l’efficacité sociétale des sources d’énergie

Cette importance est manifeste si l’on rapporte l’évolution du PIB mondial depuis les années 1960 à la consommation d’énergie primaire, exprimée non pas en dollars, mais en quantité physique : en million de tonnes-équivalent pétrole (Mtep). On voit que le PIB, en réalité, peut être vu comme un proxy de la consommation d’énergie [1], et que la pente moyenne a été d’environ 7000 $/tep.

tableau1

Le formidable développement humain que les fossiles ont permis est dû à ce qu’ils décuplent les facultés de transformation de la matière. Un humain peut développer en une journée environ 0,5 kWh de travail, alors que la combustion d’un litre d’essence libère environ 10 kWh, et cela pour 1,5 € ! Il convient donc de mesurer, pour les sources d’énergie alternative aux fossiles, ce qu’elles sont capables de délivrer pour le développement des sociétés.

Le concept d’EROI (Energy return on [energy] invested), ou taux de retour énergétique, permet de quantifier les choses. Comme il faut de l’énergie pour en produire, ce qui est mis à disposition pour la société doit tenir compte de ce que le secteur énergétique lui-même consomme pour son propre fonctionnement. Désignons par Eout l’énergie produite, par Ein l’énergie investie pour cette production, l’EROI est défini par EROI = Eout/Ein. Il est intéressant d’introduire également, suivant Euan Mearns, l’énergie nette relative, (Eout-Ein)/Eout = 1- 1/EROI, et de la tracer en fonction de EROI. Voici ce qu’on obtient :

tableau2

Pour une valeur donnée de l’EROI, la partie rouge représente l’autoconsommation du secteur énergétique, et la partie bleue ce qui est reversé aux autres secteurs d’activité. On voit que tant que l’EROI est élevé, sa diminution éventuelle ne change pas vraiment le bilan, mais qu’en dessous d’environ 10, le fonctionnement normal de nos sociétés n’est plus assuré, car de moins en moins d’énergie, en pourcentage, est disponible pour la satisfaction de nos besoins. Précisons que les sociétés développées fonctionnent avec un EROI moyen supérieur à 20 [2].

Une question délicate et controversée, pour l’évaluation de l’EROI, concerne le périmètre à prendre en compte pour calculer l’énergie investie. Prenons l’exemple du pétrole. Ne prendre que l’énergie nécessaire à son extraction n’est pas satisfaisant, car le pétrole n’est intéressant que dans la mesure où il est une promesse d’essence. Pour que cette promesse se réalise, il faut transporter ce pétrole, le raffiner, transporter l’essence, le diesel ou le fioul obtenus jusqu’au réseau de distribution, lequel doit exister. Il convient également de tenir compte des salaires des personnels travaillant dans le domaine, car ces salaires ont une contrepartie énergétique consommée par les salariés.  Toutes ces étapes sont consommatrices d’énergie, et à chaque étape correspond une valeur de l’EROI. Tous ces coûts énergétiques pris en compte, ce qui reste peut enfin servir à différents besoins (mobilité, chauffage, industrie, agriculture, culture et loisirs). Cette problématique vaut évidemment quelle que soit la source d’énergie considérée.

Dans une étude remarquable publiée en 2013, Charles Hall et Pedro Prieto ont analysé les performances du photovoltaïque espagnol correspondant aux trois années de production 2009-2010-2011. L’intérêt de cette étude tient à son exhaustivité et à ce qu’il s’agit de données réelles (Pedro Prieto est un ingénieur qui a passé trente ans de sa vie à installer toute sorte de systèmes photovoltaïques). En effet, s’agissant de l’énergie produite Eout, toutes sortes d’effets viennent la réduire : les poussières, le mismatch de modules, les pertes angulaires, les effets de température, les pertes inverteurs, celles du circuit basse tension et de tension intermédiaire, les pertes d’évacuation du courant et de la dégradation temporelle des modules. Concernant l’énergie investie Ein, la fabrication des panneaux et leur installation ne représente qu’environ un tiers de la dépense énergétique, les deux autres tiers étant dus à des aspects souvent négligés mais bien réels : coûts énergétiques associés accès, fondations, canalisations, lignes d’évacuation, fonctionnement et maintenance, lavage et nettoyage, auto-consommation, surveillance et sécurité, transport du matériel et du personnel, vol et vandalisme, matériel défectueux, restructuration du réseau électrique,  lissage d’une production par nature variable, obsolescence prématurée, administration, travail direct et indirect, taxes, marketting… Hall et Prieto évaluent ainsi l’EROI du PV espagnol à 8,3 :1 lorsqu’ils restreignent au minimum le périmètre de l’énergie investie et négligent la plupart des pertes, et cette valeur tombe à 2,5 :1 lorsque tous les coûts énergétiques du secteur sont pris en compte !

C’est à cette étude que j’ai fait allusion dans une note postée sur mon blog de Mediapart, et c’est ce qui m’a valu les critiques d’Olivier Daniélo. Il me reproche de me fonder sur une étude dont les données sont obsolètes, dans un domaine où les progrès technologiques sont extrêmement rapides, au point qu’à l’échelle de 10 ans le bilan énergétique est à revoir totalement. Avant de voir ce qu’il en est exactement, remarquons tout de même qu’il est difficile d’analyser les données sur trois ans de parcs construits aujourd’hui, voire demain – causalité oblige – et que la durée de vie d’un parc est estimée à environ 25 ans. De ce point de vue, l’analyse de Hall et Prieto est toujours d’actualité aujourd’hui pour le parc espagnol. Les industriels se sont jetés tête baissée dans le photovoltaïque dans les années 2000 – assurés de faire des bénéfices grâce aux tarifs d’achat avantageux garantis – savaient-ils qu’ils installaient une source dont l’EROI était si bas ?

Olivier Daniélo se fonde sur une étude très intéressante de Rembrandt Koppelaar, de l’Imperial College London, dont le but est de « reproduire et d’harmoniser 29 études, et d’examiner l’influence de l’âge des données, du périmètre du système et des configurations technologiques » sur l’évaluation des performances du photovoltaïque. Trois conclusions saillantes de cette étude de 2016 : i) l’EROI « harmonisé » est de 8,6 :1 et 9,2 :1 pour les panneaux mono- et poly-cristallins, ii) les valeurs obtenues en utilisant les données postérieures à 2008 sont doubles de celles utilisant les données antérieures et iii) en tenant compte d’améliorations technologiques récentes, les valeurs passent à 9,7 :1 et 11,4 :1 respectivement, bien au dessus de la valeur de Hall et Prieto.

En quoi consiste cette « harmonisation » effectuée par Koppelaar ? Parmi les hypothèses qu’il utilise, citons : i) la production d’électricité a été recalculée en prenant comme donnée d’ensoleillement la valeur de 1700 kWh/m2/an, ii) l’énergie correspondant aux salaires et aux coûts d’investissement obtenue au moyen d’une conversion de l’intensité énergétique des économies a été ôtée des études qui l’ont prise en compte et iii) l’énergie investie dans les batteries, les services auxiliaires, la restructuration du réseau a été ôtée des études qui l’ont incorporée.

La première hypothèse est valable pour l’Espagne, mais elle surestime d’un facteur presque 2 l’ensoleillement en Allemagne, qui a installé environ 40 GW de PV, ou en Suisse. Passons sur ce point, qui n’est pas le plus important. La seconde hypothèse n’est pas justifiée. De quoi s’agit-il ? Dans le coût énergétique des panneaux, par exemple, est comptée la consommation énergétique des travailleurs qui les fabriquent (c’est implicite dans le salaire qu’ils reçoivent) : de quoi assurer leur métabolisme, celui de leur famille, leur transport, l’éducation de leurs enfants etc. Pourquoi ne pas tenir compte de celle des travailleurs qui opèrent et maintiennent les installations ? Une façon approchée de calculer ce coût est de partir de la consommation totale moyenne d’énergie par salarié, puis de tenir compte du nombre de salariés du secteur. Hall et Prieto obtiennent ainsi 5% de Eout. Ce n’est pas négligeable. Il n’y pas plus de raison de ne pas tenir compte, dans l’énergie … investie,  des coûts d’investissement ! La troisième hypothèse n’est valable que si la part du PV ne représente qu’une petite partie du mix électrique, mais elle ne l’est plus si l’on envisage un déploiement important de cette source d’énergie (par exemple, les scénarios 100 % renouvelables). Un réseau adapté pour une production centralisée ne l’est plus pour une multitude de producteurs décentralisés : les coûts énergétiques d’adaptation du réseau doivent être pris en compte. De plus, les réseaux électriques fonctionnent avec de la puissance garantie, pas avec de la puissance variable ou intermittente. Le pilotage de la demande peut prendre en charge une partie des fluctuations, mais certainement pas la totalité en cas de déploiement massif. Il faut donc disposer de puissance de back-up ou de stockage, dédiés au lissage de la production PV. Aujourd’hui, en Allemagne, ce back-up est assuré par les fossiles – charbon et lignite – mais si l’on prétend sortir des fossiles, le problème est entier.

Un rapport récent de la FNH envisage le stockage par batterie (page 51 du rapport). Mais les auteurs du rapport font une erreur grossière.

Ils commencent par remarquer que, d’après les experts, il faut de l’ordre de 350-400 kWh d’énergie pour « fabriquer » 1 kWh de batterie, ce qui, a priori, parait prohibitif. Mais, poursuivent-ils, ce kWh va être utilisé 4000 fois (nombre de cycles), voire le double (progrès). Le cout énergétique passera donc rapidement à 0,01 kWh pour 1 kWh stocké. Cela aura donc un effet négligeable sur l’EROI du PV.

L’erreur consiste à ne raisonner qu’en relatif (coût énergétique par kWh de stockage) sans évaluer le besoin total de stockage, en valeur absolue. Prenons le cas allemand. Nos voisins ont installé environ 40 GW de PV. Aujourd’hui, le back-up est fourni par les fossiles – charbon et lignite. Mais s’il s’agissait de batteries (pour sortir des fossiles), il faudrait pouvoir assurer une large fraction de cette puissance pendant une dizaine d’heures où le soleil est faible ou absent. Disons 20 GW pendant 10 heures, soit 200 GWh. Or l’énergie mondiale totale stockée dans les batteries est d’environ de 500 GWh !

Et je n’ai pas pris ici en compte les besoins de stockage associés à l’éolien. Dans ce cas, le besoin cumulé de stockage peut correspondre à un excédent ou un déficit de plusieurs jours, et une étude récente [3] indique, pour la France, un besoin de l’ordre de 10 TWh, pour un mix électrique renouvelable optimal (PV + éolien) correspondant à une réduction à 50 % de la part du nucléaire. Dix TWh, c’est  20 fois la capacité mondiale des batteries – pour un seul pays. On voit bien que cette technologie ne constituera jamais une solution pour du stockage massif.

Il est temps de conclure. Il ne fait aucun doute que la filière PV fait des progrès technologiques rapides, qu’elle continuera d’en faire, qui se traduiront par une augmentation de l’EROI de la filière. Je pense que c’est une très bonne chose, et que cette évolution est attendue car le photovoltaïque est loin d’être une technologie mature : d’importants progrès peuvent être encore accomplis.

Mais, d’une part, cela n’invalide en rien le besoin de caractériser les performances énergétiques d’installations faites dans un passé récent – car elles sont installées pour 25 ans. Fallait-il, d’ailleurs, en installer tant ? N’aurait-il pas mieux valu mettre l’accent sur la recherche et, en attendant de meilleures performance, développer le PV là où l’absence de réseau favorise l’auto-consommation ? La CSPE coûte aujourd’hui 7 milliards d’euros par an aux consommateurs français, elle augmente de 10 % par an, alors que les laboratoires, y compris ceux qui travaillent dans le solaire, se battent pour des budgets se chiffrant en millions d’euros.

Et, d’autre part, il est naïf – ou puéril, comme on veut – de gonfler les chiffres en restreignant le périmètre du calcul de l’énergie investie dans le secteur. Il convient de garder à l’esprit ce que l’EROI cherche à caractériser : la part du secteur énergétique – de tout le secteur énergétique – parmi l’ensemble des activités productrices de biens et de services. La discussion est parfois polluée, hélas, par des considérations idéologiques : toute analyse qui peut être perçue comme une critique du PV – ou de l’éolien – est immédiatement soupçonnée d’être une forme déguisée de promotion du nucléaire, même s’il ne s’agit que de faire un état des lieux. Pour ma part, cet état des lieux me conduit à penser qu’il est dangereux de décider de se passer du nucléaire, car c’est la seule source d’énergie peu chère capable de délivrer de grandes quantités d’énergie pilotable[4]. L’exemple allemand le confirme à contrario. La première économie européenne a dépensé plus de 300 milliards d’euros pour installer ces 15 dernières années environ 80 GW de PV et d’éolien, ne délivrant que 20 % de son électricité, à un prix du kWh double du prix français pour les particuliers, et en diminuant très peu ses émissions de gaz à effet de serre : le kWh produit en Allemagne émet 7 fois plus de CO2 que le kWh produit en France. Et c’est la nation qu’on donne en exemple de bonne conduite pour le climat ! Comprenne qui pourra.

Pour ma part, je pense qu’il est important de développer l’approche EROI auprès de tous ceux qui s’intéressent à l’énergie et à la substitution de sources décarbonées d’énergie aux sources fossiles. L’article de Koppelaar montre qu’il est urgent de définir des protocoles précis et unifiés du calcul de l’EROI, faute de quoi toutes les manipulations sont possibles et difficiles à démêler. C’est en ce sens que fut organisée au mois de mars dernier une session de l’Ecole des Houches, dont toutes les contributions sont accessibles – powerpoints et vidéos – sur le site Science-and-energy.org. D’autres initiatives similaires seront prises dans les prochains mois.

Par Jacques TreinerPhysicien, chercheur associé au LIED, Université Paris-Diderot

Dans les tribunes, les auteurs expriment un point de vue propre, qui n’est pas nécessairement celui de la rédaction.

[1] La pente de la courbe représente le « contenu énergétique du PIB » et augmente si l’ « efficacité énergétique » s’améliore. Ce genre d’évolution se voit si l’on fait une analyse détaillée pays par pays, mais on constate aussi que si l’on agrège mondialement les données, cette efficacité énergétique moyenne n’a pas changé en 50 ans.

[2] Cf., par exemple, la contribution de Jessica Lambert à l’Ecole des Houches du mois de mars 2016 : science-and-energy.org

[3] Intermittence des énergies renouvelables et mix électrique, D. Grand, C ; Lebrun et R. Vidil, Techniques de l’Ingénieur, 10/7/2015.

[4] Je précise ici que je n’ai jamais travaillé, ni de près ni de loin, dans le nucléaire français – ce qui ne m’empêche pas d’avoir beaucoup de respect pour les gens qui ont fait fonctionner un secteur essentiel pour le confort et le bien-être de tous, avec un sens du service public remarquable.

Transformation numérique : le rôle des cadres est-il en recomposition ?

La transformation numérique suscite plus d’envie que d’inquiétude : le pari d’une mutation favorable à l’entreprise et aux collaborateurs

87% des cadres et 95% des RH estiment que cette transformation a un impact global positif (dont respectivement 13% et 21% très positif). La mutation est pour les cadres synonyme et promesse d’efficacité, de surcroît de liberté par rapport aux contraintes de temps et de lieu (travail en mobilité, gestion autonome de son temps), de créativité encouragée et de temps travaillé recentré sur la valeur ajoutée (question ouverte, aucun item de réponse suggéré) : « Elle permet une meilleure qualité de travail et une économie de temps pour les tâches les moins intéressantes », « Cela transforme mon métier en le rendant plus performant et beaucoup plus fluide ».

Résolument optimistes, les cadres font le pari d’une transformation au bénéfice de leur entreprise et de leur quotidien professionnel.

– Plus de 8 sur 10 affirment que la plupart des effets de la transformation sont ou seront une bonne chose (dont 20% à 37% une très bonne chose) : information et communication au sein de l’entreprise, efficacité au travail, mais également nouvelles pratiques d’organisation et de formation, dont l’expérience est pourtant partielle et occasionnelle pour plus d’1 cadre sur 3.

– Le plébiscite pour l’horizontalité et le collaboratif est manifeste, de la part des cadres comme des RH. 86% des cadres affirment que la mise en place d’une organisation en mode projet est une bonne chose (dont 22% une très bonne chose).

– La comparaison des expériences alimente ce constat: un tiers à 48% des cadres qui évoluent dans une organisation pyramidale et hiérarchique jugent que ce modèle est défavorable à la performance de l’entreprise, la qualité des relations interpersonnelles, la circulation de l’information, la prise d’initiative personnelle, la créativité et l’innovation. Les RH sont beaucoup moins sévères, mais également beaucoup moins positifs que leurs alter ego travaillant dans des entreprises ayant fait le choix du mode projet (+ 6 à 14 points sur ces mêmes items, + 10 à +24 points parmi les cadres sur le total « L’organisation de mon entreprise en mode projet est très favorable ou plutôt favorable à … »). Bien que minoritaires, la transformation cristallise également des difficultés et des craintes pour 13% des cadres. Ils décrivent une déshumanisation des relations, une inflation des processus et une injonction à l’immédiateté.

– Si le rapport aux outils numériques n’est pas l’unique facteur explicatif des difficultés et craintes exprimées, leur maîtrise (objective ou perçue) a un impact mécanique sur la perception et l’expérience de cette transformation : 36% des cadres qui expriment le sentiment de ne pas être « à l’aise » avec les outils informatiques jugent que ces évolutions ont un impact négatif.

– Enfin, si ces cadres représentent une petite minorité de la population totale des cadres français (7%, contre 93% qui affirment se sentir à l’aise, dont 38% très à l’aise), leur accompagnement à l’acquisition de compétences numériques est sans aucun doute indispensable pour leur permettre d’évoluer au sein d’organisations en transformation. Leur identification est un enjeu majeur pour les entreprises : aucun critère sociodémographique objectif ne les caractérise (âge, niveau de diplôme, métier).

Au sein de ces organisations en transformation, le rôle des cadres est-il en recomposition ?

Encadrement, autonomie, expertise, organisation, mobilisation, transmission et prise de décision restent des marqueurs forts du rôle des cadres dans l’entreprise, quel que soit son mode d’organisation. Vecteur de la création de valeur dans les organisations, le cadre est garant de la qualité et de l’efficacité des interactions au sein de l’entreprise.

– 67% des cadres déclarent avoir une fonction d’encadrement, dont 44% avec un lien hiérarchique et 29% en mode projet (6% encadrent des équipes avec un lien hiérarchique ET, ponctuellement en mode projet, des collaborateurs avec lesquels ils n’entretiennent aucun lien hiérarchique). Mais ce sont près de 8 cadres sur 10 (soit 10 points de plus que les cadres affirmant avoir une fonction d’encadrement) qui considèrent avoir des missions d’encadrement : organisation du travail au sein d’une équipe et mobilisation des collaborateurs pour atteindre un objectif. 69% accompagnent également la montée en compétence des collaborateurs (sans écart significatif entre les encadrants en mode projet et avec un lien hiérarchique, l’organisation du travail n’ayant donc pas d’impact sur l’exercice de cette mission). L’exercice de cette fonction se fait, pour 61% des encadrants, sans avoir suivi une formation au management. 19% en ont bénéficié après avoir pris cette fonction. Seuls 22% ont suivi une formation dédiée à l’acquisition de la compétence managériale avant leur prise de fonction.

– 8 cadres sur 10 complètent ce portrait du cadre par l’expertise (83%, dont 42% pour lesquels c’est une mission prioritaire), la prise de décision et son application (78% dont 41% une mission prioritaire). A ces fonctions et missions dont l’importance pour les organisations est réaffirmée, la transformation en cours ajoute un impératif d’adaptabilité.

L’injonction à la polyvalence et l’apprentissage de nouveaux équilibres sont les principaux défis identifiés :

– Cadres et RH sont convaincus qu’un cadre en entreprise doit désormais d’abord faire preuve d’une grande polyvalence, avant le développement d’une expertise forte.

« Face à ces évolutions, c’est la nécessité d’être polyvalent dans la gestion des dossiers, du rôle d’encadrant. En fait, être une personne qui s’adapte en permanence pour en sortir la meilleure efficience. »

L’exigence d’adaptabilité est rendue nécessaire par la gestion quotidienne de différences ou de contradictions à concilier :
• temps long et temps court (interruptions fréquentes,
immédiateté de la réponse d’une part et réfl exion ou
projet de long terme d’autre part),
• expertise et polyvalence,
• horizontalité et verticalité (coexistence de la hiérarchie et du mode projet dans de nombreuses entreprises),
• pluridisciplinarité et « intergénérationnalité » des équipes.

Lire l’étude de l’Apec : Cadres et entreprises – étude des 50 ans.pdf

Notre vie quotidienne impactée par le piratage

Les habitants de San Francisco n’ont pas eu besoin de prendre leur voiture le 26 novembre. Ce jour-là, et durant tout le week-end, les tramways de la ville étaient gratuits. Ce n’était pas une promotion lancée par l’agence de transport, mais la conséquence d’une attaque informatique. Un code malveillant avait paralysé les ordinateurs gérant les tickets et le trafic. Objectif de cette « prise d’otage » numérique : récupérer une rançon de 73 000 dollars (réglable en bitcoins, une monnaie virtuelle, pour éviter de remonter jusqu’à la personne récupérant cette somme).

L’agence de transport ne l’a pas versée, car elle avait préféré utiliser les serveurs de secours qui contenaient des sauvegardes. Finalement, seul un quart des ordinateurs de l’infrastructure avaient été infectés (2 112 sur les 8 656 existants, selon Hoodline).

Quelques semaines plus tard, c’est au tour de l’opérateur Deutsche Telekom d’être visé par des pirates. Environ 900.000 foyers sur les 20 millions d’abonnés fixes avaient du mal à se connecter au web, à téléphoner et à regarder les chaînes de télévision avec leur box. Selon un porte-parole, il y a eu « une intervention extérieure sur les routeurs » : en clair, un logiciel malveillant rendait impossible la liaison du routeur avec le réseau de l’opérateur. Les pirates ont exploité une version dérivée du ver informatique Mirai, utilisé en octobre dernier pour paralyser l’activité de nombreux sites mondiaux.

Ce piratage outre-Rhin risque de se reproduire. Ce ver informatique Mirai se répand très rapidement en scannant continuellement les connexions Internet des objets connectés qui fonctionnent encore avec la protection installée en usine ou avec des noms d’utilisateur et mots de passe par défaut. Demain, les pirates s’attaqueront peut-être à notre foyer en nous privant de lumière. Des chercheurs israéliens ont réussi à infecter des ampoules connectées commercialisées par Philips sous le nom de Philips Hue. Reposant sur le protocole sans fil Zygbee, elles intègrent des clés de chiffrement identiques pour communiquer entre elles. Cette faille a été corrigée par Philips.

Jusqu’à la prochaine…

Philippe Richard

L’Open source pour casser le prix des médicaments

Le prix des médicaments a de quoi donner mal à la tête ! « En 2005, un nouvel anticancéreux apparaît — l’Avastin — et son fabricant, Roche, réclame 44 500 euros par traitement. Un prix élevé pour un gain de trois mois d’espérance de vie. Six ans plus tard, arrive un autre anticancéreux, Yervoy. Le fabricant, BMS, réclame 105 000 euros. Je ne peux pas croire que les coûts de recherche et développement ont été multipliés par 2,5 en six ans… », déclarait récemment Agnès Buzin, la nouvelle présidente de la HAS (Haute Autorité de Santé) et qui fut auparavant présidente de l’Institut du cancer.

Comme pour l’informatique, la baisse des coûts pourrait venir de projets open-source. C’est ce qu’a démontré un groupe d’étudiants de Sidney. Ils ont recréé un médicament pour baisser son prix et le rendre accessible. Le Dataprim, un traitement destiné aux malades du SIDA, est devenu hors de prix depuis que Martin Shkreli, le directeur d’un fonds d’investissement spécialisé dans le rachat de brevets (Turing Pharmaceuticals), l’a augmenté de… 5000 % en 2015 pour le vendre 710 euros. Son seul objectif : augmenter sa rentabilité de ce traitement classé comme essentiel par l’Organisation mondiale de la santé (OMS). Martin Shkreli n’en est pas à son premier coup d’éclat. En mettant la main sur un laboratoire pharmaceutique, Retrophin, il avait décidé de multiplier les prix de certains traitements. Depuis, il est accusé d’avoir utilisé Retrophin pour rembourser les dettes de ses fonds d’investissement.

Participant à un projet de l’Open source malaria consortium, intégré à l’Université de Sidney, des étudiants ont cassé les prix. À partir de 17 grammes pur de 2,4-chlorphényl-acétonitrile, achetés en ligne au prix de 36,50 dollars (34 euros) les 100 grammes, les adolescents de 16 ans ont produit 3,7 grammes de Daraprim. Résultat, leur médicament ne coûte que 12,70 euros.

Pendant toute la conception du médicament, les étudiants ont partagé leurs progrès en ligne sur une plate-forme ouverte afin que les scientifiques du monde entier puissent avoir accès à leurs données et les aider à avancer.

Ce n’est pas le premier projet open-source concernant la santé. Depuis 2011, la Fondation suisse Medicines for Malaria Venture (MMV) distribue gratuitement à 200 laboratoires dans 30 pays, une « Malaria Box » (cette pandémie concerne encore la moitié de la population mondiale). Il s’agit d’un kit contenant 400 composés chimiques présentant une activité antipaludéenne.

Plus d’une douzaine de projets de développement de médicaments sont déjà en cours. « L’Institut national américain du cancer travaille actuellement sur un médicament contre le cancer du côlon, lui aussi découvert par ces recherches collaboratives » précise un responsable de cette fondation qui repose sur un partenariat public-privé à but non lucratif, avec des partenaires chez Novartis, GSK ou Sanofi-Aventis. Elle est financée par d’autres fondations privées (Fondation Bill & Melinda Gates ou le Wellcome Trust), des industriels (ExxonMobil’s) et des fonds gouvernementaux (USA, Espagne, Australie…).

Philippe Richard

Conférences Rendez-Vous Carnot 2016 : Imagerie et robotique appliquées à l’urologie

Cancer de la prostate : aide au diagnostic et au traitement ciblés.

Le laboratoire TIMC-IMAG, la société KOELIS et leurs partenaires cliniques inventent et développent des systèmes de ciblage de la prostate qui touchent un marché d’innovation international.

Intervenants

Jocelyne TROCCAZ, directrice de recherche, institut Carnot LSI

Photo Jocelyne TROCCAZ

 

 

 

 

Eric GAUDARD, responsable de projet de recherche, KOELIS Inc

Photo Eric Gaudard

 

 

 

Conférences Rendez-Vous Carnot 2016 : Les énergies marines renouvelables, small is beautiful

Quels équipements pour convertir cette énergie au plus près du client final ?

Les énergies marines renouvelables (EMR) contribuent déjà au bouquet énergétique européen. Un coût de production inférieur à 120€MWh sera le facteur de réussite des installations destinées à la distribution d’électricité en réseau. La fiabilisation de ces installations face aux contraintes du milieu marin devient donc pour cette industrie un enjeu de R&I important. Il y a là un gisement d’énergie valorisable par de petites structures innovantes pour créer de nouveaux marchés.

Intervenants

Jean-Marc DANIEL, directeur du département ressources physiques et écosystèmes du fond de mer, Ifremer

Jean-Luc LONGEROCHE, président, GEPS Techno

Conférences Rendez-Vous Carnot 2016 : Technologies douces pour la transformation des fruits et légumes

Développements (bio)technologiques améliorant l’arôme des produits à base de fruits

La préoccupation des consommateurs pour des produits à base de fruits et légumes plus « naturels » conduit les industriels de la transformation à concevoir des procédés utilisant des technologies de stabilisation plus respectueuses du produit (qualités intrinsèques : arôme, couleur, etc). Les tendances et innovations actuelles portent sur les technologies de décontamination pour la transformation des fruits et légumes, ainsi que sur les méthodes permettant de diminuer l’usage d’additifs et d’améliorer l’arôme des produits à base de fruits.

Intervenants

Catherine RENARD, directrice de l’Unité Sécurité et Qualité des Produits d’Origine Végétale, institut Carnot Qualiment.

Photo Catherine Renard

 

 

 

 

Jean-Claude DUSSAUD, directeur valorisation et transfert, CTCPA, Institut Carnot Qualiment

Le « blob » : capable d’apprendre… et de transmettre ses apprentissages

Les mêmes chercheurs ont fait un pas de plus en prouvant qu’il peut transmettre ses apprentissages à un congénère en fusionnant avec lui. Ces nouveaux résultats sont publiés dans la revue Proceedings of the Royal Society B le 21 décembre 2016.

Imaginez que vous ayez la capacité de fusionner temporairement avec un autre individu et qu’à l’issue de cette expérience, vous ayez acquis toutes ses connaissances. Eh bien, chez les blobs, c’est possible ! Le blob, Physarum polycephalum pour les scientifiques, est un être composé d’une seule cellule, qui vit dans les sous-bois à l’état naturel et dans des boîtes de Pétri en laboratoire. Audrey Dussutour et David Vogel lui avaient déjà appris à passer outre des substances répulsives mais inoffensives (café, quinine ou sel) pour atteindre leur nourriture. À présent, ils montrent qu’un blob ayant appris à ignorer le sel peut transmettre son apprentissage à l’un de ses congénères, tout simplement en fusionnant avec lui !

Pour cela, les chercheurs ont appris à plus de 2 000 blobs que le sel était inoffensif – les blobs devaient traverser un pont couvert de sel pour rejoindre leur nourriture. Pendant ce temps, 2 000 blobs devaient eux franchir un pont vierge de toute substance (blobs « naïfs »). Au terme de cet apprentissage, les chercheurs ont formé des paires de blobs « expérimentés », des paires de blobs « naïfs » et des paires mixtes, qui fusionnaient au niveau de leur zone de contact. Les blobs fusionnés devaient ensuite à leur tour traverser un pont couvert de sel. À la surprise des chercheurs, les blobs mixtes étaient aussi rapides que les blobs expérimentés, et surtout bien plus rapides que les blobs naïfs – comme si l’apprentissage du caractère inoffensif du sel avait été partagé. Le résultat fut le même avec des trios et des quatuors, quel que soit le nombre de blobs naïfs dans le nouveau blob – il suffisait d’un blob expérimenté pour que l’information circule.

Afin de vérifier qu’il y avait bien eu transfert d’information, l’expérience a été refaite en séparant les blobs une heure ou trois heures après leur fusion. Seuls les blobs naïfs qui étaient restés en contact trois heures avec un blob expérimenté ignoraient le sel, les autres montrant une forte aversion. Le blob naïf avait donc bel et bien reçu l’information. Au microscope, les chercheurs ont remarqué qu’une veine se formait entre les blobs à l’endroit même où ils fusionnaient, et qu’elle nécessitait trois heures pour s’établir. C’est sans doute par ce biais que circule l’information. Prochaines étapes : trouver sous quelle forme elle est transmise, mais aussi tenter de faire des apprentissages croisés. En apprenant à un blob A à ignorer la quinine et à un blob B à ignorer le sel, les biologistes se demandent s’ils peuvent s’échanger et retenir les deux informations.

blob_web
© Audrey Dussutour (CNRS) Physarum polycephalum (diamètre : environ 10 centimètres), ou blob, composé d’une unique cellule, cultivé en laboratoire sur un gel d’agar.

Source : cnrs

Sommeil paradoxal : ces neurones qui nous paralysent

Le modèle animal créé permettra de mieux comprendre l’origine de certains troubles du sommeil paradoxal, en particulier la maladie qui empêche cette paralysie corporelle. Il sera également d’une grande aide pour étudier la maladie de Parkinson, les deux pathologies étant liées. Ces travaux sont publiés le 12 décembre 2016 sur le site de la revue Brain.

Pourtant plongé dans un sommeil profond, le patient parle, s’agite, donne des coups de pied et finit par tomber de son lit. Il souffre d’une forme de parasomnie appelée REM Sleep Behavior Disorder (RBD), une maladie du sommeil qui se déclare aux alentours de la cinquantaine. Alors que pendant la phase de sommeil paradoxal, les muscles sont au repos, chez ce patient, la paralysie corporelle est absente, sans que l’on sache bien pourquoi. Il exprime alors des mouvements anormaux reflétant très probablement son activité onirique.

Une équipe du Centre de recherche en neurosciences de Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Université Jean Monnet) a fait un pas de plus dans la compréhension de cette pathologie. Les chercheurs ont identifié dans le cerveau les neurones du noyau sub-latérodorsal, idéalement placés pour contrôler la paralysie du système moteur pendant le sommeil paradoxal. Chez le rat, ils ont ciblé spécifiquement cette population de neurones en y introduisant des vecteurs viraux génétiquement modifiés. Une fois dans les cellules neurales, ceux-ci bloquent l’expression d’un gène permettant la sécrétion synaptique du glutamate. Incapables de libérer ce neurotransmetteur excitateur, ces neurones ne peuvent alors plus communiquer avec leurs voisins. Ils sont déconnectés du réseau cérébral nécessaire à la paralysie corporelle du sommeil paradoxal.

Depuis 50 ans, la communauté scientifique considérait que ces neurones à glutamate généraient le sommeil paradoxal lui-même. L’expérience menée par l’équipe balaye cette hypothèse : même sans aucune activité de ce circuit neuronal, les rats passent bien par cet état de sommeil. Ils sont profondément endormis et déconnectés du monde extérieur, les paupières closes. Pourtant ces rats ne sont plus paralysés. Leurs comportements rappellent très fortement le tableau clinique des patients souffrant de RBD. Les neurones à glutamate ciblés dans cette étude jouent donc un rôle essentiel dans la paralysie corporelle pendant le sommeil paradoxal et seraient prioritairement atteints dans cette pathologie neurologique.

Ces travaux de recherche vont au-delà de la création d’un nouveau modèle préclinique mimant cette parasomnie. Ils pourraient même avoir une importance capitale dans l’étude de certaines maladies neurodégénératives. En effet, de récents travaux de recherche clinique ont montré que les patients diagnostiqués avec le RBD développent presque systématiquement les symptômes moteurs de la maladie de Parkinson, en moyenne une décennie plus tard. L’équipe cherche maintenant à développer un modèle animal évoluant de la parasomnie à la maladie de Parkinson afin de comprendre les prémices de la dégénérescence neuronale.

Source : cnrs

Quand les défauts deviennent des qualités pour les matériaux

Des chercheurs de l’Institut de recherche de chimie Paris (CNRS/Chimie ParisTech) et de l’Université de Cambridge ont dressé un bilan de la recherche qui a révélé de nouvelles propriétés surprenantes chez ces matériaux. Plus leur structure cristalline présente de défauts, plus ils peuvent être performants. Ces travaux sont publiés le 20 décembre dans Nature Chemistry.

Les matériaux hybrides organiques–inorganiques sont des structures cristallines hyper-poreuses, leur surface interne peut représenter plus de 6 000 m² par gramme. Cela leur permet d’immobiliser un grand nombre de molécules, d’où leur utilisation comme adsorbants pour capter par exemple du dioxyde de carbone. La variété de leurs structures et de leurs compositions en font également d’excellents catalyseurs pour de nombreuses réactions chimiques. Les assemblages supramoléculaires complexes de ces matériaux fascinent au point que des chimistes du monde entier se sont lancés depuis des années dans une course pour en synthétiser le plus possible. Alors que plus de 15 000 structures ont été créées à ce jour, on ne connait en détail les propriétés physiques que de quelques dizaines d’entre elles. Au final, seule une dizaine sont actuellement commercialisées.

Les chercheurs du CNRS et de l’Université de Cambridge ont établi un état des lieux pour mieux connaitre leurs propriétés. Leurs travaux ont dévoilé un phénomène étonnant et contre-intuitif : les défauts, le désordre moléculaire et la flexibilité dans l’organisation cristalline apportent des caractéristiques positives à ces matériaux. Alors que les matériaux hybrides organiques-inorganiques sont souvent vus comme des structures cristallines rigides, les chercheurs soulignent qu’ils possèdent une large flexibilité à grande échelle, souvent couplée à leurs défauts. Dans d’autres cas, ces imperfections du réseau cristallin augmentent leurs capacités catalytiques ou de capture de dioxyde de carbone. Cette étude devrait permettre de trouver de nouvelles applications à ces matériaux en fonction de leurs propriétés et de nos besoins.

Source : cnrs

Compteurs communicants : des risques sanitaires peu probables

Les distributeurs d’eau ont également entamé l’évolution de leur parc de compteurs. L’ Agence a donc mené une expertise visant à évaluer l’exposition de la population aux champs électromagnétiques émis par ces dispositifs et les effets sanitaires potentiels associés. Dans l’avis qu’elle publie ce jour, l’Agence conclut à une faible probabilité que l’exposition aux champs électromagnétiques émis par les compteurs communicants, dans la configuration de déploiement actuelle, engendre des effets sanitaires à court ou long terme. Elle appelle cependant les opérateurs impliqués dans le déploiement de ces nouvelles technologies à fournir une information claire et facilement compréhensible aux usagers quant à leurs modalités de fonctionnement.

L’installation de compteurs communicants, permettant la relève à distance des index de consommation d’électricité, de gaz et d’eau, et leur transmission journalière aux fournisseurs d’énergie, notamment dans un objectif de maîtrise des énergies par les consommateurs, fait naître des inquiétudes auprès d’une partie de la population : surcoût éventuel généré pour les abonnés, respect de la vie privée, utilisation des données personnelles. Les consommateurs s’inquiètent également d’éventuels risques sanitaires liés à une exposition aux champs électromagnétiques émis par ces différents compteurs.

Dans ce contexte, la Direction générale de la santé (DGS) a chargé l’Anses de conduire une expertise relative à l’évaluation de l’exposition de la population aux champs électromagnétiques émis par les compteurs communicants et des effets sanitaires potentiels associés.

Exposition aux compteurs communicants

Les compteurs d’électricité « Linky » communiquent de façon filaire, via le réseau de distribution d’électricité, par la technologie du courant porteur en ligne (CPL) avec des points relais des informations de consommation. Les compteurs de gaz « Gazpar » et les compteurs d’eau communiquent avec ces points relais par liaison radio sans-fil.

Les données disponibles à ce jour amènent l’Agence à conclure à une faible probabilité que l’exposition aux champs électromagnétiques émis par les compteurs communicants radioélectriques (gaz et eau) et les autres (électricité), dans la configuration de déploiement actuelle, engendre des effets sanitaires à court ou long terme.

En effet, l’Agence a recensé les données issues de campagnes de mesures réalisées pour caractériser l’exposition liée aux compteurs communicants. Dans le cas du compteur d’électricité Linky, les niveaux d’exposition au champ électromagnétique produit par le compteur lui-même, mais aussi par la communication CPL qui parcourt les câbles électriques, sont très inférieurs aux valeurs limites d’exposition réglementaires. Les compteurs Linky, que ce soit en champ électrique ou magnétique, sont à l’origine d’une exposition comparable à celle d’autres équipements électriques déjà utilisés dans les foyers depuis de nombreuses années (télévision, chargeur d’ordinateur portable, table de cuisson à induction…).

L’exposition à proximité d’un compteur de gaz ou d’eau est très faible, compte tenu de la faible puissance d’émission et du nombre réduit de communications (moins d’une seconde 2 à 6 fois par jour). L’exposition due aux compteurs est par exemple bien plus faible que celle due à un téléphone mobile GSM.

Par ailleurs, les compteurs de type Linky produisent sur le réseau domestique des signaux qui peuvent être équivalents à ceux des parasites créés notamment par la mise en route d’appareils domestiques (courants transitoires à haute fréquence). Actuellement, il n’existe aucune donnée suggérant que les courants transitoires à haute fréquence puissent affecter la santé aux niveaux d’exposition mesurés.

Une campagne de mesures sollicitée par l’Anses auprès du Centre scientifique et technique du bâtiment (CSTB), dont les résultats sont attendus prochainement, permettra de préciser l’exposition (a priori faible compte tenu du mode de fonctionnement) due au compteur Linky en situation réelle (temporalité, niveau d’exposition,…). Ces mesures devraient notamment permettre une comparaison entre l’exposition aux anciens compteurs électromécaniques et celle due aux nouveaux compteurs Linky au domicile.

Recommandations

Dans le but d’améliorer l’information sur l’environnement des usagers, l’Agence engage les opérateurs impliqués dans le déploiement de ces nouvelles technologies à fournir une information claire et facilement compréhensible aux usagers quant à leurs modalités de fonctionnement actuel et futur, incluant notamment la fréquence et la durée des expositions aux champs électromagnétiques auxquelles ces technologies peuvent conduire.

Enfin, il est à noter que le déploiement des compteurs communicants intervient au moment où les objets connectés se multiplient pour des applications diverses, les infrastructures de communication (antennes relais notamment) étant déjà pour l’essentiel en place. Il est possible que ces développements concernent dans les prochaines années la numérisation des services et des infrastructures à l’échelle des individus, des habitations et des villes, dans les domaines de l’énergie, des transports et de la santé en particulier (réseaux intelligents, villes intelligentes, etc.).

La question de l’exposition des personnes aux champs électromagnétiques devrait alors être anticipée et systématisée dans cet environnement évolutif. Aussi, l’agence recommande que le développement des objets connectés s’accompagne de la définition de méthodes et outils (normes techniques) propres à assurer une caractérisation de l’exposition des personnes.

Fonctionnement des compteurs communicants

Le compteur « Linky » est sollicité une fois par jour pour la télé-relève (collecte) des index de consommation. Cette transmission se fait entre minuit et 6 heures du matin et dure moins d’une minute. Il peut être également sollicité plusieurs fois par jour pour vérifier son bon fonctionnement ou pour d’autres tâches (télé-opération par exemple) par le point relais extérieur.

Le compteur de gaz « Gazpar » et les compteurs d’eau transmettent les informations de consommation à un point relais  deux à six fois par jour, en moins d’une seconde. Installé sur un toit d’immeuble, ce point relais envoie ensuite les données au système d’information via le réseau GPRS/3G.

 

Source : anses

Compléments alimentaires destinés aux sportifs : des risques pour la santé pour des bénéfices incertains

Ces signalements et la consommation répandue dans plusieurs disciplines sportives de ce type de produits visant le développement musculaire ou la diminution de la masse grasse, conduisent l’Anses à attirer l’attention sur les risques potentiels pour la santé. Des effets potentiellement graves pour certains, majoritairement d’ordre cardiovasculaire (tachycardie, arythmie et accident vasculaire cérébral) et psychique (troubles anxieux et troubles de l’humeur), ont été observés. L’ Agence déconseille donc l’usage de ces compléments alimentaires aux personnes présentant des facteurs de risque cardiovasculaire ou souffrant d’une cardiopathie ou d’une altération de la fonction rénale, hépatique ou encore de troubles neuropsychiatriques, aux enfants, adolescents et femmes enceintes ou allaitantes. L’ Anses déconseille également la consommation de compléments alimentaires contenant de la caféine avant et pendant une activité sportive, ainsi que la consommation concomitante de plusieurs compléments alimentaires ou leur association avec des médicaments. L’ Anses rappelle par ailleurs la nécessité de prendre conseils auprès d’un professionnel de santé avant de consommer des compléments alimentaires.

Le dispositif national de nutrivigilance de l’Anses a recueilli quarante-neuf signalements d’effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires visant le développement musculaire ou la diminution de la masse grasse et destinés aux sportifs. Les effets indésirables rapportés étaient majoritairement d’ordre cardiovasculaire (tachycardie, arythmie et accident vasculaire cérébral) et psychiques (troubles anxieux et troubles de l’humeur).

Ces signalements d’effets indésirables ont conduit l’ Anses à évaluer les risques associés à la consommation de ces compléments et à attirer l’attention des sportifs concernés sur les risques sanitaires induits par ces pratiques.

Afin de réduire ces risques, elle recommande aux consommateurs d’être attentifs à l’adéquation de ces compléments alimentaires avec leur statut nutritionnel, leur état de santé et les objectifs visés. De ce fait, un conseil personnalisé par un professionnel de santé, le cas échéant en lien avec l’entraîneur ou le préparateur physique, au regard des périodes et des charges d’entraînement, est indispensable. Afin d’assurer un dialogue interdisciplinaire efficace, il est important que les professionnels de santé bénéficient d’une solide formation initiale et continue en matière de nutrition, et en particulier de nutrition du sportif.

Par ailleurs, et plus spécifiquement en cas de recherche de diminution de la masse grasse et/ou d’augmentation de la masse musculaire, les pratiquants doivent être informés des risques liés, d’une part, à la consommation de produits présentant une activité pharmacologique et, d’autre part, des risques sanitaires liés à la pratique de régimes amaigrissants sans accompagnement médical.

L’ Anses met l’accent sur le fait que des effets de ces compléments alimentaires qui pourraient être revendiqués sur la performance n’excluent en rien le risque sanitaire. De façon générale, l’absence de données d’efficacité scientifiquement démontrée rend les bénéfices escomptés de ces compléments alimentaires très fortement hypothétiques, rendant ainsi l’intérêt des produits les contenant largement discutable au regard des risques encourus. Par ailleurs, l’achat sur internet expose de facto davantage le sportif à la consommation de compléments alimentaires frauduleux ou adultérés, susceptibles de conduire à des contrôles anti-dopage positifs et d’induire des effets sur la santé.

Les recommandations de l’Agence

Au vu des résultats de son expertise, l’Anses déconseille fortement la consommation de compléments alimentaires visant le développement musculaire ou la diminution de la masse grasse :

  • aux personnes présentant des facteurs de risque cardiovasculaire ou souffrant d’une cardiopathie ou d’une altération de la fonction rénale ou hépatique ou encore de troubles neuropsychiatriques ;
  • aux enfants et adolescents ;
  • aux femmes enceintes ou allaitantes.

L’Anses émet les recommandations suivantes :

A l’attention des consommateurs

  • La consommation de compléments alimentaires contenant de la caféine est déconseillée avant et pendant une activité sportive, ainsi que chez les sujets sensibles aux effets de cette substance.
  • La consommation concomitante de plusieurs compléments alimentaires ou leur association avec des médicaments est déconseillée.
  • Les objectifs de la consommation de compléments alimentaires devraient être discutés avec un professionnel de santé.
  • La consommation de compléments alimentaires doit être signalée à son médecin et son pharmacien.
  • Les sportifs doivent être attentifs à la composition des produits consommés et privilégier les produits conformes à la norme AFNOR NF V 94-001 (juillet 2012) ainsi que les circuits d’approvisionnement les mieux contrôlés par les pouvoirs publics (conformité à la réglementation française, traçabilité et identification du fabricant).

A l’attention des cadres sportifs :

  • Le recours aux compléments alimentaires ne doit être envisagé que dans le cadre d’une approche pluridisciplinaire mobilisant tant les cadres sportifs que les professionnels de santé ;
  • Une information efficace aux pratiquants, en ciblant plus particulièrement les jeunes sportifs, doit être mise en œuvre.
  • En outre, considérant la banalisation de la consommation de ces compléments alimentaires, l’Agence recommande aux pouvoirs publics de mener une réflexion sur la pertinence de la distribution de ces produits sur les sites de pratique sportive.
  • L’Anses rappelle enfin aux professionnels de santé l’importance de la déclaration auprès de son dispositif de nutrivigilance des effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires destinés aux sportifs dont ils auraient connaissance.

En outre, considérant la banalisation de la consommation de ces compléments alimentaires, l’Agence recommande aux pouvoirs publics de mener une réflexion sur la pertinence de la distribution de ces produits sur les sites de pratique sportive.

L’Anses rappelle enfin aux professionnels de santé l’importance de la déclaration auprès de son dispositif de nutrivigilance des effets indésirables susceptibles d’être liés à la consommation de compléments alimentaires destinés aux sportifs dont ils auraient connaissance.

 

Source : anses

Energie : la mode des appels d’offres « technologiquement neutres »

Les appels d’offres « technologiquement neutres » se veulent non-discriminants : n’importe quelle source d’énergie peut être sélectionnée. Seul compte le rapport coût/efficacité.

Vent mexicain

Ce nouveau mécanisme vient du Mexique qui a récemment libéralisé son secteur énergétique en brisant les monopoles publics de l’électricité et des hydrocarbures. Cette réforme s’est notamment traduite par un appel aux investisseurs internationaux pour construire de nouvelles capacités électriques, dont le pays en pleine croissance a besoin. Mais au lieu de segmenter l’appel d’offres comme il était jusqu’alors de coutume (x MW pour l’éolien, y MW pour le solaire, etc), Mexico décide que toutes les technologies sont les bienvenues et que le coût du MWh sera le facteur déterminant. Et le résultat surprend plus d’un observateur. En deux appels d’offres, le Mexique a attribué en 2016 la construction de 5 776 MW à des prix défiant toute concurrence : jusqu’à 34,5 $/MWh, soit bien en-deçà des moyennes européennes toutes technologies confondues. Et à ce petit jeu, ce sont les énergies renouvelables qui se sont avérées les plus compétitives. L’éolien et le photovoltaïque représentent 95% des capacités allouées ! La technologies des centrales à cycles combinés gaz tire son épingle du jeu pour ses capacité de back-up, indispensables à l’équilibrage du réseau.

L’Espagne s’y met, Bruxelles approuve

Impressionné par cette double réussite, le gouvernement espagnol, enfin élu après un an et demi de crise politique, et qui cherchait un nouveau modèle énergétique viable, a annoncé la semaine dernière le lancement imminent d’un appel d’offres « technologiquement neutre » pour l’installation de 3 000 MW. Le ministre espagnol de l’Energie, Álvaro Nadal, est persuadé que les énergies renouvelables gagneront cette fois encore face à la concurrence, permettant au pays de remplir ses objectifs européens en matière d’Enr.

Et d’Europe, il en est question car Bruxelles s’intéresse de près à ce mécanisme très « concurrence compatible ». Un projet de directive est actuellement en préparation en vue d’imposer ce nouveau modèle. Une initiative qui n’est pas du goût de tout le monde, notamment des Français. Le Syndicat des énergies renouvelables, par la voix de son président, Jean-Louis Bal, a dénoncé « ces dispositifs, pensés par des ayatollahs de la concurrence pure et dure, qui nous priveraient de la nécessaire complémentarité des différentes énergies renouvelables », rapporte Greenunivers. Le gouvernement actuel est sur la même longueur d’onde mais quid dans 6 mois ?

La fin de la politique énergétique ?

Si les appels d’offres « technologiquement neutres » se sont avérés d’incroyables moyens d’attirer des financements et de prouver la compétitivité des énergies renouvelables, ils posent tout de même certaines questions. Ces appels d’offres, une fois les meilleurs gisements occupés, se concluront-ils par des prix aussi attractifs ? Ce mécanisme ne signifie-t-il pas la fin de la politique énergétique au sens classique du terme ? Une interrogation soulevée par le directeur général de la DGEC française, Laurent Michel : « Le potentiel renouvelable français doit s’exprimer à travers toutes les énergies et pas seulement la/les plus compétitive(s) à l’instant T ».

Par Romain Chicheportiche