Le nucléaire est-il trop cher ?

François Hollande l’avait annoncé. L’objectif est d’abaisser la part du nucléaire dans la contribution énergétique de 75 % à 50 % d’ici 2025, soit dans à peine 10 ans. Quand on sait que le démantèlement d’une centrale s’étend sur trente ans pour un coût estimé à plusieurs centaines de milliards d’euros, on comprend la complexité d’un tel projet. Pour le mener à bien, une loi de programmation sur la transition énergétique sera présentée au printemps à l’assemblée nationale de façon a être validée avant la fin de l’année 2014. 

Malgré l’existence d’un  rapport de la cour des comptes  de plus de 400 pages sur l’ensemble des coûts liés à la production d’électricité nucléaire en France, d’un rapport du Sénat sur le coût réel de l’électricité,  les députés pourront motiver leur décision sur les informations provenant d’un ultime rapport. Ce dernier sera rédigé par la commission d’enquête relative aux coûts passés, présents et futurs de la filière nucléaire, à la durée d’exploitation des réacteurs et à divers aspects économiques et financiers de la production et de la commercialisation de l’électricité nucléaire. Un intitulé dont la longueur justifie à elle seule le travail du rapporteur… 

Dans ce rôle, on retrouve l’écologiste Denis Baupin. Ce dernier y voit l’occasion de « mieux informer les parlementaires sur les coûts engendrés par les différents scénarii. Que coûtent la poursuite ou la sortie du nucléaire ? Les députés pourront décider en connaissance de cause. » se réjouit-il lors d’une interview donnée à nos confrères du Point.fr. Quoi qu’on puisse s’interroger sur ce manque de connaissance vu que la Cour des Comptes a déjà travaillé sur ces données. On sait depuis 2012 que la construction des installations nécessaires à la production d’électricité nucléaire s’élève à 121 milliards d’euros pour un parc composé de 58 réacteurs.

La maintenance quant à elle a été évaluée à 1.7 milliard en 2010 mais devrait atteindre près de 3.7 milliards en moyenne sur les 15 prochaines années. De son côté, le Commissariat à  l‘énergie atomique avait publié une étude chiffrant la sortie complète du nucléaire entre 530 et 772 milliards d’euros, ce qui est beaucoup plus cher que le maintien du parc nucléaire tel quel.

Espérons que cette énième commission d’enquête apportera des informations complémentaires et ne se limitera pas à reprendre les études précédentes. Car si l’on ne connait pas le coût de fonctionnement de cette commission qui regroupe tout de même pas moins de 30 personnes, ça fera toujours trop cher le résumé…

Par Audrey Loubens, journaliste scientifique

Le prix de l’électricité nucléaire d’EDF pourrait augmenter de 5 à 8% d’ici 2018 (ministère)

La hausse serait située entre 5 et 8% hors inflation, a précisé cette source ministérielle, confirmant une information du journal Les Echos.

Ce tarif régulé, fixé à 40 euros le mégawattheure lors de sa création en 2011, était passé à 42 euros le 1er janvier 2012, avec l’objectif de permettre aux concurrents d’EDF dans la vente d’électricité (GDF Suez, Direct Energie, etc.) de bénéficier de l’avantage compétitif du parc nucléaire français.

Mais sa fixation avait donné lieu à une passe d’armes entre EDF et ses rivaux, arbitrée par l’Etat. Ces derniers jugeaient le prix trop élevé pour exercer une réelle concurrence, tandis que l’opérateur historique l’estime insuffisant et souhaite le voir atteindre progressivement 50 euros.

« Il n’y a pas d’entreprise qui puisse survivre durablement si elle est obligée à vendre un quart de sa production en dessous de son prix de revient. (…) Ou alors, il faut des compensations », avait insisté début février le PDG d’EDF, Henri Proglio.

Un projet de décret fixant la nouvelle méthode de calcul de l’Arenh (Accès régulé à l’électricité nucléaire historique) fait l’objet d’une consultation auprès des acteurs du marché électrique jusqu’au 14 mars.

Le gouvernement s’était engagé à l’automne dernier à publier le décret d’ici à la fin du premier trimestre 2014, repoussant une échéance initialement fixée au 7 décembre 2013.

C’est ensuite à la Commission de régulation de l’énergie (CRE), le régulateur français de l’électricité et du gaz, de fixer le niveau de l’Arenh, selon la méthodologie retenue.

Il est prévu que le décret fasse l’objet d’un réexamen le 1er janvier 2018.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Astuce du Web #1 : comment annuler l’envoi d’un email

Cette fonctionnalité existe depuis 4 ans, et pourtant, peu d’utilisateurs la connaissent. Une confidentialité suspecte tant cette astuce est utile. Il s’agit ni plus ni moins de pouvoir remonter le temps ! Enfin presque,  puisque Gmail vous donne le pouvoir d’annuler un mail malencontreusement envoyé. Que celui qui ne s’est jamais maudit d’avoir cliqué sur « envoyer » lève la souris ? Voilà, cela nous concerne tous. Imaginez : ne plus avoir peur de se tromper de destinataire, ne plus redouter les correspondances incomplètes… Grâce à Gmail, vous pouvez paramétrer un délai de plusieurs dizaines de secondes avant que votre envoi ne soit effectif. De quoi vous laisser une deuxième chance. 

Voilà comment faire : Dans la messagerie, cliquez sur la roue crantée en haut à droite et sélectionnez « paramètres ». Dans la ligne d’onglets, choisissez « Labo ».  Descendez jusqu’à voir la section « Annuler l’envoi ». Activez-la. Voilà pour la première étape. Vous bénéficiez désormais de 10 seconds pour vous rétracter. Quand vous enverrez un mail, vous noterez que dans la fenêtre de dialogue jaune en haut au milieu apparait un bouton « annuler », visible pendant 10 secondes. Cliquez dessus et votre mail réapparaitra tel qu’il était juste avant l’envoi.

Vous voulez plus de temps ? C’est encore possible ! Maintenant que vous avez activé la fonction « annulation d’envoi », retournez dans le menu déroulant de la roue crantée pour revenir aux paramètres. Cette fois, une nouvelle section est apparue, relative au « Délai d’annulation d’envoi ». A vous de sélectionner la durée du temps dont vous avez besoin pour réaliser votre erreur…

Par Audrey Loubens, journaliste scientifique

Astuce du Web #2 : comment trouver l’onglet bruyant

Vous surfez tranquillement avec huit onglets ouverts en permanence. Une douce musique accompagne vos recherches sur le Web quand, soudain, une horrible publicité se déclenche, assourdissante.

Agacé, vous cliquez nerveusement sur chaque onglet un à un, scrollant la page pour dénicher la source de la nuisance sonore. Ce n’est qu’au bout d’une bonne minute que vous mettez le clic sur cette publicité vidéo et pouvez en couper le son. Une mésaventure qui finalement se termine bien, car parfois cette quête du son se termine brutalement avec une coupure de son totale mais efficace. Il faut le reconnaître, cela va plus vite que de trouver la vidéo concernée.

Heureusement, Google Chrome a eu la bonne idée de s’atteler à ce problème et propose une nouvelle fonctionnalité. Chrome Beta sert à afficher une icône de haut parleur, identique au symbole du son,  directement sur l’onglet de la page internet sur laquelle s’est déclenchée une vidéo ou tout autre programme émettant un bruit. De quoi en trouver l’origine en un clin d’œil et s’éviter un pic de tension…

Par Audrey Loubens, journaliste scientifique

Astuce du Web #3 : comment effacer son historique sur Facebook

Envie de se refaire une virginité ? De repartir à zéro sur votre réseau social préféré ? C’est faisable. Parmi les différentes façons de procéder, en voici une accessible sans être un spécialiste. Il s’agit d’utiliser le programme Absterge, utilisable sous Firefox et Chrome. Redoutablement efficace, il laisse peu de marge de manœuvre mais permet d’effacer toute une section en une seule fois et en à peine quelques heures maximum. Idéal pour ceux qui veulent vraiment faire table rase du passé. Voilà comment s’y prendre :

  • 1) Vous devrez tout d’abord télécharger Greasemonkey si vous êtes sous Firefox ou Tampermonkey si vous naviguez sous Chrome. Installez le script Absterge. 
  • 2) Désactivez la navigation sécurisée de Facebook.
  • 3) Enlevez le téléchargement automatique d’image. Cela facilite l’opération.
  • 4) Dans votre historique personnel, un bouton Absterge est apparu. Cliquez dessus. Confirmez et dites adieu à votre timeline !

Voir un tutoriel : 

Par Audrey Loubens, journaliste scientifique

Un minuscule zircon de 4,4 milliards d’années renforce la théorie d’une « Terre primitive froide »

La Terre est née il y a environ 4,5 milliards d’années, mais sa petite enfance turbulente, la période où elle s’est structurée, reste encore en grande partie énigmatique pour les scientifiques.

On a d’abord pensé qu’il avait fallu quelque 600 millions d’années à notre planète après sa naissance pour « refroidir » et pour que se forme son enveloppe, la croûte terrestre. Mais durant les dernières décennies, de petits cristaux de zircon identifiés comme des restes de l’écorce terrestre à l’origine de la formation des continents sont venus bousculer la chronologie de la petite enfance de la Terre, une période connue sous le nom d’Hadéen.

Les zircons sont les plus vieux minéraux connus sur Terre. Les géologues les apprécient pour leur excellente mémoire. Très résistants, ils peuvent traverser les âges en restant chimiquement intacts, inclus dans des roches plus jeunes.

La région des Jack Hills, dans l’ouest australien, contient ainsi des cristaux de zircon de plus de 4 milliards d’années. Les plus vieux ont été datés de 4,4 milliards d’années, mais cet âge restait controversé depuis leur découverte.

L’équipe de John Valley (Université du Wisconsin, Etats-Unis) a donc eu recours à une nouvelle méthode d’analyse, la tomographie atomique, pour tenter d’établir avec précision l’âge d’un grain microscopique de zircon des Jack Hills. La tomographie atomique permet de connaître la nature chimique de chaque atome ainsi que sa position initiale dans le matériau analysé. De quoi déterminer son âge et écrire son histoire.

Leurs résultats, publiés dimanche dans la revue Nature Geoscience, confirment l’âge du zircon à 4,374 milliards d’années.

« L’homogénéisation de l’océan de magma à l’origine de la croûte et du manteau de la Terre a précédé la formation de ce zircon et a donc eu lieu peu de temps après la formation de la Terre », ont conclu les chercheurs.

L’analyse chimique du mini cristal de zircon renforce selon eux la théorie d’une « Terre primitive froide », avec des températures suffisamment basses pour permettre l’eau liquide et des océans peu de temps après que la croûte terrestre se soit solidifiée.

« L’étude renforce notre conclusion que la Terre avait une hydrosphère (ensemble des formes d’eau) il y a plus de 4,3 milliards années », a souligné John Valley. Les conditions potentiellement favorables au développement de la vie ont ainsi pu être réunies dès cette époque.

Les scientifiques font aujourd’hui démarrer les premières formes de vie sur Terre il y a 3,5 milliards d’années.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Négociations transatlantiques : lettre ouverte à Nicole Bricq

Madame la Ministre,

Les Ministres du Commerce des 28 États membres de l’Union européenne se réunissent demain 28 février à l’invitation de la Présidence grecque du Conseil de l’UE.

Lors de cette réunion, la Direction générale du Commerce de la Commission européenne informera les 28 ministres quant au résultat de la rencontre entre le Commissaire au commerce De Gucht et le représentant américain au commerce Michael Froman.

Cette réunion s’était tenue les 17 et 18 février derniers pour évaluer les progrès effectués dans les discussions sur le Partenariat transatlantique et préparer les prochaines sessions de négociation, dont celle prévue du 10 au 14 mars à Bruxelles.

A cette occasion, nos organisations souhaitent rappeler leurs nombreuses inquiétudes face à la perspective d’un accord transatlantique fondé sur le mandat de négociation tel qu’il a été défini en juin 2013 par les Ministres du Commerce des 28.

Nous sommes particulièrement préoccupés par :

  • L’introduction d’un mécanisme d’arbitrage des différends entre investisseurs et États, qui constituerait un puissant outil pour contester et décourager toute décision politique affectant leurs stratégies et leurs profits,
  • Le volet agricole de la négociation. Un rapport commandité par la Commission ENVI du Parlement européen met ainsi en garde l’Europe sur le risque de disparition des protections qu’elle offre à ses citoyens dans le domaine de l’environnement et de la sécurité alimentaire, au vu des différences en matière de législation entre les deux régions (OGM, régulation des produits chimiques, volailles chlorées, bœuf aux hormones, émissions du secteur aérien…). En outre la suppression des droits de douane menace le modèle agricole européen, mais surtout la perspective de soutenir sa transition vers des modes de production durables et écologiques.
  • Les implications environnementales d’un possible accord : la libéralisation accrue du marché de l’énergie, l’augmentation des flux commerciaux et surtout la toute-puissance conférée aux firmes multinationales pour contester les politiques existantes (comme l’interdiction de la fracturation hydraulique ou les quotas d’émission de CO2) entraveront toute perspective de transition énergétique, dont pourtant nous connaissons l’impératif.

L’urgence affirmée par les Présidents Obama et Hollande lors de leur rencontre à Washington les 9 et 10 février n’a fait qu’exacerber notre inquiétude. Elle n’est pas conciliable avec l’objectif d’un débat véritablement démocratique et ouvert à l’égard du projet d’accord transatlantique, que vous-mêmes avez pourtant maintes fois réaffirmé.

Dans ce contexte, la prochaine consultation annoncée par le Commissaire De Gucht sur le volet « Protection des investissements » du futur accord fait figure au mieux de diversion, voire de manque de sérieux. Les consultations publiques organisées par la direction générale du commerce s’adressent principalement aux entreprises, et promeuvent toujours, dans leurs formulations, la doxa de la croissance, du libre-échange et de la compétitivité externe en vigueur à Bruxelles ; pourtant l’annonce d’une prochaine suspension de ce volet des négociations pour une durée de trois mois pouvait laisser penser que toutes les composantes de l’opinion publique auraient la chance de faire valoir leurs craintes et leurs propositions.

Mais de rencontre bilatérale en session de négociations, l’attention accordée à la parole des citoyens et les risques portés par ce projet d’accord connaissent le même sort : une reconnaissance embarrassée, la promesse d’une prise en compte prochaine, et la garantie que tout sera mis en œuvre pour protéger les citoyens européens… sans qu’une décision concrète – publication des textes et des positions de négociations, organisation d’un débat public large, moratoire sur les négociations d’un certain nombre de sujets sensibles – ne soit proposée pour le garantir.

C’est pourquoi, Madame la Ministre, nous comptons que vous portiez la voix des associations et des citoyens lors de ce Conseil des Ministres européens, et que vous rappeliez fermement :

  • La nécessité d’organiser la publication de tous les documents relatifs aux négociations, et d’organiser un processus de consultation démocratique authentique, exigence à laquelle ne répond pas l’organisation trimestrielle des « Civil society Dialogue » de la DG Commerce.
  • L’impératif de consultation régulière des instances démocratiquement élues à la fois au plan communautaire et dans les États membres ; ils pourront ainsi se prononcer sur toutes les protections et sauvegardes qui devront être introduites dans le mandat en vue de garantir qu’aucun des règlements ou normes en vigueur dans l’UE ne pourra être négocié à la baisse pour satisfaire les exigences des entreprises.
  • Le refus, exprimé par les citoyens de toute l’UE, de l’introduction de deux dispositifs en particulier dans le futur accord : le mécanisme ad hoc de règlement des différends Investisseur/État et le Conseil de coopération réglementaire. C’est la seule condition à laquelle les gouvernements et les Parlements conserveront leurs prérogatives souveraines quant à la définition des normes et lois protectrices de l’intérêt général.

Nous espérons pouvoir dire aux mouvements sociaux et citoyens français, européens et américains avec lesquelles nous nous réunirons à Bruxelles en parallèle du prochain cycle de négociation que le gouvernement français a porté les préoccupations des citoyens auprès de la DG Commerce et de ses homologues des 27.

Amélie CANNONE, Présidente de l’AITEC-Ipam
Geneviève AZAM, Porte-parole d’Attac France

 

Faire onduler le graphène pour le rendre opaque

Le graphène est un matériau transparent, il n’absorbe que 2% de la lumière. Pourtant, si on le met en mouvement, il est alors possible de lui faire absorber 50% de la lumière ! Les simulations numériques utilisant le modèle des plaques minces de Kirchoff révèlent ainsi une propriété intéressante. Pour y arriver, la mise en mouvement du graphène se doit d’être sous forme de vibrations.  Ces ondulations qui opacifient le graphène ont pour effet direct d’exciter de façon collective les électrons à la surface, générant un plasmon.  Mohamed Farhat, chercheur postdoctorant à l’université de sciences et de technologie du roi Abdallah d’Arabie saoudite précise que l’important n’est pas la vibration mais la création d’une structure périodique ayant la bonne longueur d’onde par rapport à la lumière.  Un grand intérêt de cette approche réside dans le contrôle des plasmons via les vibrations. En effet, la fréquence des plasmons dépend de la longueur d’onde des vibrations et l’arrêt des vibrations provoque leur disparition.

Ce nouveau mécanisme pour la génération de plasmon de surface est issu de simulations et n’a pas encore été expérimenté.  Car si la création de plasmon est connue pour des matériaux comme l’or ou l’argent, elle reste délicate dans le cas du graphène, pourtant plus intéressant en termes de propriétés électroniques. Une façon d’y arriver serait d’utiliser un oscillateur mécanique. Dans ses travaux, Sébastien Guenneau (CNRS), de l’Institut Fresnel de Marseille indique pouvoir ainsi générer des vibrations de 10 à 100 nm de hauteur. Une équipe espagnole propose une alternative basée sur l’utilisation d’un matériau piézoélectrique qui comprimerait et dilaterait la surface de graphène, elle-même déposée sur un substrat.

Les plasmons, ayant une longueur d’onde plus petite que celle de la lumière incidente, permettent de voir de petits objets. Un tel système utilisant la génération de plasmons peut servir à la détection de molécules ou de virus. 

Par Audrey Loubens, journaliste scientifique
 

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de février 2014 2/2

Règlement sur les produits biocides

21/02/2014

L’ECHA a mis au point une nouvelle procédure en utilisant le registre des produits biocides (R4BP 3), qui permet à l’industrie de soumettre des demandes de modification de la liste actuelle de substances actives présentes dans l’annexe I du règlement sur ​​les produits biocides (BPR). Les candidats doivent démontrer de façon concluante que la substance entre dans la description de la catégorie concernée pour lequel l’autorisation est demandée et qu’il existe un solide consensus de l’opinion d’experts que la substance ne donne pas lieu à inquiétude.

Modification du règlement PIC

22/02/2014

La Commission Européenne a publié le 22 février un règlement du 21/02/2014 modifiant le règlement du 17 juin 2008 concernant les exportations et les importations de produits chimiques dangereux (PIC). Il vient ajouter certaines substances chimiques au champ d’application de la procédure PIC (azinphos-méthyl, acide perfluorooctanesulfonique, sulfonates de perfluoroocconcertane, sulfonamides de perfluorooctane et sulfonyles de perfluorooctane).

Ce règlement sera applicable à compter du 1er mars 2014. Dans le même temps, l’ECHA prendra en charge la responsabilité administrative et technique du Centre commun de recherche de la Commission européenne.

Rapport d’évaluation de REACH 2013: résultats et recommandations de l’évaluation du dossier

26/02/2014

Le rapport annuel d’évaluation de l’ECHA pour l’année 2013 donne des conseils à tous les déclarants sur la façon d’améliorer la qualité de leurs dossiers. Les deux tiers des enregistrements évalués ont été mis en conformité suite à une mise à jour. Au cours de 2013, l’Agence a transmis 32 cas de non-conformité aux autorités nationales de poursuite de leur action.

En 2013, 928 contrôles ont été conclus. Au total, l’ECHA a vérifié 1 130 dossiers, dépassant ainsi l’objectif de 5 % du nombre total de dossiers soumis pour la date limite d’inscription 2010. Dans 61 % des cas, l’ECHA a constaté que les dossiers n’étaient pas conformes à une ou plusieurs exigences d’information de REACH et a envoyé des projets de décisions pour les personnes inscrites.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Le solaire photovoltaïque coûtera moins de 5 centimes le kWh dans 16 ans

Le PV permet dès à présent de délivrer un kWh entre 8 et 14 centimes d’euros en Allemagne, ceci en fonction de la taille des centrales (grandes centrales au sol ou petit PV en toiture) et de la localisation géographique de l’installation. Un coût qui reste néanmoins très inférieur au prix de l’électricité pour les particuliers outre-Rhin qui s’élève à 29 centimes le kWh. Le coût moyen du PV à l’échelle du pays est de l’ordre de 11 centimes le kWh, c’est-à-dire égal au « strike price », une forme de tarif d’achat, demandé par EDF en Grande-Bretagne pour le nucléaire EPR. 

Le photovoltaïque sera moins coûteux que le charbon

Le coût du kWh (Levelised Cost of Energy, LOEC) délivré par les centrales fonctionnant au lignite est aujourd’hui de 5 centimes en Allemagne, et de 8 centimes avec le charbon. Le kWh des centrales à gaz combiné peut monter jusqu’à 9.8 centimes. 

La hausse du prix des combustibles fossiles dans les décennies à venir étant inévitable du fait de la hausse de la demande énergétique mondiale, un énorme boulevard s’ouvre pour la croissance des petites unités de production renouvelables décentralisées qui sont fortement désirées par la population allemande globalement très soucieuse des problématiques environnementales et sanitaires. 

Le solaire CSP est et restera plus coûteux que le solaire PV

Selon l’institut Fraunhofer le coût du KWh provenant des centrales solaires à concentration thermodynamique restera relativement élevé dans une décennie et demi. Cette technologie CSP (Concentrated Solar Power), différente du photovoltaïque, est prônée notamment par le think Tank Desertec. Le coût du kWh sera en 2030 compris entre 9 et 11,5 centimes dans l’hypothèse d’une insolation normale directe de 2000 KWh par mètre-carré et par an. C’est-à-dire 2 à 3 fois plus coûteux que le petit solaire PV à cette date mais cependant inférieur au coût actuel du CSP qui est de 14 à 19,5 centimes.

Une opportunité pour l’ensemble des pays qui jouissent d’un bon gisement solaire

Ce qui est valable dans la moitié sud de l’Europe l’est aussi en Australie, au Moyen-Orient, à l’ouest des USA, en Afrique et en Amérique latine affirment les experts de l’institut Fraunhofer.  

Alors que le charbon attire aujourd’hui fortement les pays dits « du sud » du fait de son attractivité économique, l’émergence d’un solaire PV de plus en plus bon marché offre un formidable espoir dans la perspective d’une libération progressive de l’humanité de sa dépendance envers les énergies sales sans compromette son développement économique. 

La perspective d’un coût aussi bas du photovoltaïque permet d’envisager une réduction progressive des émissions de gaz à effet de serre, uniquement en laissant faire le marché. Et ceci même si les différents pays du monde ne parvenaient pas à se mettre d’accord sur des objectifs contraignants des volumes d’émissions, ce qui a été le cas lors de tous les sommets internationaux sur le climat jusqu’à présent. 

La France parviendra-t-elle à rattraper son retard ?

Même si le projet souhaité par François Hollande se réalisait, projet d’alliance franco-allemande pour construire une grande usine de production de matériel photovoltaïque, nul ne peut prévoir si cela sera suffisant pour devenir compétitif face à la très puissante industrie chinoise. Il était dans tous les cas grands temps de réagir car le marché qui s’ouvre aux gagnants de cette course est colossal.

Selon une étude prospective du groupe pétrolier Shell, le solaire photovoltaïque sera la 4ème source d’énergie primaire du monde en 2040, derrière le charbon le pétrole et le gaz mais devant l’éolien, l’hydraulique, les agrocarburants, la gazification de la biomasse, la valorisation des déchets, la géothermie et le nucléaire. Et il deviendra la première source d’énergie en 2100.

Par Olivier Danielo

Electricité Renouvelable : en quoi consiste la réforme EEG 2.0 en Allemagne ?

La loi EEG avait été conçue par Hermann Scheer, député et prix Nobel alternatif pour son action en faveur des énergies renouvelables, à une époque où la part des ENR dans le mix électrique allemand était nulle. Des tarifs d’achats généreux avaient été accordés aux filières ENR débutantes, ce qui a permis leur émergence. D’abord en Allemagne, puis, grâce à la baisse des coûts de production engendrés, dans le monde entier.

Le pari a été réussi : en 2013 les ENR ont pesé 23% du mix électrique de l’Allemagne, ce qui est remarquable pour ce grand pays qui est la première puissance industrielle de l’Europe. « L’EEG ne va pas être réformée parce qu’elle a échoué, mais au contraire car elle a été un énorme succès » déclare le Ministère de l’économie et de l’énergie (BMWI) sur son site officiel.

Les tarifs d’achats des ENR, financés par les consommateurs par l’intermédiaire de leur facture d’électricité, sont aujourd’hui en moyenne, toutes filières confondues, de 17 centimes le kWh. D’une situation de niche, les ENR constituent à présent une composante majeure du mix électrique allemand. D’où la nécessité de revoir la Loi pour poursuivre la transition énergétique tout en veillant à une optimisation de son coût. L’objectif est de parvenir à un niveau d’ENR de 40-45% en 2025 et de 55-60% en 2035, ceci sans augmenter la facture des consommateurs. Compte-tenu de ce poids croissant des ENR dans le mix électrique, la note des consommateurs grimpe. Le gouvernement souhaite stopper la hausse de cette surcharge tout en poursuivant l’« EnergieWende », la transition énergétique allemande. Et c’est possible.

Comment ? En focalisant sur les filières qui ont vraiment du sens sur le plan économique : l’éolien terrestre et le photovoltaïque. Et en révisant à la baisse les dispositifs de soutien de l’éolien maritime et du biogaz. Pour Rainer Baake, il convient de « garantir que la transition énergétique soit un succès non seulement sur le plan écologique mais aussi économique ».

Vers un tarif d’achat unique à 9 centimes le kWh pour toutes les filières ENR

Dès 2015 l’objectif de l’EEG 2.0 est de faire baisser le niveau moyen des feed-in tarifs à 12 centimes. Quelques années plus tard, un tarif unique sera appliqué pour toutes les filières ENR : il sera de 9 centimes, ce qui sera inférieur au tarif d’achat du nouveau nucléaire EPR, 10,9 centimes le KWh, en Grande-Bretagne.

A partir de 2015 l’éolien terrestre sera acheté 9 centimes le kWh, le solaire PV 11 centimes, la biomasse 15 centimes et l’éolien offshore 18 centimes. Pourront bénéficier chaque année de cette rémunération 2500 MW d’éolien terrestre (équivalents à une production d’environ 4 TWh/an), 2500 MW de solaire photovoltaïque (environ 2,5 TWh/an) et 100 MW de biomasse (environ 0,5 TWh/an).

Pour l’éolien offshore, particulièrement coûteux, l’objectif initial de 10 GW pour 2020 a été ramené à 6,5 GW. Les Lands du nord de l’Allemagne, qui sont directement concernés par l’éolien offshore, s’opposent à cette réduction. Le gouvernement cherche un compromis mais il est clair que la logique de la rationalité économique n’est pas favorable à cette filière.

 

La réforme EEG 2.0 est indispensable pour que la transition énergétique allemande soit un succès. Soutenir de manière trop généreuse des filières coûteuses conduirait à une surcharge trop importante. Le risque serait alors un découragement des citoyens et ainsi une érosion de leur soutien qui reste cependant à ce jour très fort.

Le coût du solaire PV en forte baisse : le monde peut dire merci aux allemands

En Allemagne, le tarif du kWh électrique réseau est aujourd’hui entre 12 à 25 centimes hors taxes, et de 24 à 40 centimes TTC selon le volume de consommation. Le tarif d’achat réglementé du kWh PV était en 2013 de 10,25 à 14,80 centimes selon la taille des installations, et il suit étroitement le prix de revient. La parité réseau a donc été franchie. L’autoconsommation, qui permet d’éviter d’acheter l’électricité du réseau, est donc très avantageuse.

Il y a 10 ans les tarifs d’achat du PV s’élevaient entre 45 et 58 centimes, soit bien supérieurs à aujourd’hui. C’est grâce à cette politique de soutien volontariste qu’une importante industrie du PV a pu se mettre en place en Allemagne, puis en Chine, et permettre une baisse massive des coûts. C’est le monde entier qui, grâce à la politique énergétique allemande, va à présent bénéficier de panneaux solaires bon marché.

Ce fort soutien initial en faveur du solaire continuera de peser sur la facture des consommateurs allemands pendant 20 ans. Autrement dit les parcs solaires installées en l’an 2000 ne bénéficieront plus de tarif d’achat en 2020 et à partir de cette date ils produiront de l’électricité pour un prix de revient proche de zéro.

Une surcharge ENR qui va se stabiliser

La surcharge ENR sur la facture des consommateurs allemands est de 5,3 centimes par kWh en 2013. Le gouvernement souhaite qu’elle ne dépasse pas 6 centimes dans les années à venir.

Une analyse détaillée de cette surcharge est très instructive. Les tarifs d’achat proprement dits représentent 2,3 centimes. 0.2 centime pour l’éolien (première des ENR allemandes en volume de production), 0.6 pour la biomasse, 1.4 pour le solaire PV. C’est donc le solaire qui pèse le plus lourd. L’Allemagne a choisi de miser massivement sur cette future poule aux oeufs d’or dans l’intérêt général étant donné que cette filière a un énorme potentiel pour le monde entier. Cet effort s’inscrit dans une dimension éthique.

Sur le reste de la surcharge  0.8 centime correspond à la baisse du prix de l’électricité sur le marché. Ceci du fait notamment de la compétition solaire / gaz. La baisse se répercute sur la facture du consommateur compte-tenu du mode de calcul de la surcharge basé sur le différentiel entre le tarif d’achat et le prix du marché. La fermeture d’une partie des centrales au gaz devrait conduire peu à peu à une évaporation de cet effet de surcapacités.

Enfin 1,2 centime de la surcharge correspond à ce que payent les particuliers du fait de l’exemption dont bénéficient les industriels. Elle est considérée comme anormale par une large majorité d’allemands et qui fait l’objet d’un conflit avec la Commission européenne.  Certes, comme le souligne Amory Lovins du Rocky Mountain Institute (Colorado), la baisse du prix de l’électricité sur le marché grâce aux ENR est positive pour l’activité industrielle allemande ainsi que pour les exportations d’électricité. Néanmoins une meilleure équité dans la répartition de la surcharge rendrait la transition énergétique moins onéreuse pour les citoyens allemands et serait alors perçue comme plus juste.

Décentralisation

84% des allemands veulent passer à une électricité 100% ENR le plus rapidement possible selon un sondage de septembre 2013. Mais les 4 plus grands groupes de l’énergie en Allemagne (ces « Große 4 » sont équivalents à EDF) ont très peu investi dans le solaire PV : seulement 0.2% du total du parc PV installé fin 2010. Ce sont les particuliers (39,3%), les agriculteurs (21,2%), les fonds et les banques (8,1%), les porteurs de projets (8,3%) et les commerçants (19,2%) qui ont le plus investi. Comme le soulignent dans un rapport du 12 septembre 2013 les experts de l’Institut Fraunhofer (point 8, page 31), « le solaire PV menace le business-model des 4 gros ».

La transition énergétique allemande est une lutte citoyenne pour l’émancipation vis-à-vis des grands groupes en situation de monopole. Le pays s’est fixé comme objectif 1/3 d’ENR en 2020, 1/2 en 2030, 2/3 en 2040 et 4/5 en 2050.  Le système fédéral en place en Allemagne accorde une forte autonomie aux régions.

La culture allemande a permis l’émergence de cette dynamique d’autonomisation énergétique, dynamique qui est en revanche complètement étouffée en France comme en témoigne Marc Théry de la Communauté de communes du Mené au nord de la Bretagne. Selon l’Agence Fédérale Allemande des Réseaux, 32,4 GW de modules PV étaient installés fin 2012, répartis sur 1,3 million de centrales solaires dans toute l’Allemagne. La production électrique devient ainsi chaque année de plus en plus décentralisée.

Par Olivier Danielo

Record : Le tiers de l’électricité danoise a été d’origine éolienne durant l’année 2013

C’est 3,1 point de mieux qu’en 2012. L’année 2013 a pourtant été peu ventée au Danemark comparativement aux années antérieures. Ce chiffre danois est en fort contraste avec le niveau de l’éolien en France durant la même année: 2,9%.

Quand le vent alimente intégralement tout un pays

La part de l’éolien dans le mix électrique danois est même montée à 54% durant les 30 jours du mois de décembre 2013, et à 68,5% durant les 7 jours de la semaine 52, en période de Noël où l’activité industrielle tournait au ralentit.

Le 21 décembre (c’est-à-dire durant 24 heures continues), le niveau symbolique des 100% a été dépassé: toute l’électricité du pays provenait ce jour là du vent, et les 2% excédentaires ont été exportés vers les voisins, en particulier la Norvège qui peut stocker l’énergie en excès dans ses lacs de montagne. Le 1er décembre, entre 4 et 5 heures du matin (c’est-à-dire pendant une heure), l’éolien a même pesé 135,8%, record du pays. Et du monde.

Le Royaume de la Petite Sirène a consommé 33,5 TWh d’électricité en 2013, ce qui correspond à une puissance appelée moyenne  de 3800 MW. La puissance éolienne installée totale fin 2013 était de 4792 MW. Contre 4166 MW fin 2012. Soit une augmentation nette de 626 MW en un an.

Le Danemark, pays de 5,6 millions d’habitants, a ainsi installé en 2013 autant de puissance éolienne que la France (630 MW en 2013 selon le bilan RTE), un pays pourtant presque 13 fois plus grand et bénéficiant de plusieurs régimes de vent. Et le Danemark  un pays plus densément peuplé que la France.

Le rapport puissance éolienne installée / puissance électrique moyenne appelée par les consommateurs  est au Danemark de 1,26, ce qui constitue un record mondial.  Il est de 0.13 en France, où la puissance appelée moyenne en 2013 a été de 62 GW et où 8140 MW de puissance éolienne étaient installés fin 2013.

Une symbiose hydro-éolienne, clé de la réussite technique

Le pays d’Andersen s’est fixé un objectif clair : 100% de renouvelable à horizon 2050. Le niveau de 50% d’éolien pourrait être atteint dès 2020, conformément aux objectifs nationaux.

Le Danemark a mis en place un système de symbiose très intelligent avec ses voisins scandinaves riches en réservoirs hydrauliques. Quand le niveau de production éolienne est faible, la Norvège augmente la production de ses centrales-lacs. A l’inverse quand le niveau éolien est fort, alors la Norvège coupe une partie de ses centrales-lacs. Les systèmes de lacs seront optimisés dans le futur en y ajoutant une composante de pompage.

La Grande-Bretagne et l’Allemagne vont être connectées par câble HVDC sous-marin (courant continu haute tension) à la Norvège. Les Pays-bas le sont dès à présent.

La France,  si elle décidait de faire monter son niveau d’ENR variables à plus de 25%, a également la possibilité de devenir reliée à la Norvège et bénéficier de cette grande batterie bleue.  Le total de l’éolien et du solaire est de seulement 3% aujourd’hui dans l’hexagone, ce qui est tout à fait gérable par les outils de flexibilité déjà en place.

Danemark versus Royaume-Uni, le match européen

Martin Lidegaard, le Ministre danois du climat et de l’énergie estime que les ambitions de l’UE en matière d’ENR sont insuffisantes. Il déplore que l’objectif fixant à 27 % le pourcentage d’énergie issue de ressources renouvelables à l’horizon 2030 ne soit contraignant qu’au niveau européen, et pas au niveau des états individuels. Martin Ledegaard estime que le Royaume-Uni de David Cameron a joué un rôle particulièrement néfaste en la matière. « Le débat est houleux » a déclaré Martin Lidegaard à Euractiv le 28 janvier 2014.

David Cameron a accepté un tarif d’achat de 10,9 centime par kWh nucléaire EPR, c’est-à-dire supérieur au coût de l’éolien terrestre qui est d’ailleurs particulièrement bas sur l’île britannique compte-tenu de la qualité du gisement éolien. Cette décision a suscité de vives réactions Outre-Manche, y compris de la part d’intellectuels d’ordinaire favorables au nucléaire. La commission européenne « doute que l’aide puisse être déclarée compatible » avec les règles européennes. Le Danemark a de son côté fait le choix de ne pas développer cette forme d’énergie non renouvelable.

Par Olivier Danielo

France : l’éolien et le solaire en stagnation

Pour le solaire photovoltaïque la situation n’est guère plus reluisante car selon RTE « en moyenne sur l’année 2013, le parc photovoltaïque couvre 1,0% de la consommation d’électricité, contre 0,8% en 2012 ».

En 2013 l’éolien et le solaire représentaient respectivement 2,9% et 0,8% de la production électrique, qui est légèrement différente de la consommation intérieure, contre 2,8% et 0,7% en 2012. La part du couple éolien-solaire n’a donc progressé que de 0.2 point en un an, contre par exemple un bond de 3.1 point au Danemark qui a produit 33.2% de son électricité grâce à l’énergie du vent en 2013.

Parallèlement la production électrique des centrales au charbon a été en France de 19,8 TWh en 2013, ce qui correspond à une hausse de +14% par rapport à 2012. La part du gaz a été de 19.5 TWh, soit une baisse de 18.9%. 

Le charbon monte et le gaz diminue symétriquement, en France comme en Allemagne. Le prix du gaz, indexé au prix du pétrole, est de plus en plus cher en Europe et le charbon est au contraire bon marché. Le boom du gaz de schiste a fait considérablement baisser le prix du gaz sur le marché américain et a conduit à maintenir des prix bas pour le charbon, qui est exporté. Ces prix bas suscitent un intérêt d’EDF qui étudie des projets dans le secteur du charbon et du lignite en Pologne, en Serbie et en Croatie.

Le président François Hollande souhaite construire un « airbus du solaire » en Europe. L’objectif affiché est de tenter de concurrencer les producteurs chinois sur le marché mondial du photovoltaïque.

Par Olivier Danielo

EDF estime entre 6 et 6,5 milliards d’euros le coût normal d’un EPR

Ce prix représente toutefois près du double du prix affiché lors du début des premiers chantiers en Finlande et en France de ce réacteur de troisième génération de 1.650 mégawatts conçu par Areva. EDF est le maître d’oeuvre à Flamanville, alors que c’est Areva qui dirige le chantier finlandais.

Selon Hervé Machenaud, le directeur exécutif d’EDF en charge de la production et de l’ingénierie, deux grands blocs de surcoûts ont été identifiés sur le chantier de Flamanville, dont le coût total est actuellement estimé à 8,5 milliards d’euros.

« Sur ce coût de 8,5 milliards, il y a à peu près 900 millions qui sont identifiés comme des coûts spécifiques liés essentiellement à de l’ingénierie et qui sont amortissables sur le reste de la série. Ces coûts là, ils sont portés par Flamanville mais ils ne seront plus portés par les autres », c’est-à-dire les prochains EPR, a expliqué M. Machenaud devant la commission d’enquête parlementaire consacrée au coût du nucléaire.

D’autres surcoûts sont liés, selon le responsable d’EDF, aux « difficultés inhérentes à la tête de série », « avec des prescriptions et des contraintes que nous nous sommes fixées à nous-mêmes et qui au fond n’étaient pas constructives, réalistes et industrielles ». Elles ont entraîné d’importants retards notamment dans le génie civil, a-t-il reconnu.

Cette partie là, « nous l’évaluons à peu près à 1 milliard à 1 milliard et demi », a dit M. Machenaud.

« Donc le coût de l’EPR pour nous, si l’on enlève ces deux choses, relève plutôt de l’ordre de 6 à 6,5 milliards, évidemment ce sont des calculs », a dit le responsable d’EDF devant les parlementaires.

Il a également souligné la « mobilisation industrielle » que représentait le fait de redémarrer la construction d’un réacteur après 15 ans sans chantier en France.

EDF n’a cependant pas communiqué de prix au mégawattheure pour le réacteur EPR de Flamanville, qui doit être inauguré en 2016.

« Nous n’avons pas fait depuis 2008 d’évaluation du coût de production de Flamanville par mégawattheure, parce que nous trouvons que ce n’est pas significatif pour une tête de série », a affirmé M. Machenaud.

map/mpa/jmg

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Science: un éditeur abusé par de fausses études générées par informatique

Totalement dénuées de sens mais présentant l’aspect et le jargon des publications spécialisées, ces études bidonnées avaient pourtant été soumises sans broncher aux experts lors de conférences consacrées aux sciences de l’informatique et à l’ingénierie. Et les compte-rendus avaient ensuite été publiés par Springer pour ses abonnés, explique l’éditeur un communiqué.

« Nous sommes actuellement en train de retirer tous ces articles aussi vite que possible (…) car il s’agit d’un tissu d’absurdités », précise le texte adressé à l’AFP.

« Nous examinons nos procédures pour trouver les failles qui ont permis à une telle chose de se passer, et nous prendrons les mesures nécessaires pour nous assurer que cela ne se reproduise pas ».

Le pot-aux-roses a été dévoilé par un informaticien français de l’Université Joseph Fourier à Grenoble, Cyril Labbé, qui a également repéré plusieurs dizaines de fausses études du même tonneau publiées à son insu par l’Institute of Electrical and Electronic Engineers (IEEE), acteur majeur des conférences informatiques basé à New York.

Spécialiste de la « fouille de texte », M. Labbé étudie notamment les moyens de débusquer ces fausses études fabriquées par un programme baptisé SCIgen.

Ce programme produit en un seul clic une étude truffée de termes aussi techniques qu’impressionnants pour les non-spécialistes, graphiques, citations et références à l’appui.

Bref, un papier présentant à première vue tous les critères d’une authentique étude. Sauf qu’une lecture approfondie révèle des théories absurdes, des phrases sans queue ni tête et, plus grave, des erreurs grossières facilement détectables.

Ainsi, un faux document réalisé par l’AFP à l’aide de ce programme fait référence à une étude publiée conjointement en 2005 par le physicien Erwin Schrödinger et le mathématicien Alan Turing, respectivement morts en 1961 et 1954…

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Faut-il supprimer les réunions ?

Parce qu’ils sont sollicités dans un trop grand nombre de réunions, ou qu’ils ont essuyé les réprimandes de leur manager leur reprochant de ne pas répondre à leurs emails, ou tout simplement parce qu’ils s’y ennuient, ces rendez-vous réguliers agacent les cadres.

Pour faire passer – ou pour mieux remplir– ce temps contraint, ces managers griffonnent, préparent une autre réunion ou une autre activité, surfent sur Internet, consultent et rédigent leurs SMS et leurs emails, jouent avec leurs Smartphones ou autres tablettes… Certains arrivent même à amorcer une petite sieste.

D’autres entrent et sortent fréquemment de la réunion « pour ne pas déranger leurs collègues ou leurs collaborateurs » et répondent à des appels sur leurs téléphones portables restés allumés. Il n’est pas rare que ces derniers comportements soient conduits par les organisateurs des réunions eux-mêmes.

Faut-il interpréter ces agissements, qui apparaissent de plus en plus souvent dans toute forme d’assemblée (réunion, session de formation, conférence, débat, séminaire, entretien, etc.) comme :

  • Un manque de respect ?
  • Une absence d’écoute et de concentration ?
  • Une forme d’immaturité ?
  • Une perte de contrôle ?

Il semble en tout cas que les priorités personnelles prennent de plus en plus le pas sur intérêts de l’équipe. Difficile dans ces conditions d’accéder à la synergie pourtant reconnue comme un véritable atout pour la création de valeur.

Rappel du sens originel

La réunion c’est l’union à nouveau. C’est l’union autour d’intérêts ou de liens communs. C’est le fait de rétablir l’entente, l’union ainsi constituée entre des personnes. Ce sens originel ne semble pas correspondre à ce que nous observons dans les réunions de travail telles qu’elles se pratiquent aujourd’hui.

Aussi, pour être efficaces, les réunions doivent se dérouler entre des personnes qui acceptent de passer du temps ensemble pour partager des informations, résoudre des problèmes ou prendre de décisions.

Trois formules pour traverser les résistances

Il faut considérer les attitudes des cadres en réunion décrites ci-dessus comme des résistances mises en place pour répondre à la contrainte. La meilleure façon de traverser les résistances c’est de les prendre en considération, de s’y plonger. Voici trois formules pour améliorer l’efficacité du travail collectif.

  • Solution radicale : supprimer des réunions

Diffusion d’emails, utilisation des réseaux sociaux, diffusion de vidéos ou d’enregistrements audio ; les évolutions technologiques nous permettent aujourd’hui de tenir des réunions à tout moment avec tous les participants que nous souhaitons sans les mobiliser en même temps. Ces moyens technologiques nous permettent de participer à ces nouvelles formes de réunions sans y assister. N’est-ce pas formidable ?

Alors pourquoi réaliser toutes vos réunions sous cette forme archaïque ?

  • Solution raisonnable : les quotas

Puisque de nombreuses réunions peuvent être menées par de nouveaux moyens technologiques, il paraît raisonnable de limiter leurs tenues et d’établir des quotas. Interdit – par exemple- à toute personne d’assister à une nouvelle réunion lorsqu’elle aurait dépassé son quota mensuel. Tout manager devrait s’interdire d’appeler une nouvelle réunion lorsqu’il a dépassé le quota d’heures cumulées qu’il juge raisonnable d’immobiliser pour exercer ses fonctions et atteindre ses objectifs. Chaque année, pour satisfaire au processus d’amélioration continue, ces quotas pourraient être revus à la baisse.

Des « stand up meeting » ou réunions debout pourront faciliter la mise en œuvre de cette stratégie des quotas. Cette disposition, en pratique depuis longtemps chez les forces de l’ordre et dans de nombreuses startups, permet de limiter la durée des réunions (15 à 20 mn en moyenne) tout en optimisant leur efficacité.

  • Solution fertile : en faire des moments extraordinaires

Occasions pour unir et rassembler. Votre préparation doit contribuer à donner du sens à votre réunion en répondant notamment aux questions suivantes :

  • Dans quelle mesure la réunion que vous allez organiser va-t-elle renforcer l’union, l’entente entre vos collaborateurs ?
  • En quoi le problème que vous soumettez à votre assemblée contribue-t-il à l’amélioration de sa cohésion ?
  • Comment l’information que vous désirez faire partager est elle aussi utile au rassemblement, à l’union nouvelle de vos collaborateurs ?
  • Ce type de réunions est mis en œuvre pour résoudre les problèmes importants (stratégie, innovation, task force, etc.).

Lorsqu’il s’agit d’améliorer l’efficacité des organisations, le process group, également connu sous le nom de groupe personnel d’exploration (GPE), est une formule particulièrement riche. C’est une disposition visant à établir et à cultiver la confiance au sein d’un groupe d’individus. En privilégiant la simplicité, les membres d’un process group travaillent à établir un niveau de confiance propice à une communication ouverte et honnête. ..

Conclusion

Les trois formules décrites ci-dessus peuvent s’appliquer simultanément. Par exemple les réunions hebdomadaires d’avancement peuvent être supprimées et remplacées par des standups quotidiennes. Les réunions d’information peuvent être supprimées et remplacées par des diffusions multimédia. Certaines réunions de résolution de problèmes peuvent être menées en asynchrone à l’aide de nos outils technologiques. Toutes ces dispositions peuvent contribuer à améliorer l’efficacité et le bienêtre au travail.

Par Dino Ragazzo, auteur de l’ouvrage manager d’élite

Et aussi en
formation :

Polycompétence : réduisez vos risques de perte de compétences

La polyvalence répond, en effet, à un double enjeu :

  • la prise en compte de la fluctuation des demandes des clients ;
  • la réactivité nécessaire face à la perte planifiée (retraite, mobilité, etc…) ou non (accident, maladie, départ volontaire, etc…) de compétences.

Du côté normatif, la norme ISO 9001 prévoit, en ce qui concerne la gestion des ressources humaines au chapitre 6.2, que les compétences nécessaires à la réalisation des activités ayant une incidence sur la conformité du produit / de la prestation soient identifiées et que les entreprises mettent en œuvre les actions adéquates pour satisfaire ces besoins en compétences.
Dans le cadre de la prévention des risques liés à la compétence unique, il est vivement recommandé de développer la polycompétence et polyvalence du personnel. Mettre en œuvre une telle démarche soulève beaucoup de questions auxquelles nous répondons ici :

  • Comment procéder, quelle méthode mettre en œuvre ?
  • Sur quelles compétences travailler ?
  • Comment définir le niveau de compétence attendu ?
  • Que faire des résultats obtenus ?

Identifier les activités essentielles et les compétences clés associées

La mise en place de polycompétence ne concerne pas toutes les activités de l’entreprise mais seulement celles pour lesquelles la pérennité de l’entreprise est en jeu. Il faut donc définir, dans un premier temps, les activités clés, indispensables au fonctionnement de l’entreprise. Pour garantir une approche exhaustive, cette identification s’appuiera sur les processus du système.
La première étape consiste à identifier les principales activités des processus. Puis, pour chacune de ses activités, il convient d’affiner l’analyse en les décomposant en tâches afférentes.
Une fois chacune des tâches identifiées, l’identification des compétences nécessaires pour les mettre en œuvre sera facilitée du fait du périmètre ciblé et de la connaissance du métier par chaque pilote de processus.

À noter
La compétence est la réunion de la connaissance (formation initiale, continue), du savoir-faire (expérience, autonomie) et du savoir-être (qualités personnelles).

À ce stade, sont identifiées les principales compétences nécessaires à la mise en œuvre de vos processus. Il ne reste plus qu’à évaluer l’ensemble des collaborateurs sur chacune de ces compétences lors des entretiens annuels d’évaluation, par exemple.

Identifier les carences en compétences

Après avoir évalué le personnel sur la base des compétences précédemment identifiées, il devient possible de bâtir une grille de polycompétence (Cf. le tableau à télécharger à la fin de l’article) qui permet de faire ressortir :

  • Les activités et tâches clés de chaque processus ;
  • Le personnel travaillant dans chaque processus ;
  • Le niveau de polyvalence du personnel ;
  • Le niveau de compétence du personnel.

Cette grille permet de disposer d’une vision globale des compétences pour chaque processus et de mettre en évidence les activités pour lesquelles l’entreprise manque de compétences (matérialisées en rouge dans la dernière colonne du tableau que nous vous mettons à disposition).
Pour réduire les risques, il est devient possible, de manière factuelle et étayée, de mettre en place des actions d’amélioration (formation, recrutement, formalisation de procédures et instructions, externalisation des activités, etc…).
La grille de polycompétence, proposée à la fin de l’article, permet également de définir des indicateurs de pilotage du processus Ressources Humaines pour évaluer son aptitude à limiter la compétence unique et développer la polyvalence du personnel. Parmi ces indicateurs on notera :

  • L’indice de risque sur les compétences qui correspond au pourcentage des tâches dont la somme des compétences n’excède pas 3 (dans l’exemple à télécharger). Cet indicateur met en lumière la part des tâches pour lesquelles l’entreprise manque de compétences et fait ainsi ressortir les risques liés à l’absence des personnes (planifiée ou non) ;
  • L’indice de compétence qui correspond à la somme des compétences de chaque individu ramenée au total des compétences disponibles pour le processus. Cet indicateur fait ressortir les personnes qui disposent du plus de compétences nécessaires au fonctionnement du processus. L’entreprise peut ainsi se fixer un objectif visant à ce qu’aucun collaborateur ne dispose de plus de 30% des compétences afin de limiter les risques en cas d’absence ;
  • L’indice de polyvalence qui correspond au pourcentage de tâches pour lesquelles chaque individu est considéré autonome (niveau intermédiaire ou expert, dans l’exemple à télécharger). Cet indicateur met en évidence le niveau de polyvalence de chaque collaborateur, c’est-à-dire leur capacité à remplir plusieurs fonctions / tâches. L’entreprise peut ainsi se fixer un objectif visant à augmenter le niveau de polyvalence des collaborateurs.

La polycompétence et la GPEC

La gestion de la polycompétence s’inscrit dans un projet plus large de gestion prévisionnelle des emplois et des compétences (GPEC). Même si la direction est à l’origine de ce projet, il ne faut pas oublier de prendre en compte des aspirations du personnel. Ainsi, la volonté d’augmenter la polyvalence ne doit pas se faire au détriment de la motivation et de la reconnaissance des individus. À l’inverse, il est recommandé de s’appuyer sur les envies des collaborateurs et de valoriser cette polycompétence (évolution de carrière, rémunération, bonus, mobilité interne, employabilité, etc…).
En outre, le succès de cette démarche réside dans la mise en œuvre d’un niveau adapté de polyvalence.
Une polyvalence trop forte peut générer de la contre-performance. En effet, la polyvalence doit s’établir en conservant un degré d’expertise suffisant des collaborateurs pour garantir un niveau de performances constant. De plus, cette démarche, coûteuse et chronophage, ne doit s’intéresser qu’aux compétences clés, celles pour lesquelles la satisfaction des clients n’est pas garantie en cas de perte.
À l’inverse, une polyvalence trop faible risque de générer un phénomène de lassitude auprès du personnel réalisant toujours les mêmes opérations et expose l’entreprise à des risques de non-conformités induites d’un manque de concentration et de motivation.

  • Téléchargez un exemple de tableau de polyvalence et polycompétence pour vous aider à mettre en œuvre la démarche définie dans cet article :

Tableau de polycompétence et polyvalence (540 hits)

Par Jérémy Cicéro, responsable et auteur du Qualiblog

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Fuite d’eau dans un scaphandre spatial: la Nasa admet des erreurs

L’astronaute italien Luca Parmitano avait dû interrompre en urgence une sortie à l’extérieur de la Station spatiale internationale (ISS) le 16 juillet 2013 en raison d’une importante fuite d’eau dans son scaphandre.

« Le scaphandre spatial avait en fait subi la même défaillance à la fin d’une sortie dans l’espace une semaine auparavant. Cet incident n’avait pas donné lieu à une enquête complète, qui aurait pu éviter de mettre un membre d’équipage de la Station spatiale internationale en danger », a avoué la Nasa dans un rapport posté sur son site internet mercredi.

Cette erreur a été attribuée à « un mauvais diagnostic de la première défaillance technique. »

Au moment de la première fuite, les ingénieurs de la Nasa avaient pensé que le liquide provenait du récipient contenant l’eau bue par l’astronaute pendant sa sortie dans l’espace.

« Ce problème n’a pas donné lieu à une enquête suffisante, mais cela n’a pas été quelque chose qu’on a cherché à dissimuler », a insisté lors d’une conférence de presse Chris Hansen, qui a présidé l’enquête interne de la Nasa. « Le vrai problème a été le manque de compréhension de la gravité de cet incident ».

« On a cru que le conteneur d’eau potable était à l’origine de la fuite, ce qui a conduit les ingénieurs à rater la véritable cause du problème », a-t-il ajouté.

Luca Parmitano avait fait part de la présence d’eau dans son casque 44 minutes après le début de sa sortie orbitale. Cela avait précipité son retour à l’intérieur de la Station.

Son casque s’était rempli « de 1,5 litre d’eau, l’empêchant de voir normalement, remontant même dans ses narines et rendant sa respiration difficile », indique le rapport.

Le problème a été attribué à une contamination de silicate d’aluminium qui a obstrué le ventilateur d’une pompe, empêchant l’eau de circuler normalement dans les circuits, a indiqué Chris Hansen.

Mais la cause de cette contamination reste indéterminée.

« Nous n’avons pas déterminé comme nous le souhaiterions la vraie cause de ce problème », a regretté Bill Gerstenmaier, administrateur adjoint de la Nasa pour l’exploration spatiale habitée.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le Sénat est-il pro-OGM ?

Le parti socialiste ne compte plus les revers. Cette fois le coup est porté par le Sénat, pourtant majoritairement à gauche.  Alain Fauconnier, sénateur PS venu tout droit de l’Aveyron, a présenté une loi interdisant de cultiver du maïs transgénique en France.  Cette loi s’inscrit en opposition avec la loi européenne qui vient notamment d’autoriser le maïs TC1507.

En effet, l’Union Européenne prévoit que chaque nation peut définir ses propres règles concernant la culture de produits OGM.  Une liberté louable qui aurait dû permettre au gouvernement de s’opposer, comme il en affiche la volonté, à la culture d’OGM en France. C’était sous-estimer les lobbies pro-OGM !

Le Sénateur-maire de Teilleul UMP Jean Bizet s’est empressé de déposer une motion d’irrecevabilité, adoptée par le sénat par 171 voix contre 169 ce 17 février. Des sénateurs de gauche ont donc participé à l’échec de cette loi.

Le comble étant que la loi ayant été présentée directement devant le Sénat, son rejet empêche qu’elle ne soit discutée au Sénat.  Une mésaventure dont se serait bien passé un gouvernement en grande difficulté, critiqué notamment pour ses nombreux reculs mais aussi son amateurisme quant à la rédaction des textes de loi.

Mais cette fois le gouvernement ne laisse pas tomber. Pressé par le temps, sa seule option est qu’un député fasse une proposition de loi pour qu’elle soit débattue à l’Assemblée nationale. Ceci devant intervenir avant la mi-mars, période à laquelle les agriculteurs pourraient bien débuter les semis, certains ayant déjà fait savoir qu’ils souhaitent semer du maïs transgénique. Luc Esprit, président de l’Association générale des producteurs de maïs, filiale de la FNSEA., assurait respecter la loi, tout en déclarant qu’ « à moins d’une interdiction ferme, des producteurs planteront du MON810 lors des prochains semis ».

Le PS l’a pris au mot. Ce mercredi 26 février, la Commission du Développement Durable de l’Assemblée Nationale a adopté une proposition de loi socialiste interdisant très clairement la culture de tout maïs transgénique sur notre sol.

Malheureusement, ce texte ne sera débattu que le 10 avril, après les semis de printemps. Les agriculteurs pro-OGM peuvent remercier le Sénat grâce à qui ils vont pouvoir semer du maïs transgénique en toute légalité. A moins que le gouvernement ne réussisse à signer un arrêté ministériel d’interdiction, ultime recours dont il dispose pour interdire ces semis. Arrêté à propos duquel le Sénat n’aura pas son mot à dire…

Par Audrey Loubens

UFC-Que Choisir: encore trop de Français reçoivent une eau du robinet polluée

Par rapport à sa dernière carte de la qualité de l’eau en France établie en 2012, l’association de consommateurs se réjouit que 280.000 Français supplémentaires bénéficient d’une eau conforme à la réglementation sur les six critères étudiés (qualité bactériologique, teneur en aluminium, pesticides, nitrates, sélénium et radioactivité).

« Près de 98% » des Français ont donc « accès tout le long de l’année à une eau de bonne qualité », ajoute-t-elle.

En revanche, 1,48 million de consommateurs « continuent à payer pour une eau non conforme », regrette l’association, qui s’appuie sur les résultats d’analyses publiés, commune par commune, par le ministère de la Santé pendant deux ans.

Une carte interactive pour connaître la qualité de l’eau dans sa commune est publiée sur le site de l’association à l’adresse: http://www.quechoisir.org/app/carte-eau.

Un dépassement des normes ne signifie pas pour autant que l’eau n’est pas potable, a tenu à souligner, lors d’une conférence de presse, Olivier Andrault, chargé de mission à UFC-Que Choisir et qui a piloté l’étude.

« Il y a des marges de sécurité », a-t-il précisé, soulignant qu’il revenait aux mairies de décider de restreindre la consommation.

Comme en 2012, l’agriculture est, « de loin », la première responsable.

Dans 63% des cas de non-conformité, l’eau arrive trop chargée en pesticides, en nitrates issus des apports d’engrais et de fumure animale sur les cultures et en sélénium, un composant du sous-sol naturel mais toxique apparaissant dans les cas de « surexploitation des nappes phréatiques ».

Ces pollutions agricoles, les pesticides étant les plus répandus, concernent potentiellement 900.000 consommateurs, principalement « dans les zones d’agriculture intensive du quart Nord-Est de la France ».

Un tiers des pollutions proviennent de défauts dans le traitement de l’eau (surdosage en chlore ou dépassement de teneur en aluminium). Quelque 500.000 Français, résidant majoritairement en zones rurales et de montagnes, sont concernés par un problème dû « à la vétusté des réseaux ou le manque de surveillance » des équipements.

La radioactivité naturelle explique le reliquat de non-conformité (soit 4% des cas).

Globalement, la qualité de l’eau est bien meilleure dans les zones urbaines, les pollutions étant « majoritairement retrouvées dans des petites communes » rurales, note UFC-Que Choisir. L’écart s’est d’ailleurs encore creusé depuis 2012 avec un niveau de contamination en baisse de 35% dans les communes de plus de 5.000 habitants mais en hausse de 8% dans les villages de moins de 500 habitants.

Globalement, la bonne qualité de l’eau du robinet en France reste néanmoins « en trompe-l’oeil » pour l’association, car principalement dûe aux moyens importants mis dans la dépollution plus que dans la prévention pour protéger les nappes.

« Chaque année, pas moins de 400 captages d’eau potable sont fermés, essentiellement pour des raisons de pollution agricole », a indiqué M. Andrault. « A chaque fois qu’on ferme un captage, on enfouit un problème sans le régler ».

Pour le président de l’UFC-Que Choisir, Alain Bazot, « on assiste à une véritable fuite en avant ». « C’est une politique de l’étouffoir, qui fait que les choses ne sont pas visibles. Sans doute que le réveil sera extrêmement douloureux dans les années qui viennent », a-t-il déclaré .

Selon l’association, le coût de la dépollution se situe par an entre 640.000 et 1.140 millions d’euros.

Cette « prime » à la dépollution constitue, à ses yeux, « une aberration économique puisque ce sont les consommateurs -et non les agriculteurs pollueurs- qui paient l’essentiel des taxes de dépollution ».

L’association profite donc du Salon de l’agriculture pour réclamer des soutiens financiers accrus aux « agricultures utilisant une faible quantité d’intrants ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Construire un avion avec une imprimante 3D

MacGyver en rêvait. L’imprimante 3D l’a fait. Réaliser des pièces nécessaires à la construction d’un avion militaire en parfait état de marche. Le premier à avoir réussi à faire voler un tel avion est le groupe britannique BAE System. Ils ont utilisé une imprimante 3D pour fabriquer des pièces du système d’arrivée d’air, du train d’atterrissage ainsi qu’un couvercle de protection pour la radio du cockpit.  L’avion, un Tornado GR4,  s’est envolé ainsi équipé pour un vol test qui s’est parfaitement déroulé. 

Si l’on est encore loin de l’avion en kit à monter soi-même, cette initiative ouvre la voie à la fabrication de pièces aéronautiques à partir de l’impression 3D. Pour rappel, il s’agit d’une technique de fabrication additive. Il suffit de dessiner la pièce souhaitée à l’aide d’un logiciel de CAO. L’imprimante va ensuite superposer des couches de matière en fonction du fichier réalisé et imprimer de façon tridimensionnelle l’objet. Certains voient déjà dans ce procédé une véritable révolution industrielle. 

L’impression 3D présente deux intérêts majeurs. Tout d’abord, et cela intéresse tous les industriels : la réduction du coût. D’après les britanniques, fabriquer les pièces directement sur la base pourrait faire économiser plusieurs centaines de milliers de livres par an. Non négligeable en effet. Mais à cela s’ajoute la possibilité de délocaliser la fabrication. « Vous n’êtes désormais plus bloqués dans un endroit pour fabriquer ces objets. S’il est possible d’apporter des machines jusque sur la ligne de front, cela améliore aussi notre potentiel là où d’habitude nous n’aurions pas eu de capacité de production » s’enthousiasme Mike Murray, ingénieur chez BAE System.

Ce vol d’un avion de combat est donc une prometteuse démonstration des possibilités de l’impression 3D qui, d’après Mike Murray, pourrait très vite s’appliquer à des pièces utilisées sur des bateaux et des porte-avions.

Par Audrey Loubens, journaliste scientifique

News Informatique : février 2014

Un robot avec un cerveau d’abeille

Un projet entre l’Université libre de Berlin et le Centre Bernstein permet le développement d’un robot capable de percevoir des stimuli extérieurs et de répondre à ces influx.

Ce robot est équipé d’un mini cerveau artificiel ayant un mode d’apprentissage simple, explique Martin Paul Nawrot. Ce dernier, professeur de neuro-informatique à l’Université libre de Berlin, est responsable de l’étude. Les scientifiques ont pris exemple sur le système nerveux des abeilles, afin de permettre au robot de relier les stimuli externes à ses propres activités. Le robot a ainsi la possibilité de s’orienter vers certains objets de couleurs et en éviter d’autres. Pour ce faire, les chercheurs ont installé une caméra sur le robot simulant la fonction d’un oeil. Cette caméra transmet ensuite les données captées au réseau de neurones artificiels placé dans le robot. Ce réseau est capable de contrôler les roues du robot, et donc ses mouvements.

Au cours d’une expérience, les scientifiques ont placé le robot au milieu d’une pièce dont les murs comportaient des taches rouges et bleues. Lorsque le robot scannait une couleur avec la caméra, un signal lumineux était déclenché par les scientifiques. Ce signal assurait une fonction de mémorisation par le robot en activant le réseau de neurones artificiels. Puis, le traitement de l’information permettait le contrôle des roues du robot, lequel avançait lorsqu’il observait la couleur rouge et reculait avec la couleur bleu. « Le robot est ainsi capable d’identifier un objet de couleur, puis de relier cette couleur à l’action désirée en quelques secondes » a déclaré Nawrot. Les chercheurs envisagent désormais d’ajouter d’autres formes d’apprentissage à ce réseau neuronal artificiel.

Cette collaboration interdisciplinaire rassemble deux groupes de l’Université libre de Berlin, le groupe de recherche « Neuro-informatique » de l’Institut de biologie et le groupe « Systèmes intelligents et robotiques » de l’Institut d’informatique, ainsi que le Centre Bernstein de Berlin (à travers le projet « Insect inspired robots: towards an understanding of memory in decision making »).

Depuis 2004, le Ministère fédéral de l’enseignement et de la recherche (BMBF) favorise la recherche dans les neurosciences computationnelles avec différents programmes et un financement global de 170 millions d’euros.

Google Glass : démonstration et perspectives

Google organisait à Atlanta les 8 et 9 février un événement destiné à permettre à quelques invités d’essayer le dernier modèle des lunettes de réalité augmenté « Google Glass ». Le directeur technique du projet et professeur à Georgia Tech, Thad Starner y prenait son café, expliquant sa vision du futur de ces technologies.

 

Créer les conditions d’une expérience réussie

L’utilisation des Google Glass rompt avec les codes visuels et gestuels des outils électroniques actuels. Leur prise en main nécessite une approche individuelle, et Google a su mettre en place une stratégie commerciale adaptée. En lançant en 2013 le programme « Explorer » destiné à permettre à une petite communauté triée sur le volet de tester les premiers modèles, Google avait déjà fait oeuvre d’une introduction progressive. En invitant des cuisiniers et mettent à disposition un photomaton et des accès internet, l’événement d’Atlanta est une nouvelle étape de cette campagne de marketing viral.

L’événement, tenu dans une galerie d’art, était ouvert à un public varié mais limité. Plusieurs stands dédiés aux différentes utilisations étaient organisés dans un grand espace industriel reconverti. Ainsi chaque utilisateur pouvait avoir à sa disposition un assistant pour le guider dans ses premiers pas. La plupart des utilisations sont similaires à celles des smartphones, (photos, navigation, musique…). Cependant, la navigation par commande vocale et contacts sur le coté des lunettes et la disponibilité de l’écran offrent un accès rapide à des fonctions simples. S’y ajoutent des possibilités nouvelles comme la traduction instantanée d’écriteaux.

Applications multiples, cible unique

Thad Starner est un pionnier des technologies habillables et du concept de réalité augmenté. Depuis les années 90 il utilise en permanence un modèle adapté d’ordinateur habillable, désormais remplacé par les lunettes Google. Il est convaincu que ces technologies vont surtout révolutionner l’univers professionnel, depuis la préparation de commande jusqu’à la prise de notes académiques. De nombreuses professions étudient en effet la possibilité d’adapter cet outil, depuis la première utilisation pour une opération chirurgicale en juin 2013 à la récente acquisition de deux exemplaires des lunettes par la police de New York.

Pour le professeur Starner, « C’est l’adoption par le grand public qui ouvrira la porte des marchés de niche ». Ainsi si les premiers utilisateurs des lunettes étaient des amateurs de technologie, la cible commerciale est désormais plus vaste. Dans cette perspective l’esthétique de l’appareil a fait l’objet d’une refonte révélée en janvier 2014. Des couleurs variées, un poids dans la moyenne des lunettes de soleil et une monture permettant d’y installer des verres de contact font des Google Glass un objet prêt pour la consommation de masse.

Pourtant des défis sociaux et légaux restent à surmonter. Dans les endroits où filmer est interdit par exemple, comme les casinos, les Google Glass sont interdites par précaution. Certaines fonctionnalités comme la reconnaissance faciale pourraient devoir être limitées au profit de technologies moins invasives comme un échange de cartes de visites. Dans le cadre professionnel, les risques pour la sécurité des données pourraient être renforcés. Les entreprises doivent déjà faire face à la double utilisation personnelle et professionnelle des téléphones portables et aux systèmes de stockage en ligne. Elles devront mettre en place de nouvelles stratégies de sécurité pour ces outils capables d’enregistrer images, documents et positions géographiques.

Même si l’entreprise de Mountain View adopte une démarche commerciale progressive, elle vise néanmoins un marché important. Les tentatives faites en parallèle par Samsung pour lancer une montre intelligente annoncent que la bataille commerciale et sociale des technologies habillable ne fait que commencer. 

Recherche sur le Big Data dans la finance

Les systèmes de traitement de grandes quantités de données sont généralement configurés pour fonctionner à pleine charge. Des chercheurs de l’Université de Hildesheim (Basse-Saxe) travaillent à des solutions pour mieux adapter les systèmes en fonction des flux de données entrants. Les chercheurs travaillent sur des algorithmes, modèles et techniques d’analyse en temps réel de grandes quantités de données financières, afin de prévoir d’éventuelles baisses des marchés.

D’après Christian Kröher, informaticien à l’Université de Hildesheim, « dans le secteur financier, où sont traitées quotidiennement d’énormes quantités de données des marchés boursiers, les technologies d’analyse n’ont pas encore atteint leurs limites ». A titre indicatif, environ 250 Gbits de données commerciales et de taux de change (équivalent à environ 54 DVD) sont traités chaque jour sur les marchés européen et nord-américain. « Les banques centrales mènent des analyses de risques, où les données des réseaux sociaux jouent un rôle grandissant. C’est d’ailleurs par une rumeur que la faillite de la banque Lehman Brothers a été initiée. Dans l’analyse en temps réel de données de différentes sources, les banques doivent également se concentrer sur ces phénomènes », ajoute le chercheur.

Actuellement, les systèmes d’information sont généralement configurés de manière à traiter le maximum de données. D’après l’équipe de recherche « Ingénierie des systèmes logiciels » menée par le Klaus Schmid, ceci n’est ni efficace ni rentable. En effet, en période creuse, les capacités du système ne sont pas totalement utilisées, alors qu’elles pourraient l’être pour des analyses détaillées ou des données supplémentaires. Les systèmes devront donc apprendre à s’adapter automatiquement et de façon dynamique à la situation, de sorte que la capacité existante soit employée de manière optimale, par exemple pour des analyses annexes.

L’Union européenne finance ce projet jusqu’en 2017 à hauteur de 2,9 millions d’euros. A long terme, les résultats de ces travaux de recherche pourraient servir dans d’autres domaines, tels que les analyses macroéconomiques, les études climatiques, ou les données de grandes infrastructures de recherche.

Un défi pour l’Asie : stabiliser les émissions anthropiques mondiales de CO2

Malgré les progrès inattendus des Etats-Unis dans ce domaine, affichant une baisse des émissions de 0,2 milliard de tonnes entre 2011 et 2012,  parce que les gaz de schistes, moins polluants et moins onéreux à mettre en œuvre que le charbon, se sont tout récemment imposés dans les centrales électriques américaines, ces émissions mondiales publiées pour 2012 à 34,5 milliards de tonnes, vont atteindre ou dépasser en 2013 les 35 milliards de tonnes de CO2 (voir figure 1).

C’est ce que montre la publication du ministère de l’environnement néerlandais (pbl.nl) qui tient à jour ces statistiques, avec on ne sait  quelle marge d’incertitude.

Ces milliards de tonnes de CO2 annuelles, dont il semblerait que la moitié d’entre-elles soit absorbée par les sols, les eaux, les plantes et les diatomées, participent à la croissance continue de la teneur moyenne annuelle en CO2 de notre atmosphère. Ce paramètre, mesuré sur l’île du Pacifique de Mauna Loa depuis 1958 (NOAA) serait, selon la science en vigueur un déterminant du premier ordre pour expliquer le réchauffement climatique en cours de la planète, bien qu’il soit complexe et controversé de quantifier cet effet par des mesures fiables, dépourvues de biais, sur plusieurs décennies qui est l’unité de temps en vigueur pour ces phénomènes complexes.

Le paramètre global indirect le mieux mesuré et le plus probant semble être, à mon avis et pour l’instant, le niveau moyen des océans mesuré par satellites et dont l’augmentation est liée à la dilatation des eaux et à l’apport de la fonte des glaciers et des calottes polaires. Une autre source de mesure du réchauffement en vigueur me semble digne d’intérêt : c’est la mesure par satellite des températures de la basse troposphère publiée tous les mois depuis 1978 par l’Université d’Alabama (uah) qui avance pour le mois de Septembre 2013, un réchauffement atmosphérique mondial de 0,19°C par rapport à une moyenne des 30 dernières années dont 0,16°C pour l’hémisphère nord (uah Nov.). La tendance longue de ces mesures depuis Novembre 1978 affiche un réchauffement moyen de 0,14°C par décennie. Ces modestes valeurs atmosphériques confirment le rôle déterminant des glaces et des océans dans la capture des phénomènes de réchauffement de la planète.

Ces 35 milliards de tonnes annuels de CO2 largués dans l’azur, peuvent être répartis géographiquement par origines en deux grandes parts : 18 milliards de tonnes, en croissance quadratique, pour l’Asie et 17 milliards de tonnes, en légère décroissance, pour le reste du monde, hors Asie (figure 1).

Alors, compte tenu de ces résultats pour le moins décevants en termes de décroissance rêvée des émissions de CO2 anthropiques, ne serait-il pas plus sage aujourd’hui de négocier avec les grands pays asiatiques un objectif réaliste de  moindre croissance de leurs émissions, dans le but d’arriver à une stabilisation des flux annuels mondiaux de dioxyde de carbone vers une valeur inférieure ou égale aux 40 milliards de tonnes en vue à l’horizon 2020.

Ce serait à la fois un progrès et un vrai défi pour de nombreux pays asiatiques dont la Chine qui dispose dès à présent d’un large réseau routier (troisième mondial après les Etats-Unis et l’Inde et qui dès 2030 disposera du premier réseau routier mondial, affirme l’OPEP dans son World Oil Outlook 2013, page 84) sur lequel des millions de Chinois aisés et urbains voudront se déplacer dans leur véhicule personnel.

Après la révolution industrielle chinoise en cours, il faut imaginer l’émergence d’une révolution des transports individuels dans ce grand pays, à la recherche de paix sociale et d’harmonie qui devraient rappeler l’American Way of Life, en version chinoise. La montée des cours du pétrole prévisible accompagnant cette formidable transition asiatique à venir devrait participer à la modération des émissions de gaz carbonique. Seuls les prix croissants des ressources énergétiques carbonées pourront enfin maîtriser les flux mondiaux d’émissions de gaz carbonique à la baisse.

De toute évidence, ce ne sont pas les réductions des émissions de CO2 de la France qui pèse aujourd’hui 1,1% du total des émissions anthropiques mondiales de CO2 (figure 1) qui résoudront concrètement le problème.

Figure 1 : émissions annuelles de dioxyde de carbone par grandes régions et pour la France exemplaire dans ce domaine (Source: ministère néerlandais de l’environnement)

Par Raymond Bonaterre

Finie la calvitie grâce aux cheveux obtenus à partir de cellules souches ?

Des chercheurs américains ont réussi à fabriquer des cellules épithéliales à partir de cellules souches adultes. Les cellules épithéliales sont des cellules qui forment l’épithélium, ce tissu qui recouvre toutes les surfaces de notre corps. Pour y parvenir, les chercheurs de la Perelman School of Medicine de l’université de Pennsylvanie, en collaboration avec ceux du New Jersey Institute of Technology, ont ajouté trois gènes à des fibroblastes dermiques de façon à les transformer en cellules pluripotentes, des cellules capables d’évoluer en n’importe quelle cellule. Ces dernières ont ensuite été cultivées de façon à obtenir des cellules épithéliales. L’intérêt pour les scientifiques est que les cellules épithéliales sont à l’origine de la pousse des follicules pileux, entre autres les cheveux. Ces follicules ont été implantés sur des souris avec succès puisque les rongeurs se sont retrouvés recouverts de cheveux humains !

Parus dans Nature Communications, ces travaux confirment la possibilité de créer un cheveu sans utiliser d’autres cheveux. Surtout, en transformant les cellules souches en cellules génératrices de follicules pileux, le rendement est très satisfaisant. Après implantation, les chercheurs ont observé que 25% des cellules greffées avaient effectivement produit des follicules pileux humains. Le  Dr Xu Xiaowei, principal auteur de l’étude, s’est même félicité d’être le premier à créer des cellules souches capables de produire des follicules pileux.

Alors, les chauves vont-ils disparaitre ? Pas encore ! Pour éradiquer la calvitie, il est nécessaire de combattre deux fronts : les cellules épithéliales et les cellules dermiques, les deux types de cellules nécessaires à la pousse des cheveux.

Zinédine Zidane, Bruce Willis ou encore Sean Connery ne sont pas prêts de changer de look. 

Par Audrey Loubens, journaliste scientifique

News environnement : février 2014

Vers une raréfaction du phosphore

En 2008, le prix du phosphore a augmenté de 800%. Cette hausse soudaine semble indiquer une prise de conscience que les minerais de phosphore se raréfient dans le monde. Le phosphore est essentiel dans l’agriculture moderne comme fertilisant artificiel. Dana Cordell, l’une des responsables de cette étude, a pour la première fois utilisé le terme de « pic du phosphore », en référence au pic du pétrole. Elle prédit une pénurie du phosphore auquel le monde est mal préparé. Son article « The story of phosphorus: global food security and food for thought » est devenu l’article le plus cité et téléchargé du journal « Global Envrionnemental Change ».

Dans cet article, les auteurs proposent un système qualitatif analysant la vulnérabilité des réserves de phosphore. Les géophysiciens se sont déjà penchés sur le sujet. Selon les recherches, six pays contrôleraient plus de 90% des réserves en phosphore : Afrique du Sud, Algérie, Chine, Jordanie, Maroc et Syrie. Cette prise de conscience crée des tensions géopolitiques, comme par exemple au Maroc où les réserves de phosphore se trouvent dans le Sahara. L’Inde, le Brésil et l’Union Européenne sont de plus en plus dépendants de ces réserves.

Il est donc essentiel d’organiser des campagnes de sensibilisation au niveau national, régional, voire international, afin de limiter la consommation de phosphore. Tout cela peut se faire par exemple en réformant les politiques agricoles, mais aussi les infrastructures de recyclage. En effet, contrairement au pétrole, il n’existe pas de substituants au phosphore. Son recyclage peut être une solution afin de limiter la consommation du phosphore des exploitations minières. Par des procédés chimiques, il serait possible d’extraire le phosphore des urines et selles des mammifères. Une autre possibilité de réduire notre dépendance serait de maîtriser la technique d’eutrophisation (modification et dégradation d’un milieu aquatique) afin de tirer parti du phosphore contenu dans l’eau.

Quel serait l’impact d’une flambée des prix du phosphore ? Est-ce possible de réduire cette dépendance ? Selon les scientifiques, les réserves de phosphate sont estimées à 16.000-67.000 mégatonnes. Au rythme de consommation actuel, les mines de phosphates seront épuisées dans cent ans.

Source : bulletins-electroniques.com

L’éolien devient la première source d’électricité en Espagne

Selon les chiffres provisoires communiqués par Red Electrica de Espana (REE), l’entreprise gestionnaire du réseau électrique espagnol, la technologie éolienne est devenue la première source d’électricité en Espagne sur l’ensemble de l’année 2013. C’est la première fois que l’éolien devient sur la durée d’une année entière la première source de couverture de la demande d’électricité, en Espagne mais aussi dans le monde.

Dans un contexte de recul de la demande électrique, qui baisse pour la troisième année consécutive, de 2,3% par rapport à 2012, la puissance installée en Espagne s’est légèrement accrue de 556 MW en 2013, soit 0,5%. Cette hausse provient surtout de l’énergie solaire, thermoélectrique (+ 300 MW soit 15%) et photovoltaïque (+140 MW, soit 3,3%).

La répartition de production par sources fait apparaître une forte croissance de l’hydraulique par rapport à 2012 en raison d’une pluviosité supérieure en 2013, une augmentation de 14,2% de la production issue de sources renouvelables, et à l’inverse une forte baisse de la production par cycle combiné (-27,3%), ou issue du charbon (27,3%). La baisse de 8,3% de la production d’électricité d’origine nucléaire s’explique notamment par l’arrêt de la centrale de Garona, suite à la décision de son exploitant de ne pas solliciter une prolongation de sa durée de vie comme l’y incitait pourtant le gouvernement. L’éolien est ainsi devenue la première source d’électricité en termes de couverture de la demande, avec 21,1% contre 18,1% en 2012, dépassant pour la première fois sur l’ensemble d’une année, le nucléaire qui recule de 22,1% à 21,0% en 2013. Le total d’énergie produite par le nucléaire reste légèrement supérieur à celui de l’éolien, mais la consommation électrique des centrales nucléaires elles-mêmes étant supérieure, la couverture de la demande électrique est moindre que celle de l’éolien. REE souligne par ailleurs que les énergies renouvelables ont couvert en 2013 42,4% de l’ensemble de la demande électrique en Espagne, soit 10,5% de plus qu’en 2012, ce qui a permis une réduction des émissions de CO2 de 61,4 millions de tonnes, 23,1% de moins qu’en 2012.

Cette montée en puissance des énergies renouvelables dans le mix espagnol ne suscite pourtant aucun triomphalisme au moment où le gouvernement annonce de nouvelles mesures pour lutter contre le « déficit tarifaire » de près de 30 milliards d’euros accumulés depuis une dizaine d’années en raison du différentiel existant entre le prix payé par le consommateur et les coûts de production et de distribution d’électricité.

Les primes à la production versées aux énergies renouvelables, d’un montant total estimé de 50 milliards d’euros entre 1998 et 2013, sont notamment en cause et après avoir suspendu, au début de l’année 2012, les primes pour l’installation de nouvelles capacités, le gouvernement annonce qu’il va désormais s’attaquer aux primes versées aux capacités renouvelables déjà existantes. Il s’agit de plafonner à 7,39% de l’investissement le niveau des primes. Les installations les plus anciennes, antérieures à 2005, ne toucheraient plus aucune prime à la production, ce qui affectera notamment le secteur éolien, puisque 37% de la capacité installée dans ce domaine est potentiellement concernée par cette mesure.

Source : bulletins-electroniques.com

Symbiose acacia-fourmis : un nouveau niveau dévoilé

L’acacia Acacia hindsii, originaire des forêts tropicales d’Amérique centrale, est un exemple de myrmécophyte, une plante qui vit en symbiose avec les fourmis. Il héberge des fourmis du genre Pseudomyrmex au creux de ses épines. Les fourmis se nourrissent quasi-exclusivement du nectar de la plante. En contrepartie du gîte et du couvert, les fourmis mutualistes assurent la protection de leur hôte contre les autres insectes et les plantes concurrentes.

Des chercheurs de l’Institut Max Planck d’écologie chimique à Iéna (Thuringe) ont découvert un autre bienfait lié à la présence des fourmis. En effet, celles-ci protègent également la plante des microorganismes nuisibles au feuillage. Les scientifiques ont comparé les feuilles des plantes d’acacia hébergeant des fourmis à des feuilles dépourvues de locataire ou bien hébergeant des fourmis parasitaires. Une analyse détaillée de la composition bactérienne de la surface des feuilles a mis en évidence que la présence de fourmis mutualistes réduisait les populations d’agents pathogènes nuisibles. Leur présence a donc un effet positif combiné sur la santé des plantes.

L’étude indique que cet effet inhibiteur serait dû à l’action des bactéries vivant elles-mêmes en symbiose avec les fourmis. Cependant, le transfert de la protection antimicrobienne de la fourmi à la plante n’est pas encore décrit. Une enquête plus approfondie en laboratoire a suggéré que les populations de « bactéries protectrices » sont transportées et propagées par les pattes de l’insecte.

Face à ce niveau de complexité, les chercheurs suggèrent que les bactéries et autres micro-organismes soient pris en compte dans les futures études des phénomènes de symbiose et mutualisme.

Source : bulletins-electroniques.com

L’Anses surveille les enfants et les pesticides

Cette année, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) s’intéresse aux risques liés à l’utilisation des objets connectés générant des champs électromagnétiques par ou à proximité des enfants. L’expertise tentera de percer les risques liés à l’usage des veille-bébés, tablettes, consoles 3D, jouets radiocommandés ou talkies-walkies. L’idée est d’« avoir un état des lieux précis de ces expositions qui évoluent beaucoup dans le temps avec l’évolution des usages », précise Marc Mortureux, Directeur Général de l’Anses.

Les résultats, rendus au printemps, viendront compléter le rapport sur les radiofréquences paru en 2013. Une attention particulière sera portée sur les éventuels risques sanitaires liés à l’usage de technologies 3D par les enfants, notamment le risque d’altération de leur développement visuel.

Enfants : gare aux produits chimiques !

Les risques liés à l’exposition des enfants aux substances chimiques indésirables fait partie des priorités de l’Agence pour cette année. Ainsi, elle lance un groupe de travail sur l’exposition aux substances chimiques contenues dans les jouets et articles de puériculture en matière plastique, destinés aux nourrissons et aux enfants jusqu’à l’âge de 3 ans. 

Elle étudie également le profil nutritionnel des aliments destinés aux bébés de moins de 3 ans. Laits infantiles, plats et petits pots pour bébé salés et sucrés, soupes, desserts biscuits, boissons et céréales n’auront plus de secrets pour l’Agence !

Les risques liés à l’alimentation des enfants vont être décortiqués au peigne fin grâce à l’étude de l’alimentation totale (EAT) infantile. Elle évalue l’exposition alimentaire des enfants de moins de 3 ans à plusieurs substances chimiques. Plus de 500 substances sont étudiées incluant environ 300 résidus de pesticides et des métaux lourds pour documenter très précisément les risques.

Pesticides : la protection est-elle suffisante ?

Face au manque de données précises sur les expositions aux pesticides des travailleurs agricoles, l’Anses a décidé de réagir. Elle souhaite ainsi éclaircir de nombreuses zones d’ombres. Notamment, elle veut mieux connaître les expositions en fonction des systèmes de production et des filières, identifier les situations professionnelles à l’origine des expositions aux pesticides et étudier l’efficacité des vêtements et équipements de protection individuelle.

De plus, l’Anses doit réévaluer le dispositif réglementaire destiné à protéger la santé des personnes habitant à proximité des zones traitées avec des produits phytosanitaires. « Nous avons été saisis par le Ministère de l’Agriculture sur la question de savoir si la réglementation actuelle permet de protéger suffisamment efficacement les riverains », précise Pascale Robineau, Directrices des produits réglementés de l’Anses. Les mesures de protection actuelles sont-elles suffisantes ? Réponses avant l’été ! 

Egalement sur la question des pesticides, l’Article 22 de la loi d’avenir Agricole prévoit le transfert des décisions d’autorisation de mise sur le marché (AMM) des pesticides, gérée aujourd’hui par le Ministère de l’Agriculture, à l’Anses. Le texte est actuellement en cours de discussions au Sénat.

Mais ce n’est pas tout !

Parallèlement à ces priorités, l’Agence poursuivra le renforcement des moyens de détection des agents chimiques et des pathogènes tout au long de la chaîne alimentaire. Elle publiera par ailleurs plusieurs résultats d’expertises sur les risques liés aux nanomatériaux, aux perturbateurs endocriniens (méthyl tert-butyl éther, toluène, n-hexane, cis-CTAC et O-phénylphénol), aux pollens, à l’antibiorésistance, à la santé des abeilles ou encore à la qualité de l’air. Elle s’intéressera aussi à l’évaluation des bénéfices et des risques nutritionnels des édulcorants intenses, et à plusieurs compléments alimentaires minceurs, compléments destinés aux sportifs et aux femmes enceintes.

Par ailleurs, l’Anses doit actualiser au courant de l’année les recommandations alimentaires et de pratique d’activité physique pour la population générale pour prévenir les grandes pathologies. Elles donneront lieu à des recommandations pratiques, déclinées en fonction des catégories de la population.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Formation professionnelle : « Désormais, nous aurons le réflexe Techniques de l’Ingénieur »

Retour sur l’accompagnement de la société Axon’ Cable par les experts de Techniques de l’Ingénieur avec Bettina François, sa responsable formation.

s_curit__3Axon’ Cable est une société spécialisée dans la fabrication de câbles, connecteurs et liaisons complètes pour l’électronique. Forte d’une cinquantaine d’année d’existence, regroupant 1700 personnes à l’international dont 600 sur son site de Montmirail, Axon’ Cable a pour clients les industries spatiales, militaires, aéronautiques, médicales, ou encore de prospection pétrolière. « Tous les secteurs utilisant des liaisons complexes » résume Bettina François, responsable formation d’Axon Cable France.

En 2013, Axon’ Cable a identifié un besoin de formation particulier pour ses ingénieurs et techniciens en conception machines, à savoir intégrer la directive 2006/42/CE. Après contact avec l’équipe Techniques de l’Ingénieur, Axon’ Cable a opté pour une de deux jours, en novembre 2013, pour neuf personnes, animée par un expert du réseau Techniques de l’Ingénieur.« Ils ont été satisfaits, au point que cette formation va déboucher sur une suite, le formateur leur ayant ouvert les yeux sur des points nécessitant des améliorations dans l’entreprise, dont l’utilisation de la méthode IDAR en analyse des risques lors de la conception des machines », précise Madame François.

Formation et accompagnement en Value Stream Mapping

workshop2_13_2_1En décembre, c’est encore à Techniques de l’Ingénieur qu’Axon Cable fait appel, pour une formation d’une journée concernant le Value Stream Mapping (VSM), qui consiste à cartographier l’ensemble d’un cycle de production, pour mettre en exergue celles apportant une réelle valeur ajoutée, et travailler à la réduction des étapes sans valeur ajoutée. « Il s’agissait là d’une formation d’une journée pour ingénieurs et techniciens qualité et production, nécessaire car un de nos clients, grand groupe de l’aéronautique, exigeait que l’on adopte cette méthode, que de manière générale, de plus en plus de clients demandent », explique Bettina François. La formation VSM a été suivie de deux jours d’accompagnement par l’expert mobilisé par Techniques de l’Ingénieur, directement sur le cas concret de ce client.

Pourquoi avoir choisi à nouveau Techniques de l’Ingénieur ? « C’est un organisme qui connait bien les besoins des ingénieurs et des industriels, et nous étions très content de la première formation. De plus, Techniques de l’Ingénieur se distingue par une réactivité quasi-immédiate lorsqu’on les sollicite, propose des offres très complètes, que l’on peut prolonger avec un accompagnement. De quoi faire la différence ! Nous avons beaucoup de projets techniques à venir, pour lesquels il nous reste à déterminer à qui nous ferons appel. Une chose est sûre : désormais, nous aurons le réflexe Techniques de l’Ingénieur ! », conclut-elle.

Un astéroïde s’écrase sur la Lune sous les yeux ébahis d’un astronome

Le 11 septembre 2013, Jose Maria Madiedo, enseignant à l’Université espagnole de Huelva, avait l’oeil rivé sur deux télescopes d’observation lunaire lorsqu’il a détecté un puissant flash lumineux dans la Mare Nubium (« mer des nuages » en latin), un bassin lunaire rempli de lave refroidie.

L’éclair était presque aussi lumineux que l’étoile polaire et devait être visible à l’oeil nu depuis la Terre, précise la Royal Astronomical Society (RAS) britannique, qui rapporte l’événement dans son bulletin mensuel.

Le flash a été suivi d’une lueur qui a persisté durant huit secondes à la surface de la Lune.

« C’est à ce moment là que je me suis rendu compte que j’avais assisté à un événement très rare et extraordinaire », a souligné M. Madiedo, dont les vidéos sont visibles sur internet (http://youtu.be/perqv4qByaI et

http://youtu.be/zCFDkj2JtyA).

Selon les calculs de l’astronome et de ses collègues, l’astéroïde pesait environ 400 kg pour un diamètre compris entre 60 cm et 1,40 m et il filait à plus de 60.000 km/h lorsqu’il s’est abattu sur la Lune.

Une vitesse telle que le rocher cosmique s’est instantanément vaporisé au point d’impact, creusant un cratère de 40 mètres de diamètre et dégageant une chaleur intense, source du flash observé depuis la Terre.

Contrairement à son satellite naturel, la Terre est protégée par son atmosphère et les météorites d’une taille comparable à celui qui a frappé la Lune s’y consumeraient entièrement bien avant d’avoir atteint la surface.

A titre de comparaison, la météorite qui a explosé au-dessus de la ville russe de Tcheliabinsk voici un an mesurait une vingtaine de mètres de diamètre pour un poids de 13.000 tonnes, et une petite partie seulement de sa masse initiale est parvenue jusqu’à la surface de la Terre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

 

Reach/CLP : Quoi de neuf en 2014

Deux nouvelles propositions de classification et d’étiquetage harmonisé

04/02/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du tert-butyl hydroperoxide et du thiacloprid (ISO);{(2Z)-3-[(6-chloropyridin-3-yl)methyl]-1,3-thiazolidin-2-ylidene}cyanamide.

Les parties intéressées sont invitées à soumettre leur commentaire sur le site del’ECHA, et ce avant le 21 mars 2014.

Restriction concernant l’autorisation d’un produit biocide

06/02/2014

La décision d’exécution de la Commission du 4 février 2014 approuvant les restrictions concernant l’autorisation d’un produit biocide contenant du difénacoum notifiées par l’Allemagne conformément aux dispositions de la directive 98/8/CE du Parlement européen et du Conseil est paru au Journal officiel le 06/02/2014.

Consultation publique pour de potentielles substances biocides candidates à la substitution

10/02/2014

L’ECHA a lancé une consultation publique pour de potentielles substances biocides candidates à la substition.

Les substances concernées sont : Clothianidin, Cybutryne, Cyfluthrin, Hexaflumuron, N,N’-methylenebismorpholine (MBM), Didecylmethylpoly(oxyethyl)ammonium propionate.

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avantle 11 avril 2014.

Une nouvelle proposition de classification et d’étiquetage harmonisé

11/02/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé du chloralose (INN); (R)-1,2-O-(2,2,2-trichloroethylidene)-α-D-glucofuranose; glucochloralose; anhydroglucochloral chloralose (INN); (R)-1,2-O-(2,2,2-trichloroethylidene)-α-D-glucofuranose; glucochloralose; anhydroglucochloral.

Les parties intéressées sont invitées à soumettre leur commentaire sur le site del’ECHA, et ce avant le 28 mars 2014.

Consultation publique sur des alternatives pour l’utilisation de 3 produits

12/02/2014

L’ECHA a reçu quatre demandes d’autorisation pour les utilisations de trioxyde de diarsenic, sulfochromate de plomb jaune (CI Pigment Yellow 34) et chromate de plomb sulfate de molybdate rouge (CI Pigment Red 104). Les consultations pour les demandes d’autorisation seront closes le 9 avril 2014.

Les contributions sur les autres alternativess possibles d’utilisations sont à remettre dès que possible.

L’Echa recommande de soumettre cinq nouvelles substances à autorisation

12/02/2014

L’ECHA recommande de soumettre cinq nouvelles substances à l’autorisation. Quatre d’entre elles (le Diméthylformamide, le Diazene-1,2-dicarboxamide [C,C’-azodi(formamide)], l’Aluminosilicate Refractory Ceramic Fibres (Al-RCF), l’Aluminosilicate Refractory Ceramic Fibres (Al-RCF), le Zirconia Aluminosilicate Refractory Ceramic Fibres (Zr-RCF), et le Decabromodiphenyl ether) ont des propriétés dangereuses pour la santé humaine.

Elles sont classées comme cancérogènes, toxiques pour la reproduction ou sensibilisants respiratoires. La cinquième substance, l’Octylphénol est une substance extrêmement préoccupante qui a des effets sur l’environnement en raison de sa dégradation en une substance ayant des effets identiques à ceux des perturbateurs endocriniens.

La décision finale sur l’inclusion de ces substances dans l’annexe XIV et sur les dates auxquelles les entreprises devront demander l’autorisation à l’ECHA sera prise par la Commission européenne en collaboration avec les États membres et le Parlement européen.

Mise à jour du guide sur la préparation du dossier pour l’annexe

12/02/2014

L’ECHA a publié une mise à jour du Guide pour la préparation d’un dossier pour l’annexe XV pour l’identification des substances extrêmement préoccupantes.

La lettre de l’ECHA du mois de Février publiée

14/02/2014

L’ECHA a publié sa lettre du mois de février.

Lettre pour les déclarants d’intermédiaires

14/02/2014

L’ECHA a commencé à envoyer des lettres juridiquement contraignantes pour les déclarants qui ont enregistré leurs substances comme intermédiaires, mais qui n’ont pas répondu aux demandes de l’Agence pour corriger les incohérences constatées dans leurs dossiers.

Les entreprises qui reçoivent cette lettre ont un mois pour mettre à jour leur inscription avant que l’ECHA renvoie l’affaire aux autoritésd’application des États membres.

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

 

Et aussi dans les
ressources documentaires :