Stress, gestion du temps et perfectionnisme : un cocktail assommant

Nous décrivons ci après cette épreuve existentielle d’imperfection à laquelle vous êtes peut-être confronté et vous proposons quelques pistes pour un meilleur management du temps.

La sensation d’imperfection est une épreuve existentielle qui se manifeste à partir de la conscience douloureuse de l’écart qui existe entre ce qui semble objectivement possible et l’évaluation de ses propres capacités. C’est une sensation de limitation de sa propre puissance. Étymologiquement parlant, est imparfait tout ce qui n’est pas complet.

Tout processus d’amélioration continue comme la démarche « PDCA » ou « roue de DEMING » toute recherche de performance, toute démarche qualité serait impossible sans le désir de perfection pour un travail bien fait, efficace et irréprochable.

Cette épreuve existentielle possède donc une facette stimulante. Mais attention, elle peut également se montrer très désagréable. Cela est particulièrement vrai lorsque sa facette opposée, celle de l’imperfection, commence à se dévoiler.

Dans les organisations, on caractérise d’imparfait toute personne ou toute chose qui présente des défauts, des lacunes, des carences, des manquements. C’est par exemple un travail inachevé ou incomplet, un produit qui ne respecte pas les attentes des clients, une unité qui ne respecte pas les processus décrivant le fonctionnement interne, un responsable hiérarchique qui commet une erreur… La frustration provoquée par la confrontation plus ou moins patente avec sa propre imperfection peut devenir insoutenable pour ceux qui ne sont pas capables d’assumer la réalité de leurs limitations humaines.

Pour tempérer les effets de cette confrontation, nous mettons souvent en œuvre les parades suivantes :

  • le déni de ses limites et de ses imperfections (mégalomanie, mépris des autres, préjugés, fatuité…) ;
  • la recherche de certitudes totales, de compréhension absolue, d’infaillibilité. Le développement de relations arrogantes avec autrui. Développement d’un mode de pensée « vertical » ;
  • la prise de risques démesurés ne tenant aucun compte des ressources et des capacités disponibles ;
  • la fixation d’objectifs démesurément élevés (dont on pourra ainsi nous pardonner la non-réalisation) ;
  • la recherche de boucs émissaires, le déplacement de la responsabilité : « les clients ne comprennent pas le concept », « les forces de ventes ne savent pas mettre ce produit en valeur » ;
  • la non-décision pour éviter l’erreur, difficultés à identifier et à exprimer sa volonté.

Bien qu’une certaine dose de perfectionnisme puisse être stimulante pour la performance individuelle et collective, nous connaissons tous ses effets néfastes. Une accentuation exagérée de cette orientation existentielle conduit ceux qui en sont victimes à la perte du discernement de l’essentiel, à la noyade dans les détails et à des dépenses d’énergies et de ressources disproportionnées par rapport aux résultats obtenus. 80 % des efforts pour obtenir 20 % des résultats. Les perfectionnistes confondent précision et performance.

Comment aider les entreprises et les personnes qui « s’enlisent » dans le perfectionnisme ?

Voici quelques pistes :

  • travail de deuil de son image idéale… Apprendre à assumer ses imperfections et à lâcher prise ;
  • travail de réappropriation des introjections (« Il faut que tu sois le meilleur ! ») ;
  • travail sur l’acceptation de ses propres limites ;
  • travail d’évaluation positive (apprendre à pratiquer l’investigation appréciative des phénomènes qui nous entourent).

Par Dino Ragazzo

Et aussi en
formation :

Comment faire ce que vous devez faire lorsque vous n’avez pas envie de le faire

Le cas où la mobilisation vers l’action est particulièrement difficile est celui que nous abordons ici et auquel vous avez certainement été confronté(e) au cours de votre vie professionnelle. Il s’agit de situations où votre engagement ne semble pas librement consentit mais – en quelque sorte – contraint par une exigence (morale, éthique, influence, raison, pouvoir etc…).

Dans ce qui suit, nous supposerons que les alternatives suivantes ne sont pas disponibles :

  • Vous ne réalisez pas la tâche (Éliminer) ;
  • Vous la faites faire par quelqu’un d’autre (Muter) ;
  • Vous la re-re-re planifiez (Procrastiner).

Il ne vous reste donc aucune autre alternative que celle de réaliser quand même cette « abominable » tâche. Alors pourquoi attendre davantage ? Les 3 propositions suivantes pourront vous aider à avancer vers l’action. Elles visent à augmenter le niveau d’énergie du « je veux » dont vous avez besoin pour vous mobiliser maintenant.

1- ÉNUMÉREZ au moins DEUX AVANTAGES dont vous bénéficierez lorsque la tâche sera réalisée

Satisfaction, soulagement, délivrance, sécurité, sérénité, etc… ?

Les médicaments ont souvent un goût désagréable. C’est pour cette raison que nous n’avons pas envie de les avaler. Ce qui nous conduit à le faire quand même, c’est la liste des avantages dont nous allons bénéficier lorsque nous aurons quand même avalé la mauvaise potion. Cela vous rappelle quelque chose ? Alors pas de temps à perdre. Puisque vous devez réaliser cette p… de tâche ; qu’adviendra-t-il d’agréable pour vous lorsqu’elle sera réalisée ? Impossible de ne pas trouver au moins deux réponses à cette question.

2- DÉCOUPEZ la tâche en trois petites parcelles ET RÉALISEZ la première parcelle dans la journée

Répéter cette étape chaque jour et autant de fois que nécessaire avec le restant de la tâche. En général, il ne vous faudrait pas plus de 3 jours pour en venir à bout.

Obligez-vous à réduire au maximum le délai de réalisation de la première parcelle. Idéalement, la réaliser immédiatement.

  • Exemple : Je dois remettre le rapport que Franck m’a demandé

Les 3 petites parcelles :

  • je récupère les données ;
  • je construis le plan du rapport ;
  • je rédige le rapport.

Il est 11h00 ; je planifie la réalisation de la première parcelle maintenant (ou au plus tard à partir de 14h00).

3- Ne restez pas seul(e)

  • Discutez avec un collègue, un ami, un membre de votre famille… des raisons qui vous empêchent de passer à l’action ;
  • Demandez-lui de vous écouter sans vous interrompre ;
  • A la fin de votre explication demandez-lui de reformuler le plus fidèlement possible ce qu’il ou elle a compris. Ne l’interrompez pas ; écoutez le (la) jusqu’au bout ;
  • Envisagez ensemble – en mode brainstorming – plusieurs solutions ou alternatives au problème qui a été formulé clairement.

Exemples de reformulations (et de pistes de brainstorming)

Je comprends que tu repousses constamment la date de réalisation de cette tâche parce que :

  • Tu as peur de ne pas y arriver  (rechercher des alternatives par rapport à cette peur) ;
  • Tu ne te sens pas assez compétent (rechercher des alternatives à cette angoisse d’incompétence) ;
  • Tu n’as pas envie de faire ce qui t’est demandé (rechercher des alternatives par rapport à ma résistance) ;
  • Le sujet est difficile (rechercher des alternatives pour simplifier le sujet) ;
  • Le sujet est ennuyeux (rechercher des alternatives pour égayer le sujet) ;
  • Le travail est rébarbatif (rechercher des alternatives pour rendre le sujet agréable) ;
  • Tu n’entrevois pas la valeur ajoutée de ce travail (Énumérer les Valeurs Ajoutées qui ont du sens pour vous)…

Que vous le vouliez ou non, aucune de vos actions ne peuvent être réalisées sans que vous l’ayez décidé. Il est impossible – au bout du compte – que vous réalisiez une action « à l’insu de votre plein gré »… puisque c’est vous qui investissez votre énergie pour accomplir le résultat. Personne d’autre que vous ne donne l’ordre à vos muscles de taper sur ce clavier pour rédiger ce rapport.

Il y a donc fatalement un moment ou vous fabriquez suffisamment de « JE VEUX » pour vous atteler à cette tâche si contrariante. Faites-nous part de votre expérience des 3 conseils ci-dessus et bon courage !

Par Dino Ragazzo

Et aussi en formation :

La mobilité 2.0 émerge en France !

Suite au projet SCORE@F qui a démontré la faisabilité des systèmes de transport intelligents coopératifs à faible échelle en 2013, la France lancera en 2014 une grande expérimentation dans le cadre de l’appel à projets européen SCOOP@F. Plus de 3 000 véhicules communicants seront déployés sur 2 000 km de routes connectées.

L’expérimentation se déroulera sur 5 sites pilotes : les voies rapides d’Ile-de-France, les routes bretonnes, l’autoroute Paris-Strasbourg, la rocade bordelaise et quelques routes départementales en Isère. Ce projet mobilisera environ 20 millions d’euros, notamment autour de partenaires publics et de constructeurs automobiles.

Les constructeurs et les gestionnaires d’infrastructures y expérimenteront la collecte d’informations pour la gestion dynamique du trafic et les alertes liées aux accidents et aux chantiers. Si l’expérimentation s’avère concluante, un déploiement national pourrait voir le jour dès 2017.

Des systèmes de transport intelligents coopératifs ?

Les systèmes de transport intelligents coopératifs sont des systèmes de communication locaux sans fils permettant des échanges d’informations en temps réel entre véhicules ou entre véhicules et infrastructures routières. Ils préfigurent la mobilité de demain en améliorant la sécurité routière, la gestion du trafic routier, le confort et en favorisant l’éco-conduite.

Les véhicules communiqueront localement avec d’autres véhicules via frd récepteurs embarqués dans les véhicules et avec des serveurs centraux, via des bornes Wi-Fi installées sur le bord de la route, en Wifi 802.11p. La 3G permettra d’assurer la continuité de la connexion Internet. Les informations telles que la position GPS, la vitesse et la direction seront envoyées par chaque véhicule en temps réel. Toutes ces données permettront aux véhicules de percevoir avant leur conducteur ce qui se passe dans leur environnement proche.

La communication entre véhicules permettra d’éviter des collisions entre véhicules lorsque, par exemple, des voitures sont arrêtées après un virage, lorsqu’une voiture grille un feu rouge ou lorsqu’un objet est signalé sur la chaussée. Les infrastructures communiqueront aux véhicules des informations sur les conditions de circulation, la présence d’objets sur la chaussée ou d’un véhicule à contre-sens, la vitesse autorisée, les chantiers en cours, les accidents, etc. Cela révolutionnera l’information sur autoroute qui est pour le moment, assurée par Autoroute-FM et par des panneaux d’informations espacés d’au moins 30 kilomètres, qui ne délivrent qu’un message à la fois.

Les informations seront délivrées aux automobilistes via une tablette connectée fixée sur le tableau de bord. Les bornes Wifi placées sur les infrastructures, d’une portée de 1,5 km de rayon, équiperont en priorité les échangeurs, les carrefours et les points d’intérêt, comme les stations services, pour fournir des informations aux points stratégiques.

Des voitures informées en permanence

La portée de ce Wifi entre véhicules est d’environ 700 mètres : les messages sont transmis de véhicules en véhicules et triés automatiquement pour ne délivrer que les messages pertinents aux conducteurs. Les informations sont échangées entre véhicules, sans action du conducteur et notifiées aux conducteurs grâce à la diffusion de messages ou d’alertes. L’ensemble de ces messages peut également être collectée par des unités situées en bord de route et remontées vers un centre de gestion du trafic routier. Dans ce cas, des consignes appropriées peuvent être transmises à l’ensemble des conducteurs grâce aux bornes situées en bord de route.

Par ce test grandeur nature, la France espère rattraper son retard par rapport à  l’Allemagne et aux Etats-Unis. Notamment, aux Etats-Unis, dans le Michigan, la ville d’Ann Harbour a déjà mené un test sur 3 000 véhicules connectés pendant 18 mois et le Département des Transports américain a approuvé les technologies de communication entre véhicules. Les allemands avaient pris de l’avance avec le projet SIM Td (120 véhicules testés pendant plusieurs mois à Francfort) et vont prochainement lancer leur projet de corridor connecté reliant l’Allemagne, les Pays-Bas et l’Autriche.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Record – Le kWh solaire vendu à moins de 4 centimes au Texas !

Etat du sud des Etats-Unis, plus grand que la France et peuplé de 26 millions d’habitants, le Texas dispose d’énormes quantités de terres très ensoleillées et arides propices à l’installation de grandes centrales solaires PV.

« A ce prix c’est un game-changer, pas seulement pour Austin Energy, mais pour le futur de l’électricité au Texas » a déclaré Tom  Smith, leader du groupe Public Citizen, au journal local Austin American-Statesman.

Le contrat est signé pour une durée de 25 ans et concerne de grandes centrales solaires au sol. Austin Energy délivre l’électricité à environ un million de consommateurs de l’agglomération des Silicon Hills, surnom d’Austin du fait de la présence des sièges sociaux ou des usines de grandes entreprises telles que Dell, Apple, Freescale, IBM, Hewlett-Packard, AMD, Texas Instruments et National Instruments.

Un coût aussi bas de l’électricité grâce au solaire est un atout pour la compétitivité économique locale. Et une croissance du solaire est bénéfique pour l’image de marque de la ville.

Le solaire deux fois meilleur marché que le nucléaire EPR

Sun Edison percevra une aide fédérale de 3 cents par kWh (2,2 c€), ce qui signifie que le kWh PV est rentable au Texas pour Sun Edison dès 3,6 + 2,2 = 5,8 c€. C’est un niveau extrêmement bas, deux fois meilleur marché que le nucléaire de troisième génération. EDF a en effet demandé à la Grande-Bretagne un tarif d’achat de 10,9 c€ pour ses centrales nucléaires EPR.

Dans le sud de la France, par exemple en Aquitaine, les grandes centrales PV sont dès à présent rentables avec un tarif d’achat d’environ 9 c€. Malheureusement l’état français a fixé un tarif d’achat à 7,36 centimes d’euros (tarif valable au 1er janvier 2014), c’est à dire en dessous du seuil de rentabilité, ce qui bloque les projets. Cette situation scandalise les professionnels de la filière. Ils y voient la main des défenseurs des énergies non durables. François Hollande s’est pourtant engagé à réduire la part du nucléaire de 75% à 50% en France à horizon 2025.

Un rapport de l’Agence Internationale de l’Energie – The Power of Transformation – publié en février 2014 montre que l’ensemble des réseaux électriques de planète peuvent intégrer de hauts niveaux d’électricité renouvelable variable et que le surcoût lié aux outils de flexibilité nécessaire à la gestion de ces ressources fluctuantes est marginal.

Un record mondial

Un autre contrat PPA (Power Purchase Agreement) portant sur l’achat d’électricité photovoltaïque a été conclu en Caroline du Nord il y a quelques mois pour un peu moins de 7 cents le kWh. Et en février 2014 au Nouveau-Mexique pour 5,8 cents. Avec ses 5 cents, Austin bât ainsi le record des Etats-Unis. Et du monde.

Au Texas, seul l’éolien terrestre permet de délivrer un kWh encore meilleur marché, entre 2,8 et 3,8 cents (entre 2 et 2,7 c€). Malgré la baisse du prix du gaz consécutive au boom du gaz de schiste le kWh des centrales à gaz texanes coûte environ 7 cents. Celui des centrales au charbon 10 cents. Et enfin celui des centrales nucléaires 13 cents.

L’un des intérêts majeurs du solaire photovoltaïque est de ne pas consommer une seule goutte d’eau pour la production électrique, contrairement aux centrales thermiques. Ces dernières en ont besoin en très grandes quantités pour alimenter les circuits de refroidissement et sont ainsi vulnérables en période de sécheresse.

Par Olivier Daniélo

Et aussi dans les
ressources documentaires :

Birmanie: Total et d’autres géants de l’énergie choisis pour explorer des blocs offshore

L’anglo-néerlandais Shell, les américains Chevron et ConocoPhillips, le norvégien Statoil, ou encore le britannique BG font également partie des groupes choisis, seuls ou en partenariat.

La Birmanie avait lancé en avril 2013 un appel d’offre très attendu pour 30 blocs, 11 en eaux peu profondes et 19 en eaux profondes.

Mais seulement 20 (10 de chaque) ont été annoncés mercredi par les autorités qui n’ont pas donné d’informations sur les autres. Total s’est vu attribuer un bloc en eaux profondes.

Depuis la dissolution de la junte en mars 2011, les réformes lancées par le nouveau gouvernement quasi-civil ont provoqué la levée de presque toutes les sanctions occidentales. Bénéficiant de cette nouvelle image, la Birmanie, dont les réserves énergétiques exactes ne sont pas connues, attise la convoitise des « majors ».

Le ministère de l’Energie a indiqué qu’il recevrait 226,1 millions de dollars comme « bonus de signature » de la part des groupes choisis une fois que l’exploration aura commencé.

« Ce montant est le plus important que nous ayons jamais reçu », a-t-il ajouté dans un communiqué, précisant que 68 entreprises à travers le monde avaient exprimé un intérêt pour les blocs et que 30 avaient finalement déposé une offre.

Pour les blocs en eaux peu profondes, les groupes étaient tenus de s’associer avec une entreprise d’Etat birmane, mais pouvaient pour la première fois postuler seuls pour les blocs en eaux profondes nécessitant plus d’investissements et de compétences techniques.

Ce qui n’empêchera pas la Birmanie d’imposer à tous les investisseurs un contrat de partage de la production avec Myanma Oil and Gas Enterprise (MOGE), la principale entreprise d’Etat dans le secteur.

Les autorités, qui ont également eu recours à des appels d’offre pour des blocs onshore, avaient promis la plus grande transparence dans les procédures et une distribution équitable des richesses issues du secteur, après des décennies de confiscation des dividendes du sous-sol par la junte.

Plusieurs entreprises étrangères sont déjà en partenariat avec des sociétés birmanes pour l’exploitation de blocs offshore gaziers ou pétroliers, dont Total, installé en Birmanie depuis 1992, avant l’imposition des sanctions.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Des chercheurs conçoivent une chambre simulant les conditions sur Mars

Pour répondre aux nombreuses questions qui se posent quant à l’habitabilité de Mars, il est indispensable en premier lieu de mettre au point de nouveaux capteurs et instruments capables de détecter les caractéristiques atmosphériques et de la surface de la planète, expliquent ces scientifiques dont les travaux ont été publiés mardi dans la revue américaine Review of Scientific Instruments.

« Mars est un bon endroit pour développer nos connaissances sur des planètes similaires à la Terre et est de ce fait la cible de nombreuses missions de la Nasa et de l’Agence spatiale européenne (ESA) », relève Jose Angel Martín-Gago, professeur à l’Institut des Sciences des Matériels de Madrid, principal chercheur sur ce projet.

« Notre groupe s’est concentré sur la mission du robot américain Curiosity et met au point une station météorologique qui sera utilisée lors de futures missions d’exploration de la surface de Mars », ajoute-t-il.

En construisant ici sur Terre, dans une chambre à vide, des systèmes capables de reproduire l’environnement martien dont les températures, la pression atmosphérique, la composition de l’atmosphère et les radiations, ces chercheurs peuvent tester les instruments et détecteurs dans des conditions « réelles ».

Un chambre de simulation de Mars a déjà permis de tester certains capteurs météorologiques utilisés à bord de Curiosity, le robot qui s’est posé sur le sol martien en août 2013.

L’équipe travaille actuellement sur notamment la simulation de la poussière sur Mars.

« Nous simulons les effets de la poussière sur Mars –l’un des principaux problèmes de l’exploration planétaire– pour mieux comprendre comment les instruments fonctionnent quand ils sont empoussiérés », précise Jesus Sobrado, le scientifique chargé du développement technique.

Outre Mars, l’équipe a aussi conçu et construit des chambres à vide simulant les environnements d’autres planètes et même d’Europa, une des lunes recouverte de glace de Jupiter ainsi que de l’espace intersidéral et de régions interplanétaires.

Ces scientifiques travaillent actuellement avec la Nasa pour tester une nouvelle station météorologique dans le cadre de la mission Insight (Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) visant à placer un atterrisseur sur Mars pour étudier les profondeurs de la planète.

Ils testeront également les instruments du « Mars Environmental Dynamics Analyzer and Sign of Life Detector » , pour détecter surtout des signes de vie sur Mars, une mission prévue en 2020.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Fukushima: le rejet en mer d’eau souterraine pompée en amont des réacteurs débutera en mai (presse)

Quelque 400 tonnes d’eau souterraine entrent chaque jour dans les bâtiments du site atomique, augmentant d’autant la quantité d’eau contaminée au contact des équipements, eau qu’il faut ensuite stocker puis assainir, une tâche devenue insurmontable.

Pour résoudre en partie ce problème, la compagnie Tokyo Electric Power (Tepco) et les autorités ont imaginé un plan de « déviation », qui consiste à pomper l’eau souterraine en amont des installations, à la stocker temporairement pour contrôler qu’elle n’est pas radioactive et enfin, si elle est saine, à la déverser dans l’océan Pacifique voisin.

Mardi, les coopératives de pêcheurs de Fukushima ont donné leur accord de principe pour ce procédé, avec quelques conditions néanmoins.

Selon le journal Nikkei, cette opération, proposée il y a un an mais alors refusée par les mêmes pêcheurs, doit finalement débuter en mai.

Elle permettra de réduire de 100 tonnes la quantité quotidienne d’eau nouvellement contaminée.

Pour autant, le problème majeur des volumes effarants d’eau radioactive accumulée à la centrale Fukushima Daiichi sera loin d’être résolu, d’autant que le système de traitement de l’eau, ALPS, est tout sauf fiable: il n’en finit pas de tomber en panne.

Une conférence de presse de dirigeants de Tepco est prévue en fin de journée mercredi pour faire le point sur cette situation.

kap/jr

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Environnement : le reflux de l’Europe ?

Le droit de l’environnement, tel qu’il s’applique en France, est pour l’essentiel constitué de normes européennes ou issues de normes européennes. Plusieurs grandes directives communautaires « déchets », « oiseaux » ou « habitats » ont permis une élévation considérable du niveau d’exigence écologique dans les États membres. Le droit de l’Union européenne a donc été un facteur décisif de progrès des droits nationaux en cette matière. Aucun étudiant en droit, aucun juriste ne peut ignorer l’apport de la construction européenne au droit de l’environnement.

Pourtant, le droit de l’environnement pourrait être le théâtre et la victime d’un déclin de l’idée européenne. Plusieurs signaux laissent craindre un reflux de l’Europe et de son droit de l’environnement dans son organisation actuelle, tout au moins en France.

Il semble en effet que les États, dont le nôtre, privilégient de nouveau une approche nationale des problèmes environnementaux. L’approche européenne a-t-elle vécu ? Le dossier des organismes génétiquement modifiés (OGM) peut le laisser craindre.

Le processus de révision de la directive 2001/18 sur la dissémination volontaire des OGM dans l’environnement, engagé en 2008 pourrait aboutir à une « Europe à la carte » : chaque État, pourrait, selon des scénarios différents, interdire ou non, en tout ou partie, la culture de plants génétiquement modifiés sur son territoire.

Pourtant, les phénomènes de dissémination n’ont sans doute pas de frontière. Sans attendre, les parlementaires français s’apprêtent à voter une loi d’interdiction de la culture du maïs transgénique, au motif précis de la carence de l’Union européenne, laquelle justifie alors une « reprise en main » du dossier au plan national.

Autre exemple : les hydrocarbures non conventionnels. Si la controverse sur les gaz de schiste existe, sous des formes diverses, dans de nombreux États, ces derniers conservent jalousement leurs droits et codes miniers et la Commission européenne n’a pu accoucher que de quelques recommandations vite oubliées sur le sujet.

Même difficulté pour la protection des sols. Le sol constitue à n’en pas douter un élément central de notre éco système. C’est pourtant en vain que la Commission européenne a tenté pendant une décennie de faire adopter une directive-cadre sur les sols. Les États préférant ici aussi une approche nationale, notamment de la gestion des sols pollués.

L’Europe de l’énergie ? Tout le monde l’appelle bien sûr de ses vœux. Mais beaucoup de monde lutte aussi contre des objectifs nationaux de développement des énergies renouvelables au profit d’un vague objectif européen non contraignant et que personne ne retiendra.

L’Europe de l’énergie demeure malheureusement un vœu pieux. L’Europe de la lutte contre le dérèglement climatique tout autant. L’organisation des conférences des parties à la convention internationale sur le climat demeure la chasse gardée des diplomaties nationales et la voix de l’Europe peine grandement à se faire entendre. Personne ne fait grand cas d’une éventuelle position commune de l’Union européenne pour le prochain sommet mondial du climat qui doit se tenir à Paris en 2015.

Les exemples pourraient être ainsi multipliés. Presque aucune des branches du droit de l’environnement n’est actuellement épargnée. Plus grave, les violations du droit de l’Union européenne ne cessent pas, comme c’est le cas en matière de qualité des eaux, voire sont parfois complètement assumées. Or, est-il besoin de rappeler que les pollutions n’ont pas de frontières ? Et que la montée des égoïsmes nationaux représente une menace pour l’environnement et son droit ?

Tout se passe comme si le droit européen de l’environnement ne devait plus s’occuper que du particulier et non du général, du détail plutôt que du principe. Aussi utile soit-il, l’adossement en 2005 de la Charte de l’environnement à la Constitution française a aussi témoigné que la constitutionnalisation des principes directeurs du droit de l’environnement offrait davantage de protection que leur inscription en droit de l’Union européenne.

Ne faisons pas fausse route : l’avenir du droit de l’environnement dépend du progrès de l’idée européenne. Ce progrès dépend de la capacité de l’Union européenne à modifier les conditions de rédaction de ce droit, à réduire la part des administrations nationales au profit des élus – parlementaires ou locaux – et des citoyens. Le renforcement du pouvoir d’influence du Parlement européen, la démocratie participative, le dialogue environnemental sont des idées qui doivent cheminer, à Bruxelles également.

À défaut, nous assisterons encore longtemps au reflux à la fois de l’Europe et de l’écologie. Et les incantations sur la coopération franco-allemande « moteur de l’Europe » ne suffiront pas à inverse ce cours des choses. Ici aussi existe une urgence européenne.

Source : Euractiv.fr

Et aussi dans les
ressources documentaires :

Cartographie de l’information : quelles méthodes pour quelles applications ?

Entretien avec Denis Parade, consultant formateur en cartographie de l’information.

Techniques de l’Ingénieur : Denis Parade, qu’est-ce que la cartographie de l’information ?

portrait3Denis Parade : Ce terme regroupe les outils permettant de clarifier, analyser et comprendre les stocks de données. Aujourd’hui, les entreprises conservent, exploitent, transmettent de plus en plus de données, au point de souffrir d’une perte de visibilité. La cartographie de l’information vise à éclaircir les choses en les mettant visuellement en forme, en s’appuyant sur l’intelligence visuelle.

A minima, cela consiste à faire des histogrammes ou des camemberts via Excel, en maitrisant toutefois un minimum de connaissances, pour éviter les biais d’interprétation.

Mais il existe plein d’autres formes beaucoup plus élaborées pour organiser visuellement ses données, et beaucoup à inventer également, puisque dans ce domaine il s’agit généralement de sur-mesure, avec pour appui l’expérience et des technologies très innovantes.

Techniques de l’Ingénieur : En tant qu’ingénieur en développement informatique, votre rôle consiste  donc également à développer des outils exclusifs aux entreprises ?

Denis Parade : Ça peut être le cas sur de grosses structures ayant des besoins très spécifiques. Mon rôle peut également être de former les équipes sur un logiciel préexistant et correspondant aux besoins de la structure.

Techniques de l’Ingénieur : Vous animez chez Techniques de l’Ingénieur trois formations, sur le Mind mapping, la visualisation des données et la cartographie de réseau. De quoi s’agit-il ?

Denis Parade : Le Mind mapping consiste à organiser ses idées via une carte heuristique, partant d’un point central et rayonnant en plusieurs branches, puis sous-branches. A quoi cela sert-il ? A organiser ses idées de façon plus claire, et donc ses projets, plans de sites web, formations, etc, en ayant une vision globale de son projet sur une même page, que ce soit à titre professionnel ou personnel. Le public potentiellement intéressé est donc très large, mais dans cette formation, j’adapte spécifiquement au profil de l’ingénieur, et à la gestion de projet. Notons qu’il s’agit d’un Workshop et non d’une formation classique, il n’y a donc pas de déroulé précis, puisqu’il s’agit de travailler sur les problématiques des participants, en s’appuyant sur les techniques, outils et logiciels que je peux leur apporter.

map

Pour la visualisation des données, je m’adresse plus particulièrement à un public de cadres et de scientifiques cherchant à présenter des résultats de travaux de la façon la plus agréable possible. Il faut certains prérequis en informatique, puisque nous allons travailler sur des statistiques, de la cartographie, des mathématiques, du HTML5, ou encore de la programmation. Là aussi il s’agit d’un Workshop, on reste donc dans le traitement des problématiques propres aux participants.

Enfin, la formation Cartographie des données relationnelles, avec le logiciel Gephi, permet de visualiser sur une carte des

« nœuds » (personnes, documents, objets, etc) et les relations (relations d’amitiés, citations, utilisation dans un même dispositif, etc) qui les associent plus ou moins fortement. C’est par exemple très utile aux chercheurs en bibliométrie, qui étudient qui publie et qui cite qui, quels sont les réseaux de chercheurs, les liens et absence de liens entre entités scientifiques.

Le Bhoutan veut réduire de 70% sa dépendance envers les combustibles fossiles

Le royaume du Bhoutan, enclavé dans la chaîne himalayenne, et peuplé de 700 000 habitants, répond aujourd’hui à presque l’intégralité de ses besoins en électricité grâce à 4 centrales hydroélectriques au fil de l’eau, et à une kyrielle d’installations micro-hydrauliques. Le pays exporte aussi son hydroélectricité vers la Chine et l’Inde. 

Les véhicules électriques seront ainsi entièrement propres au Bhoutan étant donné qu’elles seront alimentées par l’énergie hydraulique. Le Premier ministre bhoutanais, Tshering Tobgay a déclaré que « le royaume du Bhoutan est heureux de lancer ce partenariat avec Nissan, afin de devenir une nation pionnière des véhicules électriques ». 

Les véhicules gouvernementaux et les taxis bhoutanais représentent entre 10 et 15% de tous les véhicules du pays.  Le gouvernement a déjà passé commande et l’électro-mobilité est parfaitement adaptée aux véhicules parcourant beaucoup de kilomètres chaque année, ce qui est le cas des taxis. 3,5% des véhicules électriques vendus par Nissan dans 100 pays du monde sont des taxis. 

Nissan devra cependant adapter ses  véhicules électriques aux conditions très particulières de ce pays en moyenne perché à 3000 mètres d’altitude.

Nissan a déjà vendu 100.000 voitures électriques dans le monde. La Nissan Leaf est en tête des ventes de voitures électriques en Europe en 2013.

La voiture électrique séduira-t-elle les bhoutanais ? Une bonne partie de la population se chauffe et cuisine toujours au bois, de façon traditionnelle. Les grandes théories sur le « bonheur national brut », qui ont fait beaucoup parler d’elles et qui ont été associées à l’image de ce pays à l’étranger, ont été remises en cause par Tshering Tobgay nommé premier ministre en juillet 2013. Il estime que le gouvernement précédent a passé beaucoup plus de temps à en parler qu’à agir. Et qu’au lieu de passer son temps à faire ces jolis discours il aurait été préférable d’améliorer concrètement les conditions de vie des Bhoutanais.

Cette fois, avec l’électro-mobilité, le Bhoutan pourrait passer à l’action. Du moins pour ceux qui pourront s’offrir ces véhicules. Le PIB par habitant au Bhoutan est d’environ 1700 euros par an. Que du bonheur.

Par Olivier Daniélo

L’éolien a dépassé le nucléaire en Chine

Le dragon de l’empire du milieu s’est vraiment réveillé : depuis 2007 le taux de croissance annuel de l’éolien est de 80% en Chine, un rythme fulgurant qui correspond à presque un doublement tous les ans. Selon l’Earth Policy Institute qui se base sur les statistiques officielles, le taux de croissance du nucléaire chinois sur la même période a été 8 fois plus faible. Et ceci même si la Chine est le pays où le nucléaire a le taux de croissance le plus élevé au monde. 

Pour Mark Jacobson, directeur du département énergie et atmosphère de l’université Stanford en Californie, la vitesse d’installation des différentes technologies bas-carbone est un paramètre clé dans l’objectif d’une réduction rapide des émissions de gaz à effet de serre. 

Sur la base de la littérature scientifique, « le délai moyen entre le début d’un projet de centrale nucléaire et sa mise en service est de 10 à 19 ans » affirme l’expert.  L’obtention d’un site prend en moyenne 6 ans, l’approbation du permis et le traitement de différentes questions prend 2,5 à 4 ans, et la construction prend entre 4 et 9 ans.  C’est vraiment le talon d’Achille du nucléaire, outre son bilan environnemental et sanitaire multicritère, son coût, les problèmes d’acceptation qu’il engendre auprès des populations du fait des risques intrinsèques au fonctionnement des centrales et de la gestion des déchets radioactifs, et d’approvisionnement en uranium 235. 

La Chine n’est pas le seul pays asiatique à miser sur les ENR variables. Le Japon installe depuis le désastre radioactif de Fukushima, en termes de production électrique, l’équivalent d’une centrale nucléaire EPR par an. En France, le chantier de l’EPR de Flamanville dure depuis de nombreuses années et durera encore quelques années.  

L’éolien et le solaire, les 2 filières ENR qui ont le plus gros potentiel à l’échelle mondiale, peuvent être installées très rapidement. Cet aspect cinétique est vraiment stratégique sur le plan climatique. Ce sont de plus, outre l’hydroélectricité, les deux filières ENR les meilleures marché disponibles aujourd’hui.

Des ENR variables de plus en plus attractives d’un point de vue purement économique

Les coûts de production de l’éolien terrestre (de 6 à 8 centimes le kWh) et du grand solaire photovoltaïque au sol (inférieur à 10 centimes avec l’insolation du sud de l’Europe) sont de plus inférieurs à ceux du nucléaire EPR : EDF demande un tarif d’achat de 10,9 centimes pour ses EPR en Grande-Bretagne. Le surcoût de l’intégration des ENR variables dans les systèmes électriques est considéré comme faible par l’Agence Internationale de l’Energie qui vient de publier un rapport sur le sujet. 

Ce que fait la Chine a des conséquences à l’échelle globale

Après Fukushima, la Chine a mis en place de nouvelles procédures d’autorisation et de contrôle des différents  projets de centrales nucléaires. Depuis octobre 2012 seule la technologie nucléaire de génération 3 (EPR), technologie considérée comme moins dangereuse, est acceptée par le gouvernement chinois. Une technologie dans laquelle les chinois ne possèdent à ce stade aucun retour d’expérience, ce qui explique les retards sur les différents chantiers en cours par rapport aux plannings prévus initialement.

Durant les années 2011 et 2012 la Chine a mis en service 4 réacteurs nucléaires totalisant une puissance de 2,6 GW, soit l’équivalent d’environ 1 EPR et demi. Sa puissance nucléaire installée cumulée est ainsi passée à 12,8 GW, le cinquième du parc nucléaire français pour un pays 20 fois plus peuplé.  Pour atteindre une puissance installée de 60 GW en 2020, il faudrait à la Chine un taux annuel de croissance d’environ 25%, soit 2,5 fois plus que ces dernières années. 

Selon les projections de différents organismes la Chine franchira les 200 GW d’éolien en 2020. La barre des 100 GW pourrait être atteinte dès 2015 selon l’European Wind Energy Association, un seuil franchit par l’Europe en 2012. 14 GW d’éolien ont été raccordés au réseau électrique chinois sur la seule année 2013 selon l’administration nationale de l’énergie.  

Cette croissance de l’éolien en Chine a des conséquences globales. Pour Paolo Frankl, expert de l’Agence Internationale de l’Energie, la Chine fait baisser les coûts de l’éolien à l’échelle globale. « Comme dans d’autres domaines, ce que fait la Chine a un impact sur le monde entier. »

La croissance de la demande énergétique chinoise est inévitable

L’éolien a un sérieux atout dans le contexte de la Chine fortement peuplée : il ne consomme pas d’eau douce, contrairement aux centrales thermiques qui en ont notamment besoin pour alimenter leur système de refroidissement. 

Comme le souligne Jeremy Rifkin, auteur du livre « La troisième révolution industrielle » qui inspire notamment en France la politique de transition énergétique du Nord-pas de Calais, en période de sécheresse, le manque d’eau douce peut devenir problématique pour la production électro-nucléaire. « Pour lutter efficacement contre le réchauffement climatique avec le nucléaire, il faudrait multiplier par quatre le nombre de centrales dans le monde. Désolé de vous le dire, mais vous n’avez pas assez d’eau pour refroidir autant de réacteurs ! » a affirmé ce prospectiviste président de la Fondation pour les tendances économiques.

Combiné au solaire et à l’hydroélectricité, l’éolien permet de répondre durablement aux besoins énergétiques de la population de la Chine, pays où le PIB moyen par habitant est trois fois et demi inférieur à celui de la France. 

Les chinois aspirent à vivre selon les mêmes standards que les européens de l’ouest et ont donc besoin d’énergie propre pour que leur prospérité soit durable.  « Le droit au développement est inaliénable » ont rappelé les autorités chinoises à l’occasion de tous les sommets internationaux sur le climat. 

Les énergies renouvelables, et en premier lieu la combinaison du solaire photovoltaïque, de l’éolien et de l’hydroélectricité offrent l’espoir que ce développement s’effectue selon une trajectoire vraiment durable.

Par Olivier Daniélo 

En savoir plus :
> Conférence de Mark Jacobson (Stanford University) évaluant les différentes technologies énergétiques bas-carbone disponibles. A partir de la 11ème minute et 10 secondes de la conférence, l’expert compare le délai entre le planning et la mise en service des différentes technologies, un paramètre clé dans la perspective de réduire rapidement les émissions de gaz à effet de serre
> L’analyse du prospectiviste Jeremy Rifkin à propos du nucléaire

Le rachat WhatsApp est-il un bon coup ?

Ce qu’il faut savoir.

L’application mobile de messagerie multiplateforme WhatsApp est un moyen de communiquer gratuitement et facilement qui séduit chaque mois près de 450 millions d’utilisateurs actifs. Pas moins de 27 milliards de messages circulent chaque jour.

Et pour cause, l’application est gratuite et sans publicité. Il suffit de disposer d’un smartphone. Elle permet d’échanger des messages à travers le monde sans avoir à payer un forfait, ni, si l’on se trouve être à l’étranger, dépenser une somme astronomique pour quelques textos. 

Comme sur Facebook, il est possible de créer des groupes de discussion en choisissant les personnes invitées et le thème de la discussion. Le parcours du fil de discussion est simple et se fait avec clarté. 

Cela rend WhatsApp convivial. Toute la famille peut contribuer aux conversations, envoyer des photos malgré la distance ou des pièces jointes sans restriction de taille.

WhatsApp, une communauté florissante.

C’est un fait, de plus en plus de personnes se tournent vers cette application – on parle d’un million de nouveaux utilisateurs par jour. Sa croissance serait plus forte que celle de Facebook. C’est sans doute pour cette raison, par crainte que WhatsApp ne devienne une concurrence trop pesante, voire ne la dépasse, que la société de Mark Zuckerberg a racheté WhatsApp. Et c’est probablement un bon calcul si l’on se réfère aux prévisions du géant américain qui entrevoit un milliard d’utilisateurs d’ici quelques années.

Qui plus est, l’application est populaire dans de nombreux pays où Facebook peine à séduire: notamment dans des pays d’Amérique du Sud, d’Europe et d’Afrique.

Le hic : le recours contre le rachat de WhatsApp.

Des groupes de défense de la vie privée se sont en effet offusqués contre le récent rachat de WhatsApp. Car en rachetant l’application, Facebook pourrait s’accaparer dans la foulée ses utilisateurs et leurs données confidentielles. Ce que Jan Koum le cofondateur de WhatsApp avait pourtant affirmé ne jamais faire en 2009. La crainte concerne un mauvais usage des données personnelles. 

Les groupes de défense en question, le Centre pour la démocratie numérique et le Centre pour la protection des informations électroniques, se plaignent notamment de « pratiques injustes et trompeuses ». Avec WhatsApp, les utilisateurs avaient l’assurance de ne pas recevoir de publicité et de ne pas subir d’espionnage ni de collecte de données. La donne change évidemment avec Facebook qui se veut tout de même rassurant « WhatsApp honorera ses engagements de respect de la vie privée et de sécurité ». Affaire à suivre.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

«Le monde produit suffisamment de nourriture pour alimenter douze milliards de personnes»

Sur la base des publications de l’Organisation des Nations unies pour l’alimentation et l’agriculture, le Ministère de l’agriculture  estime que « d’ores et déjà, selon des calculs de la FAO, le monde produit suffisamment de nourriture pour alimenter douze milliards de personnes ». 

Manquerons-nous de surfaces cultivables ?

Il est « inexact »  d’affirmer cela selon le Ministère. « Depuis 50 ans, la production agricole a été multipliée par un facteur compris entre 2,5 et 3. L’augmentation des rendements et l’intensité culturale y ont contribué pour 85 %, l’accroissement des surfaces agricoles pour 15 %. » Et les co-auteurs de rappeler que  « la FAO indiquait que 90 % des nouveaux besoins alimentaires à l’horizon 2050 seront satisfaits par des augmentations de rendement des terres actuellement cultivées. Les 10 % restant devraient provenir de l’extension des surfaces cultivées. »

 Il y a sur terre, selon la littérature en la matière, entre 5 et 25 millions de kilomètres-carrés de disponibles sur terre pour l’agriculture. Il est donc théoriquement possible de passer de 16 millions de kilomètres-carrés cultivés aujourd’hui à 41 millions de kilomètres-carrés, c’est-à-dire de multiplier par 2,5 la surface cultivée. Si en plus les rendements par unité de surface sont améliorés, il y a vraiment de quoi nourrir beaucoup d’êtres humains correctement.

Les OGM, ou alors manger des insectes ?

« Il faudra produire plus (…) Il faudra aussi consommer moins de ressources en s’attachant en particulier à gaspiller moins de nourriture » estiment les 17 co-auteurs du rapport gouvernemental.

Il est possible de réduire l’empreinte surfacique des cultures en recourant notamment à des plantes génétiquement améliorées. Le ministère considère que les biotechnologies « peuvent être utiles pour lutter contre la faim dans le Monde ».  Un point de vue non partagé par une partie des ONG environnementales en campagne contre les Organismes Génétiquement Modifiés, et en revanche favorables, par exemple, au remplacement de la viande animale par des protéines à base d’insectes ou autres invertébrés. 

Un plus large recours aux  outils de protection des cultures et aux engrais dans les pays pauvres, qui à ce jour les utilisent encore peu, permettrait également de réduire l’empreinte surfacique des cultures. 

La bombe démographique est désamorcée

La fondation GapMinder (www.GapMinder.org), fondée par le professeur de santé publique suédois Hans Rosling, fait campagne depuis plusieurs années pour combattre les idées reçues en matière démographique. Elle montre, sur la base de données statistique présentées de manière très pédagogique, que  la population humaine va se stabiliser.  

Cette campagne a sensibilisé de nombreux intellectuels influents dans le monde, y compris le journaliste britannique Fred Pearce dont l’ouvrage, « L’apocalypse démographique n’aura pas lieu », a été publié en version française par la fondation Good Planet de Yann Arthus-Bertrand.

Selon Hans Rosling, « le nombre d’enfants qu’il y a aujourd’hui dans le monde n’augmentera probablement plus, nous sommes entrés dans l’âge du peak child », une expression qu’il utilise sous forme de clin d’œil à ceux qui sont angoissés par le peak oil, le pic de pétrole.  

Une campagne relayée par la fondation de Bill & Melinda Gates  

Pour Melinda Gates de la fondation du même nom, « Hans Rosling est l’un de mes fournisseurs de données préféré ». Un sacré compliment de la part de la femme du créateur de Microsoft. La conférence TED du philanthrope scandinave a été très remarquée. Son documentaire « Les faits à propos de la population. DON’T PANIC », diffusé par la BBC, également. Grâce à Hans Rosling « mon point de vue concernant un futur durable est bien plus optimiste que celui des malthusiens. La planète ne va pas mieux quand on laisse mourir les plus pauvres » a déclaré Mélinda Gates.

En effet, comme l’illustre avec brio GapMinder, plus le PIB par habitant est élevé, moins le nombre d’enfant pas femme est élevé. « Les êtres humains ne sont pas des machines. Nous ne reproduisons pas de manière stupide. Nous basons nos décisions selon les circonstances auxquelles nous faisons face » souligne Mélinda Gates. 

Pour « sauver la planète », la meilleure stratégie est alors probablement d’aider les plus pauvres à s’enrichir. Ceci afin de stabiliser la population mondiale, le premier terme de l’équation de Kaya. Et en outre plus on est riche, mieux on est armé pour s’adapter aux conséquences du changement climatique, quelles qu’en soient ses causes.   

C’est dans tous les cas une vision séduisante sur le strict plan de l’éthique humaniste. 

Par Olivier Daniélo 

En savoir plus :
> Le rapport du Ministère de l’Agriculture
> Le site de la fondation GapMinder 
> La conférence « La machine à laver magique », par Hans Rosling  (sous-titrage vers le français disponible) 

Oman lance un important projet pétrochimique

L’usine sera construite à Sohar, à 200 km au nord de la capitale Mascate, a précisé à l’AFP Musab al-Mahrughi, le PDG de la firme d’Etat Orpic (Oman Oil Refineries and Petroleum industries Compagny).

La réalisation de cette unité baptisée Liwa Plastic Project (LPP) a été accordée à la firme Engineers India Limited, basée à New Delhi, et à la Chicago Bridge and Iran Compagny, qui opère à partir de La Haye.

La construction doit démarrer en 2015, et le début de la production est prévu pour 2018, avec une capacité annuelle de 1,4 million de tonnes.

Selon M. Mahrughi, le LPP fait partie de trois grands projets que sa compagnie s’apprête à réaliser dans les cinq prochaines années, pour un investissement de 7 milliards de dollars, dont 70% seraient réunis auprès de banques nationales et internationales.

Le deuxième projet consiste à réhabiliter la raffinerie de Sohar afin d’augmenter de 70% sa production, pour répondre aux besoins du marché local.

Le troisième projet veut relier cette raffinerie à celle de Mina al-Fahl à Mascate par un oléoduc de 280 km, alors que les produits pétroliers et les carburants sont actuellement transportés par camions.

Non membre de l’Organisation des pays exportateurs de pétrole (Opep), Oman produit 935.000 barils de barils de brut par jour, nettement moins que ses voisins arabes du Golfe.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

5 Etapes Importantes à la Sécurisation des Environnements SCADA

Les environnements SCADA sont des systèmes de gestion et de contrôle industriel, généralement déployés à grande échelle, qui surveillent, gèrent et administrent ces infrastructures critiques dans des domaines divers et variés : transport, nucléaire, électricité, gaz, eau, etc. A la différence d’un réseau informatique d’entreprise classique, l’environnement SCADA permet d’interconnecter des systèmes propriétaires ‘métier’ : automates, vannes, capteurs chimiques ou thermiques, système de commande et contrôle, IHM (Interface Homme Machine)… plutôt que des ordinateurs de bureau. Ces infrastructures sont principalement déployées en entreprise, mais sont désormais aussi présentes chez les particuliers. 

Les environnements SCADA utilisent un ensemble de protocoles de communication dédiés, tels que MODBUS, DNP3 et IEC 60870-5-101, pour établir la communication entre les différents systèmes. Ces protocoles permettent de contrôler les API (Automates Programmables Industriels) par exemple, entrainant des actions physiques telles que l’augmentation de la vitesse des moteurs, la réduction de la température… Pour cette raison, l’intégrité des messages de contrôle SCADA est primordiale et les protocoles de communication devraient être entièrement validés. 

Conçus pour fonctionner des dizaines d’années, à une époque où la cybercriminalité ciblant spécifiquement le secteur industriel n’était pas répandue, ces systèmes SCADA n’ont pas été pensés en tenant compte de la sécurité réseau. Très souvent, les principes de sécurité élémentaires n’ont pas été intégrés pour deux raisons principales: d’une part, l’architecture SCADA n’était pas intégrée au système informatique classique de l’entreprise, et d’autre part, le besoin d’interconnexion avec le réseau IP n’existait pas. Le besoin de sécurité était donc alors jugé non nécessaire.

Depuis, l’architecture SCADA a évolué et les automates, systèmes de mesure, outils de commande et de contrôle, télémaintenance…, sont dorénavant interconnectés via un réseau classique IP. Ils sont également administrés par des environnements potentiellement vulnérables, comme par exemple, la plateforme interface homme-machine équipée d’un système d’exploitation Windows non patché. Jugés hautement sensibles, ces environnements n’appliquent généralement pas les patchs des systèmes d’exploitation de peur de nuire à la production. Cette crainte l’emporte d’ailleurs souvent sur celle des attaques informatiques potentielles. Les environnements SCADA, pourtant identifiés comme critiques, sont ainsi paradoxalement les moins sécurisés et devenus la cible potentielle des cybercriminels, comme nous avons pu le constater avec Stuxnet, premier ver découvert qui espionne et reprogramme des systèmes industriels. Ce virus a exploité des vulnérabilités Windows de type zero day (c’est-à-dire pour lesquelles il n’existait pas de patchs) pour compromettre des dizaines de milliers  de systèmes informatiques, à la fois des ordinateurs et une centrale d’enrichissement d’uranium

Il aura fallu le cas d’attaque de l’ampleur de Stuxnet pour que la sécurité devienne l’une des préoccupations majeures des entreprises industrielles. Alors que les attaques informatiques traditionnelles engendrent généralement des dégâts immatériels, les industriels ont, dans le cas de Stuxnet, pris conscience de la capacité destructrice et bien réelle des vers et virus avancés, affectant non seulement les données d’une entreprise mais également les systèmes de gestion des eaux, des produits chimiques, de l’énergie… 

Dorénavant, les industriels cherchent à intégrer la sécurisation de leurs équipements, et ce, de façon native. Même si les moyens commencent à être mis en œuvre pour sécuriser les industries, il est aussi nécessaire que les hauts dirigeants de ces entreprises soutiennent ce besoin de sécurisation, sans quoi, bon nombre de responsables informatiques ne trouveront pas d’échos positifs à leurs initiatives, et auront des budgets et ressources limités. 

De plus, à défaut d’un standard, il existe des guides de bonne conduite permettant d’appréhender les problématiques que pose ou impose SCADA, édités par exemple par NERC (North American Electric Reliability Corporation) ou l’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) en France. Voici quelques étapes importantes à respecter pour appliquer une sécurité globale sur ces infrastructures jugées sensibles :

Des mises à jour régulières 

Patcher régulièrement ses systèmes d’exploitation, applications et composants SCADA est une étape essentielle pour éviter les failles déjà connues par les fournisseurs de sécurité. 

De plus, la mise en place d’un outil de détection et d’analyse des vulnérabilités permettant d’intercepter des menaces Internet malveillantes avant qu’elles n’impactent le réseau ou le serveur cible permettra de prendre des mesures proactives pour prévenir des attaques, éviter des interruptions de services, réagir rapidement et en temps réel face aux menaces émergentes.

Cloisonner son réseau SCADA 

Il est indispensable d’isoler son réseau SCADA de tout autre réseau de l’entreprise. Pour cela, la définition de DMZ ou bastions permet de segmenter une architecture SCADA. Ainsi, le réseau de l’IHM sera dissocié des automates et dispositifs de mesures, des systèmes de supervision, des unités de contrôle à distance et des infrastructures de communications, permettant  à chaque environnement d’être confiné et d’éviter des attaques par rebond.

En quelques mots, les réseaux SCADA doivent être protégés de la même manière que les réseaux d’entreprises des logiciels malveillants et intrusions, en utilisant des systèmes de prévention d’intrusions (IPS) et des solutions anti-malware.

Validation protocolaire

Après avoir partitionné et séparé les différents éléments d’une architecture SCADA, la prochaine étape logique est d’appliquer une validation et un contrôle protocolaire  liés aux différents composants. En d’autres termes, il est nécessaire d’inspecter le protocole MODBUS pour être certain qu’il n’est ni mal utilisé ni vecteur d’une attaque. Egalement, assurez-vous que les applications qui génèrent des demandes MODBUS sont des applications légitimes et qu’elles sont générées depuis le bon poste de travail. Ainsi, la reconnaissance des applications prend son sens.

Contrôler et identifier les actions administrateurs-utilisateurs 

En complément de la segmentation des réseaux, il devient nécessaire d’établir des règles d’accès par authentification pour que seules les personnes autorisées puissent accéder au réseau, données et applications et puissent interagir avec les systèmes SCADA, afin que ces derniers ne soient pas endommagés par un tiers. Ainsi, un administrateur sera identifié de façon différente d’un utilisateur lambda, ce qui lui permettra d’effectuer certaines configurations au travers d’IHM alors que l’utilisateur pourra uniquement avoir une visibilité sur des équipements de mesure.

Superviser l’ensemble des réseaux 

Se doter d’un outil de corrélation et de gestion d’événements est indispensable. Cela permet d’obtenir  une visibilité globale sur l’état sécuritaire de l’ensemble du réseau et permet par exemple à un administrateur de connaitre à la fois l’état d’un automate, le niveau de patch d’un IHM et sa relation avec un utilisateur ou un composant de l’architecture. 

La remontée d’événements de sécurité est toute aussi importante. L’administrateur ainsi informé pourra mettre en place des actions ou contre-mesures adaptées en fonction du niveau de criticité de l’événement. 

La mise en application de ces étapes est parfois fastidieuse mais la meilleure solution pour protéger ces systèmes critiques est d’adopter une stratégie de défense en profondeur avec une couche de sécurité à tous les niveaux, même au niveau des API,  pour un contrôle précis des échanges et communications entre les composants de l’environnement SCADA et l’infrastructure réseau.  

Avec des attaques de plus en plus sophistiquées de type APT, il devient urgent que les organisations industrielles prennent conscience que la sécurité des environnements SCADA est essentielle. Il en va de leur pérennité. Un contrôle précis sur leurs réseaux, utilisateurs et applications leur permettra de se prémunir d’éventuels risques qu’il est facile d’éviter. Enfin, il est important de bénéficier d’une protection en temps réel pour identifier rapidement les menaces potentielles et mettre en place les outils de protection adéquats conçus par des équipes spécialisées. 

Eric Lemarchand, Ingénieur Système chez Fortinet

 

Astuce du Web #4 : désabonnez-vous de n’importe quelle newsletter en un clic

Il vous arrive encore de chercher désespérément ce lien soi-disant obligatoire de désinscription à cette newsletter dont vous ne vous souvenez même plus pourquoi vous vous y  êtes abonné.

Mais si, ce lien caché en minuscule à la fin du mail, celui-là même qui ne fonctionne pas quand vous cliquez dessus. De guerre lasse, vous signalez cet expéditeur en spam.

Oui mais voilà, en agissant ainsi, vous contribuez  à classer l’expéditeur comme un spammeur, ce qui n’est pas strictement exacte. De plus, cela engorge la catégorie spam, ce dont Google ne veut plus.

Les détenteurs d’un compte Google verront donc débarquer une nouvelle option pour se désinscrire d’une newsletter directement à partir de sa boite de réception. Cette possibilité devrait prendre la forme d’une mention « désabonnement » visible  et cliquable dans l’en-tête des e-mails.

Cela fait plus de 4 ans que Google teste cette fonctionnalité, et vient d’annoncer sa généralisation à l’ensemble des utilisateurs Gmail. Merci Google.

Par Audrey Loubens, journaliste scientifique

Le soliton, au service de la science

Pas exactement né de la dernière pluie, le soliton reste pourtant largement méconnu.

Se propageant dans les milieux non linéaires et dispersifs, le soliton est une onde solitaire possédant une énergie localisée dans l’espace qui s’avère particulièrement stable bien que soumise à des perturbations. Ne changeant ni de forme, ni de caractéristique, il peut traverser plusieurs kilomètres dans l’eau sans altération et en gardant la même amplitude – rendant son observation dans la nature assez aisée – comme l’attestent les tsunamis, les vagues scélérates ou encore les mascarets.

Le phénomène de soliton peut également apparaître sous forme de pulsation lumineuse, se propageant par le biais d’un conducteur transparent approprié, tel qu’une fibre optique.

Une équipe de scientifiques collaborant avec le Centre Quantique russe a récemment découvert l’existence de ces solitons dans les cavités optiques millimétriques, un dispositif assurant le confinement de certains rayons lumineux à l’aide de miroirs sur lesquels ils se réfléchissent. La cavité optique en question est de type cristalline, afin de former un résonateur capable de guider le soliton sur un chemin circulaire et pseudo infini.

Ce qui intéresse notre équipe, c’est qu’une fraction de cette lumière peut être extraite chaque fois que la pulsation accomplit un voyage. Une fois analysée, la pulsation lumineuse s’est révélée être d’une durée extrêmement courte, de l’ordre du millionième d’un millionième de seconde.

Étant donné la très petite taille de la cavité optique, le temps entre deux pulsations est très court, et la fréquence… très élevée. La fréquence de ces pulsations très courtes et répétées peut être primordiale en astronomie, afin de partir à la recherche de planètes similaires à la Terre, en chimie afin d’identifier certaines substances inconnues, mais pourrait également permettre de booster les réseaux de télécommunications et améliorer la géonavigation.

Par Rahman Moonzur

ETI et PME : le Cloud privé en 6 questions

Le Cloud se résume-t-il à externaliser ses serveurs ?

Dans les grandes lignes, le Cloud peut se résumer à une externalisation des ressources informatiques auprès d’un tiers. Toutefois, la décision de « cloudiser » une partie de son infrastructure et de ses applications est un véritable projet informatique, qui nécessite d’être bien préparé en amont.

Sur le plan de l’intégration avec d’autres services ou applications, internes ou externes à l’entreprise, tout d’abord. Car sauf exception, une application suppose un dialogue entre différentes briques, afin notamment d’optimiser l’exploitation des données de l’entreprise. Sur le plan du réseau ensuite. Externaliser tout ou partie de son système d’information induit des échanges de données plus importants qu’auparavant avec l’extérieur. Il est donc indispensable de prévoir, en termes de débit et donc de coûts associés, les infrastructures de télécommunication suffisantes pour un fonctionnement optimal des applications distantes.

Basculer vers des environnements Cloud ne s’improvise pas : mieux vaut donc démarrer par des applications peu critiques, afin d’en maîtriser les risques lors du basculement d’applications « cœur de métier ».

Y a-t-il un bon moment pour passer au Cloud ?

Pas plus que pour d’autres projets IT, il n’y a pas de « bon moment » pour basculer vers le Cloud, mais plutôt des facteurs déclencheurs. C’est le cas par exemple d’une nécessaire campagne de renouvellement des serveurs : vaut-il mieux investir dans de nouvelles machines, avec à mise à niveau des compétences techniques des équipes en charge de leur exploitation ? Ou basculer vers des infrastructures mutualisées, lesquelles, par nature, évoluent en permanence au gré des évolutions technologiques ?

La décision de basculer sur un Cloud privé peut également être prise à l’occasion du départ d’un collaborateur de la DSI (ingénieur systèmes, responsable de l’infrastructure…), d’une augmentation des plages horaires d’astreinte, ou encore lors d’un projet de conception ou d’achat d’une nouvelle application.

Plus généralement, c’est souvent une décision stratégique de recentrage sur le métier qui motive la démarche et sécurise le fait qu’elle soit conduite à son terme : quand les directions générales considèrent que la valeur ajoutée du système d’information et de l’équipe DSI réside dans sa capacité à accompagner le développement business plutôt qu’à administrer des solutions techniques et des applications.

Le Cloud fait-il perdre la maîtrise de son système d’information ?

Le risque de perte de contrôle de son système d’information en choisissant le Cloud n’existe que si la DSI interne ne se prépare pas à ce nouveau mode de fonctionnement. Au lieu d’exploiter elle-même les infrastructures informatiques, son rôle va évoluer vers un pilotage et un contrôle des nouveaux services et des prestataires qui les proposent. Ce qui signifie que le Cloud n’est pas forcément synonyme de réduction des effectifs IT de l’entreprise, mais plutôt d’évolution des compétences et missions des équipes de la DSI. Or, l’aspect RH est bien souvent négligé dans ce type de projets…

Le Cloud est-il moins cher qu’un SI interne ?

Contrairement à la plupart des contrats classiques d’infogérance, le Cloud tient ses promesses. D’une part, il fait réaliser des économies : les dépenses liées aux investissements de départ sont réduites drastiquement et réparties sur le long terme. Pour une PME, un Cloud privé est une excellente solution pour accéder à des services et technologies qu’elle n’aurait pas eu les moyens de financer, car nécessitant des investissements importants en infrastructures informatiques.

D’autre part, le Cloud apporte de la souplesse : une entreprise peut ainsi opter pour une solution à un instant T, et en changer quelques mois plus tard, parce que ses besoins ont évolué. Une liberté qu’il est difficile de prendre lorsque des investissements sur plusieurs années ont été engagés.

Enfin, et dans le cadre de la forte digitalisation des entreprises et du nombre croissant de projets informatiques, le Cloud permet à la DSI de gérer plus de projets à périmètre RH égal. Tout en profitant de l’expertise de son fournisseur, dont elle ne disposerait pas forcément en interne.

Et en termes de sécurité ?

Si des doutes ont pu naitre dans les premières années, en matière de sécurité « pure » (vol, perte de données, protection contre les attaques en déni de service…), les moyens mis en œuvre chez les prestataires sont généralement bien supérieurs à ceux déployés par les clients eux-mêmes…

Aujourd’hui, les vraies questions à poser concernent principalement les solutions de sauvegarde et de restauration des données prévues, mais aussi de réversibilité. En d’autres termes, la capacité de l’entreprise à récupérer ses données pour les réintégrer dans une autre solution, en Cloud ou en interne. Et ces aspects doivent être contractualisés, et testés régulièrement.

Que faire de son helpdesk interne ?

C’est une question tout-à-fait légitime, surtout lorsque le prestataire propose lui-même sa propre hotline. Mais la réponse est tout aussi claire : le garder, dans la mesure du possible ! Car sur un plan fonctionnel, le helpdesk interne va pouvoir procéder au support de niveau 1, et répondre à des utilisateurs qui seront rassurés de s’adresser à un collaborateur de la DSI, qui connaît l’entreprise et son métier.

Si ce premier niveau ne suffit pas à résoudre le problème, le helpdesk pourra alors qualifier le dysfonctionnement et faire appel au prestataire. Moins nombreux et mieux qualifiés, les recours au prestataire seront ainsi moins coûteux pour l’entreprise.

Par Karim Ogbi, Directeur Business Unit Infrastructure & Infogérance, Groupe Hardis

Quel avenir pour Total en France ?

« Mon rêve, ce serait de payer plus d’impôts en France ». Cette phrase de Christophe Margerie, PDG de Total, a immédiatement fait le buzz. Interrogé mi -janvier devant la commission des Affaires économiques de l’Assemblée nationale, l’emblématique patron a ainsi cloué le bec  à des députés qui l’attendaient au tournant. Car avec 10.7 milliards de bénéfices en 2012, que Total échappe à l’impôt en France en étrangle plus d’un.

Pas de bénéfice, pas d’impôts

Comme l’a rappelé son PDG, bien que le groupe fasse des bénéfices, il perd de l’argent dans l’Hexagone. Or, conformément au principe de la territorialité, seuls les bénéfices réalisés sur le sol français sont soumis à l’impôt français.  Et l’activité française du géant pétrolier va mal. En crise depuis 2009, cette partie de son activité a perdu 250 millions d’euros en 2009, 16 millions d’euros en 2010 pour atteindre les  500 millions de perte pour l’année 2013. Des chiffres désastreux, même si certains les minimisent tant les bénéfices de Total permettent de les absorber. Des bénéfices qui dépassent les 10 milliards depuis plusieurs années, dont quelques-uns sont reversés aux actionnaires. Certes, Total peut se permettre de perdre quelques millions avec ses raffineries françaises, mais acceptera-t-il encore longtemps de conserver une activité qui perd de l‘argent ? Ses raffineries vont-elles devoir fermer ?

Un secteur qui s’enfonce dans la crise

Voilà un paradoxe terrible. Les compagnies pétrolières affichent des bénéfices insolents, alors que le raffinage dégage au mieux de très faibles bénéfices, dans le pire des cas il accumule les pertes. La crise est passée par là, bien sûr. Mais ce n’est pas la seule raison de l’échec économique du raffinage. Le problème principal vient d’une surcapacité quasi-permanente, entraînant une diminution drastique de la marge. En 2009, la chute de la demande a provoqué l’effondrement de cette marge, devenue négative. 

Les grands groupes, qui avaient d’ailleurs réalisés des bénéfices exceptionnels en 2008, ont pu absorber ces pertes. Les autres ont succombé, à l’image de Petroplus, qui a dû déposer le bilan en 2012 finalement fermée en 2013 faute de repreneur. A l’époque, Jean Louis Schilansky, président de l’Union française de l’industrie pétrolière expliquait que « Le problème du raffinage est que c’est une activité erratique où les marges fluctuent d’une année sur l’autre. Non seulement il faut fournir du pétrole à raffiner mais il faut assez de solidité financière pour passer à travers les tempêtes ». Au total, c’est une quinzaine de raffineries qui a fermé en à peine 5 ans. Pourtant, le secteur serait encore en surcapacité d’environ 10%. En France, il reste aujourd’hui 8 raffineries dont 5 appartenant à Total. L’Europe comptabilise 90 unités. Mais la demande continue de baisser de 1 à 1.5% par an. Un déclin face auquel les raffineries françaises ont du mal à résister.

Le raffinage est en sursis dans toute l’Europe

Le phénomène ne se limite pas à la France. C’est toute l’activité européenne qui est en souffrance, et peut-être en sursis. Avec le développement de la part de véhicules diesel, les raffineries européennes produisent trop d’essence mais pas assez de Diesel ! A cela s’ajoute une concurrence impitoyable des produits pétroliers américains, ultra-compétitifs grâce à l’exploitation du gaz de schiste. Grâce à un prix du gaz très faible, les raffineries américaines abaissent le coût de l’énergie qu’ils consomment  et du même coût leurs coûts opératoires. Les raffineries européennes ne peuvent rivaliser sur ce terrain, leur compétitivité étant moindre que celle des américains. Et la concurrence ne s’arrête pas là car l’Europe doit désormais compter avec l’émergence d’un raffinage très compétitif en provenance d’Asie et du Moyen Orient.

Des concurrents plus compétitifs, une surcapacité de production, on pourrait croire que le raffinage européen connait bien assez de problèmes comme ça. Pourtant, un dernier ennemi vient noircir le tableau : l’Europe elle-même. Avec une règlementation environnementale couteuse pour les industriels, la compétitivité des raffineries est d’autant plus touchée. 

« Il existe des signes avant-coureur de fermetures de raffinerie. », s’inquiète Jean-Louis Schilansky, même si la France ne serait plus en première ligne. En effet, quatre raffineries ont déjà fermé depuis 2009. Mais « tant que la demande sera en baisse, nous serons dans une dynamique de fermeture » avertit le président de l’UFIP. 

Que va faire Total ?

Total ne reste pas inactif face à la situation critique de ses raffineries. Tout d’abord il travaille à rapprocher ses activités raffinage et pétrochimie, une politique qui lui aurait permis de dégager 73 millions d’euros de synergie en 2013. Mettre en adéquation ses raffineries avec la demande plus forte de diesel serait bien trop couteux, d’où un objectif de limiter les pertes plutôt que d’investir dans des équipements. Enfin, Total s’intéresse tout particulièrement à l’exploration du gaz de schiste…au Royaume Uni.  Il faut dire que David Cameron se montre plus favorable que l’Etat français. Total n’est pas prêt de payer des impôts en France… 

Lire le bilan 2013 de l’industrie pétrolière française

Par Audrey Loubens, journaliste scientifique

Pourquoi vivre de façon plus écologique

Consommez écologique dresse un panorama des grandes problématiques environnementales, les explique et nous fournit des conseils d’achats et de comportements à adopter pour tenter d’y remédier. Matthieu Combe invite ainsi le lecteur à comprendre les enjeux liés à l’environnement et à s’interroger notamment sur son alimentation, la pollution, le recyclage des déchets et la transition énergétique.

Le parti pris est d’aborder ces questions avec humour et avec des dessins et tableaux récapitulatifs pour attirer le lecteur qui n’irait pas spontanément vers ce genre d’ouvrages. Toutefois, de nombreuses références ponctuent le texte pour inviter le lecteur à approfondir quelques sujets. La parole est également donnée à des experts pour tenter de mettre fin à quelques idées reçues. 

Et ces idées reçues sont nombreuses ! « Les problématiques environnementales et scientifiques sont trop souvent simplifiées pour le grand public et les débats en deviennent réducteurs. Dans les conversations, tout est généralement soit noir soit blanc. Pourtant, la réalité n’est jamais si simple ! », rappelle l’auteur.

Un livre qui relie les problématiques entre elles

« Il existe de nombreux livres qui présentent divers gestes « pour la planète ». En revanche, au fil des pages, les gestes se succèdent sans rapport les uns avec les autres. Le lecteur est matraqué de conseils, sans en comprendre le bien-fondé », souligne Matthieu Combe. « On nous dit souvent qu’il faut consommer bio, manger moins de viande, recycler… mais on ne nous explique que rarement pourquoi. C’est l’ambition de ce livre », poursuit-il.

Il est temps de réellement comprendre les enjeux environnementaux. « L’approche sectorisée des problèmes est insuffisante et doit être dépassée », affirme-t-il. « Nous devons voir les questions environnementales comme un tout, afin de mieux appréhender les relations et impacts induits par nos actions », ajoute-t-il.

Les chapitres du livre sont à peu près tous construits sur le même modèle. Sur chaque sujet précis, l’auteur explique quelles sont les problématiques et les liens qui existent entre elles. Il étudie également l’évolution attendue par les experts ou les associations du secteur, avant de résumer ce qu’il est possible de faire, au quotidien, dans nos choix de vie, d’achat ou de contrat pour améliorer la situation.

Consommer écologique : pourquoi ?

Dans la première partie, le lecteur est invité à s’interroger sur son alimentation : pourquoi manger local, de saison, bio et équitable? Pourquoi diminuer sa consommation de viande et de poisson ? Peut-on constamment privilégier l’eau du robinet aux eaux en bouteilles ?

Suite au développement des questions liées à l’alimentation, la deuxième partie s’intéresse à la pollution généralisée de la planète. Pourquoi les océans sont-ils pollués par les micro-fragments de plastique ? Qui sont les perturbateurs endocriniens et les polluants organiques persistants et pourquoi faut-il s’en méfier ? Quels cosmétiques et quels produits ménagers privilégier ? Pourquoi faut-il faire attention à ses habits et ne pas fumer ?

Une fois le lecteur familiarisé avec les liens qui existent entre l’alimentation et la pollution, la troisième partie s’intéresse au recyclage et aux différentes technologies du quotidien. Comment s’assurer du bon recyclage de ses déchets ? Comment protéger les forêts ? Pourquoi éviter le suréquipement ? Quelle technologie de véhicules acheter ? Comment être acteur de la transition énergétique ?

Au final, le lecteur comprend que la pollution est due à notre mode de vie, à nos modes de consommation et aux pratiques agricoles… Mais qu’il fait partie du catalyseur de cette pollution ! Tous les jours nous entretenons ce cercle vicieux alors qu’il est possible de choisir des produits alternatifs moins nocifs, sans pour autant diminuer notre confort de vie. L’écologie n’est pas un sacrifice, mais une attitude agréable et facile à adopter, vous en conviendrez au fil des pages.

Date de parution : 8 avril 2014
Editeur : Sang de la Terre
ISBN : 978-2869853140
Nb de pages : 208
Prix : 18 €
Précommander ce livre sur Amazon

Par La rédaction

Avis d’Expert : le stockage de demain

Selon Itskov , ce processus se développerait en plusieurs étapes avec dans un premier temps la création d’un robot contrôlé par le cerveau humain. Il souhaite par la suite transplanter un cerveau humain dans un robot humanoïde. Enfin, l’objectif serait de pouvoir   remplacer cette greffe chirurgicale parune méthode pour télécharger simplement la conscience d’une personne dans une machine de substitution.

Itskov pense qu’il peut transplanter un cerveau en état de fonctionnement dans un robot – en seulement dix ans. Premier pas vers son objectif ultime : la conscience humaine complètement désincarnée et placé dans un hôte holographique dans 30 ans.

Est-il donc possible que d’ici une trentaine d’année, une personne puisse « être stockée » dans un robot ?

Pour l’instant, les scientifiques s’accordent à dire qu’il n’est pas encore d’actualité de pouvoir stocker ou télécharger la mémoire humaine dans un ordinateur. Mais  ce projet reste envisageable dans les décennies à venir. En effet, il est probable que nous serons capables de stocker nos souvenirs d’une manière qui nous permettra de les récupérer plus tard. C’est un long processus qui nous attend avant la fusion entre la technologie informatique et le cerveau humain.

Cependant, ceci est poussé par de nouvelles découvertes en neurosciences, ainsi que les progrès en informatique et en intelligence artificielle.

Deux nouveaux projets scientifiques de grande envergure vont également donner une impulsion à cette idée.

Le président Obama a annoncé un effort de 1 milliard de dollars en février pour cartographier le cerveau, tandis que l’Union européenne a annoncé qu’elle allait financer un projet de 1,3 milliard de dollars pour construire un cerveau humain dans un substrat de silicium.

Mais avant de prétendre pouvoir nous télécharger sur un ordinateur, les neuroscientifiques disent qu’il nous faut au préalable bien comprendre le fonctionnement de nos mémoires.

A l’heure actuelle, l’important est encore l’échange des données.  En effet, aujourd’hui, des millions d’informations circulent tout autour du monde à chaque seconde. Les échanges n’ont jamais été aussi simples. Mais qu’en est-il du stockage de ces données ?

Nous avons la possibilité de conserver nos données sur un périphérique de stockage personnel (clé USB, Disque dur externe,…) mais aussi de les sauvegarder dans le Cloud.

Les périphériques de stockage permettent de stocker toutes nos archives, ou nos fichiers ne subissant pas de modification comme les films, les photos, etc.

Le Cloud à l’inverse, propose non seulement une sauvegarde automatisée, mais aussi un accès à vos données depuis les terminaux mobiles (smartphones/tablettes) et n’importe quel ordinateur. Dans ce cas, le Cloud est plus propice pour les données amenées à être modifiées régulièrement ainsi que celles dont l’accès à distance pourraient vous être utile.

Mozy est conscient que le Cloud est une technologie nouvelle qui suscite des interrogations en terme de sécurité et de fonctionnement. Ce sont ces mêmes questions qui nous animent, c’est pourquoi nous avons mis en place des clés de cryptage militaire pour protéger toutes les données stockées sur nos serveurs

Le progrès est en marche, le besoin de pouvoir stocker nos données reste d’actualité et même si certains projets peuvent sembler déroutants ou déconcertants. Pouvoir stocker nos souvenirs reste tentant, il nous reste maintenant à observer les évolutions de ces idées encore complexes à appréhender, et à rappeler qu’il existe déjà aujourd’hui des solutions pour sauvegarder les informations.

Par Claire Galbois-ALcaix, responsable marketing Europe chez Mozy.
Mozy est un fournisseur de services de sauvegarde et d’accès aux données faisantt partie d’EMC Corporation depuis 2007.

Variété des données et vitesse d’analyse : deux composantes clés de l’approche big data

Cette interrogation paraît légitime au regard de toutes les définitions données et des slogans marketing des éditeurs et intégrateurs qui voient en ce besoin client avant tout une source de croissance, quitte à vider le big data de son sens. Le marché n’a donc pas réellement de vrai visage. Pour autant, tout n’est pas à jeter, des initiatives sérieuses existent. Prenons tout d’abord quelques chiffres pour donner une taille à ce marché d’avenir. Selon une étude de Markets and Markets (2013), le marché du big data devrait progresser annuellement de 26 % et atteindre 46 milliards de dollars en 2018. L’intérêt du big data est également différent en fonction des zones géographiques. Ainsi, Matteo Pacca de McKinsey a indiqué « que 30 % des demandes de clients aux équipes de McKinsey concernant le big data viennent des États-Unis, 12 % viennent de Grande-Bretagne, idem pour l’Allemagne, tandis que la France ne représente que 7 % ». (Source : CIO / avril 2013)

Ces quelques données mettent en avant l’attrait des marchés du décisionnel et du big data qui sont avec le Cloud Computing les projets informatiques d’avenir. Les institutionnels l’ont bien compris. Ainsi, la commission présidée par Anne Lauvergeon a remis à l’Élysée un rapport visant à positionner la France à la pointe de l’innovation. Le big data est l’une des sept priorités évoquées. 

Mais aborder un projet de big data revient dans un premier temps à se poser de bonnes questions et à définir un cadre précis et reposant sur une approche structurée. L’objet de ce document n’est pas de revenir sur des axes maintes fois abordés, mais d’évoquer deux points précis : la prise en compte de la variété des données et l’analyse en temps réel.

Dans ce contexte, le big data n’est pas uniquement réservé aux grands comptes gérant de très gros volumes de données. En effet, à son échelle, une PME doit également pouvoir capitaliser sur ses flux de données et s’en servir pour accroître sa compétitivité et ses performances. A la différence des grands groupes, les PME ne travaillent pas en mode « silos », les contenus sont donc plus éclatés et il est nécessaire d’avoir une approche big data pour utiliser au mieux les données. 

Il est aussi important de parler de vitesse d’analyse. Il s’agit d’entrer dans l’approche temps réel. Cette dernière doit être une caractéristique du big data. Les entreprises pourront alors piloter au plus juste leur activité et prendre de bonnes décisions basées sur des données toujours actualisées. Il s’agit d’une réelle valeur ajoutée pour les entreprises pouvant utiliser de tels outils.

Le volume est une des composantes du big data mais la vitesse de traitement et la variété des données sont toutes aussi importantes, voire prioritaires, à tout lancement d’un projet big data. Le défi des éditeurs est bien de travailler sur ces composantes. 

Ceux d’entre nous qui communiqueraient sur le lancement d’une offre big data parce qu’ils ont simplement mis à disposition de leurs utilisateurs un connecteur avec les offres Google BigQuery, Amazon Redshift et autre SAP Hana, n’auraient tout simplement pas compris les fondements et les avantages du big data. 

Savoir traiter aisément des flux de données en temps réel structurés ou non le tout en self-service, voilà le défi que nous avons à relever. Car comme ce que nous connaissons autour de la BI, le big data n’est pas seulement l’affaire du département informatique mais bien des métiers.

Par Christophe SUFFYS, Fondateur de Bittle 

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

Le processeur photonique devient un peu plus réalité

Beaucoup d’espoirs reposent sur la photonique pour développer les processeurs du futur. Des espoirs ravivés par la réussite de chercheurs américains qui ont fabriqué un tel processeur à partir de composants accessibles dans le commerce, des pièces de série. Car le transport d’information par la lumière présente de nombreux intérêts : plus grande quantité d’informations transmises, gain de taille, gain de consommation d’énergie et surtout, moins d’échauffement. Autant d’atouts jusqu’ici fantasmés qui pourraient bien devenir réalités.

Un processeur photonique utilise le même langage que  son homologue électrique, des 0 et des 1, en laissant ou non passer des photons plutôt que des électrons. Intel et IBM s’attèlent à les développer depuis les années 2007/2008. La difficulté est d’intégrer les liens optiques à l’intérieur des composants électroniques. Intel a présenté seulement cette année un rack photonique avec une implémentation à 100 Gbps. Un prototype prometteur avec des installations optiques simplifiées. Mais pour s’imposer, la photonique devra intégrer l’ensemble des éléments présents dans l’architecture.

Les travaux de Milos Popovic parus dans Optics Letters, présentent un modulateur optique compatible avec la technologie SOI (Substrat sur isolant), alternative de plus en plus répandue au silicium bulk.

Il reste encore beaucoup de chemin à parcourir avant de tous profiter d’un ordinateur quantique au bureau, mais l’on s’en rapproche chaque jour un peu plus.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Infos TI, deuxième !

Vous avez été nombreux a télécharger le premier numéro de la lettre Infos TI, qui donne la parole aux experts, formateurs, auteurs, et clients de Techniques de l’Ingénieur.

Le deuxième numéro est lui aussi désormais disponible en téléchargement, avec de nouvelles informations concernant nos ressources documentaires, nos formations, ou notre activité de conseil.

Découvrez ainsi le partenariat établi entre Techniques de l’Ingénieur et l’Etat Camerounais, l’interview de Christian Ngo, conseiller éditiorial, à propos de la refonte du pack Energie, ou encore le portrait de Daniel Hubert, expert TI en physique et métrologie.

Bonne lecture !

« Intégrer dès la conception les contraintes spécifiques des traitements de surfaces est fondamental »

Entretien avec Patrick Cottais, expert en traitement de surface et organisation industrielle, et animateur chez Techniques de l’Ingénieur des formations Qualité des pièces : comment améliorer le nombre de pièces conformes, et Concepteur de pièces : maitriser les traitements de surface.

Techniques de l’Ingénieur : Patrick Cottais, vous animez chez TI une formation portant sur l’intégration des problématiques de traitement de surface dès la conception. A qui s’adresse-t-elle ?

P.Cottais

Patrick Cottais : Une évolution majeur entre les clients et les fournisseurs est en train de se mettre en place : de plus en plus les grands donneurs d’ordres confient la responsabilité de la fabrication des composants à leur fournisseurs de rang 1. Les bureaux d’études et les services qualité ont besoins de renforcer leurs connaissances et compétences dans les métiers de leurs fournisseurs pour pouvoir les auditer et les qualifier. Intégrer dès la conception les contraintes spécifiques des traitements de surfaces est fondamental pour anticiper les problèmes en production. C’est donc à ces ingénieurs et techniciens en R&D et bureaux d’études, que s’adresse principalement cette formation.

Techniques de l’Ingénieur : Quels sont les secteurs concernés par cette problématique ?

Patrick Cottais : Tous les secteurs traitant des matériaux tels que les matières plastiques ou les métaux, dès lors qu’il y a un traitement de surface. Plus largement, un fabriquant de cartes électroniques par exemple, peut être directement impacté. Si auparavant, les donneurs d’ordres ne lui demandaient que d’être un assembleur, aujourd’hui, ils attendent qu’ils répondent de la qualité des pièces de ses fournisseurs. L’électronicien doit donc mieux comprendre la chimie et le traitement de surface des pièces qu’il assemble, et en garantir la qualité. Le public concerné est donc très large.

Techniques de l’Ingénieur : Vous animez également une formation intitulée Qualité des pièces : comment améliorer le nombre de pièces conformes ?, toujours chez TI.  Pouvez-vous nous en dire un peu plus ?

agc-083_-_qualit_des_pi_ces_3

Patrick Cottais : Cette formation a pour objectif de répondre à la problématique des rebuts et surtout les coûts induits qu’ils génèrent. Nous y présentons notamment la méthodologie d’analyse et de résolution des problèmes. Cette formation va plus s’adresser à des ingénieurs de service qualité ou technique ou amélioration continue, quel que soit le secteur d’activité. Précisons que cette approche est très répandue dans les industries aéronautique et automobile.

Techniques de l’Ingénieur : Pour ces formations, quelle est votre méthode pédagogique ?

Patrick Cottais : Je m’appuie avant tout sur mon expérience. Mes formations commencent toujours par une mise en situation : les participants réfléchissent sur des cas concrets, en ensuite seulement, une fois dans le vif du sujet, je complète par des notions théoriques. J’estime qu’ils sont plus aptes à assimiler des concepts une fois ainsi mis en condition. Je m’appuie alors sur la richesse des bases documentaires de Techniques de l’Ingénieur, très bien faites et structurées, et que j’utilise moi-même comme référence.

Les chercheurs du CERN rêvent d’un accélérateur géant

Qui succédera au LHC ? C’est pour répondre à cette question qu’une cohorte de scientifiques s’est réunit à Genève.  Dans les cartons, deux projets  tiennent la corde. Le premier concerne un accélérateur quatre fois plus grand que le LHC, qui fait déjà 27 km de circonférence, pour collisionner les particules avec encore plus de force, et donc pouvoir observer de nouveaux phénomènes. Ce futur collisionneur circulaire (FCC) serait construit entre la France et la Suisse. Le deuxième projet envisage la réalisation d’un accélérateur rectiligne de 80 km, qui pourrait lui aussi se situer entre la France et la Suisse.

Le LHC, qui va encore fonctionner pendant une vingtaine d’année, a permis de nombreuses découvertes. La dernière en date a été celle de la mise en évidence de l’existence du Boson de Higgs, validant ainsi le modèle standard. Mais la communauté scientifique en veut plus. Quid de la supersymétrie, de la théorie des cordes, de la matière noire ? Avec les accélérateurs de demain il sera possible d’atteindre une énergie de 100 TeV, à comparer aux 14 TeV du LHC. L’objectif est de disposer d’un nouvel outil qui permettra peut-être de découvrir une nouvelle physique.

Les deux projets vont donc être étudiés, leur faisabilité ainsi que leur coût. Des enquêtes géologiques, de génie civil mais aussi de magnétisme en vue de la construction des aimants capables de produire un champ de 40 Tesla. Aucune décision ne sera prise avant 2018-2019, période à laquelle la stratégie européenne sera annoncée.

Par Audrey Loubens, journaliste scientifique

Intégrer de hauts niveaux de solaire et d’éolien n’est pas un problème (AIE)

Intégrer de hauts niveaux de solaire et d’éolien n’est pas un problème selon l’Agence Internationale de l’Energie

L’AIE vient de publier le rapport « La puissance de la transformation. Eolien, solaire et les aspects économiques des systèmes électriques flexibles ». Un document fort utile à l’heure des débats sur la transition énergétique.

Parvenir à des niveaux élevés d’éolien et de solaire photovoltaïque à l’échelle de l’ensemble des pays de la planète est possible techniquement. Ceci à un surcoût considéré comme « petit » par la directrice de l’Agence Internationale de l’Energie. Et même nul si l’on tient compte de l’évolution prévisible du coût des technologies et du prix du carbone.

« La pénétration de niveaux de 25% (systèmes inflexibles, par exemple au Japon) à 40% (systèmes flexibles, par exemple au Brésil) de la production annuelle est techniquement réalisable » affirment les experts  de l’AIE.

Ces niveaux peuvent être  augmentés davantage, atteignant plus de 50% dans les systèmes flexibles, si couper une partie des capacités ENR-V (énergies renouvelables variables) est accepté en période d’excès de production comparativement à la demande. Différentes approches permettent d’éviter de perdre cette production excédentaire.

Un surcoût limité, voire nul

Avec le modèle utilisé par les experts de l’AIE un système électrique qui passe de 0% à 30% d’ENR-V (1/3 d’éolien et 2/3 de photovoltaïque) conduit à un surcoût d’environ 7%. Et à un surcoût de 10 à 15% pour un passage de 0% à 45%. Le calcul est effectué sur la base des coûts actuels des technologies, or les coûts du photovoltaïque et de l’éolien  vont continuer de baisser dans les années et décennies à venir.

En France, la part des ENR-V était de 3,7% en 2013. 2,9% pour l’éolien et 0.8% pour le solaire photovoltaïque. La variabilité de la production éolienne et solaire est source de nombreux débats, parfois très agités. Notamment en France suite à l’engagement du président de la République François Hollande de réduire la part du nucléaire de 75% aujourd’hui à 50% en 2025. C’est pour répondre de manière factuelle aux questions souvent posées que l’AIE a décidé de réaliser ce rapport.

Pour Maria van der Hoeven, directrice exécutive de l’AIE, « un système électrique transformé avec 45% d’éolien et de solaire dans la consommation annuelle – et donc 10 fois plus que dans la plupart des systèmes actuels – est un système qui est seulement 15% plus coûteux qu’un système qui ne possède pas du tout de solaire et d’éolien. Et cette petite augmentation de coût est estimée sur la base des coûts actuels des technologies et d’un prix modéré du carbone à 30 dollars la tonne. Dans le future l’éolien et le solaire auront un coût plus faible. Combiné avec une augmentation du prix de la tonne de carbone le surcoût du système pour des niveaux aussi élevé d’ENR-V peut être ramené à zéro. »

Quatre outils de flexibilité sont disponibles

« Il y a quatre ressources de flexibilité fondamentales » rappellent les experts de l’AIE. « Les centrales électriques flexibles, l’infrastructure électrique, le stockage et la gestion de la demande. »

Les centrales électriques flexibles ce sont les lacs de barrage (à ne pas confondre avec les STEP) et certaines centrales à gaz. Le surcoût quand on fait appel à ce type d’outil de flexibilité est inférieur à 3,5 centimes par kWh, voir inférieur à 1 centime d’euros dans les cas les plus favorables.

L’infrastructure électrique a un double intérêt : relier les sites de production ENR-V aux lieux de consommation et lisser la production éolienne et solaire sur une grande aire géographique, ce qui permet de tirer profit de la variabilité météorologique d’une région à l’autre. Le surcoût est inférieur à 1,5 centime d’euro le kWh.

Les technologies de stockage sont moins attractives sur le plan économique que les deux solutions précédentes. Néanmoins, dans les cas les plus favorables, le surcoût est inférieur à 2 centimes d’euros par kWh avec les STEP (Stations de Transfert d’Energie par Pompage). Dans le cas du stockage électrochimique avec batterie lithium le surcoût s’envole à plus de 14 centimes le kWh.

La gestion de la demande est une solution particulièrement économique, n’induisant un surcoût que de 0.5 centimes par kWh. Il s’agit, grâce aux nouvelles technologies de l’information, de réduire la demande des consommateurs pendant les périodes de faible production des ENR-V,  de la différer aux périodes où cette dernière est importante.

Le Danemark, champion du monde de l’intégration des ENR variables

En 2012, les pays ayant eu les plus hauts niveaux d’ENR-V (éolien + photovoltaïque) sont le Danemark (34%), le Portugal (23%), l’Espagne (20%), l’Irlande (15%), l’Allemagne (12%) et l’Italie (11%).

L’Inde le Japon et le Brésil devraient selon les estimations atteindre 5% d’ENR-V en 2018, contre moins de 2% aujourd’hui, soit plus qu’un doublement de la part des ENR-V dans le mix électrique en seulement 5 ans.

Selon le “Scénario 450” de l’IEA World Energy Outlook, les ENR-V atteindront en 2035 un niveau de 31% en Europe-OCDE, 20% aux USA, 19% au Japon, 16% en Inde et 7% au Brésil, ce dernier disposant d’importantes ressources hydroélectriques ce qui réduit les besoins en ENR-V.

Le boom des ENR-V en Europe pose des problèmes au business-model des centrales thermiques traditionnelles

Dans un marché en forte croissance comme celui de l’Asie les ENR-V ne rentrent pas en compétition avec les capacités traditionnelles déjà en place. Elles permettent simplement d’aider les différents pays à faire face à la hausse de la demande électrique.

Mais dans un marché sans croissance comme l’Europe la situation est radicalement différente. Tout ajout de nouvelles capacités d’ENR, fluctuantes ou pas, entraine mécaniquement une pression économique sur les capacités traditionnelles en place, c’est mathématique.

Pour l’AIE il conviendrait que les responsables politiques ne se contentent pas de favoriser l’émergence des ENR-V mais que parallèlement ils accompagnent le déclin des centrales conventionnelles. Et qu’ils veillent à ce que les centrales les moins flexibles (charbon et nucléaire) ferment avant les centrales thermiques flexibles (gaz). Des dispositifs en faveur  des centrales à gaz et des centrales hydroélectriques modulables d’appoint seraient les bienvenus: ces centrales sont nécessaires pour l’intégration de hauts niveaux d’ENR-V.

L’AIE insiste : il faut réfléchir et agir à l’échelle de l’ensemble du système électrique. Se contenter d’ajouter des capacités ENR-V n’est pas suffisant pour que la transition énergétique soit un succès s’inscrivant dans la durée.

La Scandinavie, un futur réservoir de flexibilité pour l’Europe ?

Selon les auteurs du rapport « European Renewable Energy Network »  du parlement européen « les sites de production d’énergies renouvelables sont souvent loin des sites de consommation. L’éolien se trouve sur les côtes voire au large (Mer du nord, Mer d’Irlande, Baltique), le photovoltaïque en Europe centrale et du Sud. Il faudra donc améliorer et interconnecter les réseaux de transport d’énergie si l’Europe veut atteindre les objectifs qu’elle s’est fixés. L’une des priorités serait de mieux connecter les zones de production en Scandinavie avec l’Europe centrale. Une autre priorité serait d’améliorer le commerce d’énergie entre l’Espagne, le Portugal et la France. »

Une étude de l’Institut Fraunhofer a montré qu’un renforcement idéal du réseau électrique européen permet de réduire de 90% les besoins en stockage en Europe. En supposant en parallèle une gestion optimale de la demande « les besoin résiduels en stockage sont de seulement 20 TWh, ce qui est équivalent à 2,2 jours de demande électrique européenne » soulignent les auteurs du rapport « European Renewable Energy Network » .

L’Europe dispose d’atouts naturels pour sa transition énergétique. En particulier le bouclier scandinave qui a été sculpté par l’érosion glaciaire générant ainsi une kyrielle de lacs naturels perchés en altitude.  La Norvège possède, a elle seule, un réservoir hydroélectrique de 84 TWh. « La Norvège dispose d’une abondante ressource hydroélectrique, avec 50% de la capacité européenne en réservoirs » rappelle Steinar Bysveen, directeur général de Statkraft. « L’hydronorvégien a fournit le back up nécessaire aux investissements éoliens au Danemark. Le même concept peut être utilisé en Allemagne, au Royaume-Uni et dans le reste de l’Europe » affirme l’expert. « Passer à de hauts niveaux d’éolien dans ces pays requiert un système d’appoint. Nous pouvons le fournir grâce au pompage. Aujourd’hui, le niveau maximum d’hydroélectricité que nous pouvons délivrer est limité par le volume des précipitations pluvieuses ou neigeuses. Mais si nous pouvons pomper, alors nous pourrons délivrer tout ce que nous voulons. »

D’autres solutions de flexibilité ont été proposées par différents experts, telles que par exemple les STEP à eau de mer. Enfin une optimisation des unités hydrauliques modulables déjà en place dans les différents pays, y compris en France, permettrait d’améliorer significativement le périmètre de cet outil de flexibilité.

Selon un rapport qui vient de paraître et réalisé par l’un des Joint Research Centres de la Commission européenne, le volume actuel de stockage des STEP en France est de 184 GWh pour 5 GW de capacité, et  le potentiel réalisable est de 4 000 GWh. Il est donc possible de le multiplier par un facteur 20.

Par Olivier Daniélo

En savoir plus :

> Le rapport du parlement européen  à propos de l’intérêt d’un réseau électrique pour les ENR en Europe (« European Renewable Energy Network »)
> Le rapport d’un JRC de la Commission européenne à propos du potentiel du pompage-turbinage en Europe (« Assessment of the European potential for pumped hydropower energy storage »)
> La conférence « Pathways towards 100% renewable electricity system » par un expert du German Advisory Council on the Environment

Le Web souffle ses 25 bougies

13 Mars 1989 : l’Anglais Tim Berners-Lee – alors informaticien pour l’Organisation européenne pour la recherche nucléaire (CERN) – dessine le contour d’un système hypertexte permettant d’améliorer la diffusion des informations internes au CERN. Rejoint un an plus tard par son homologue belge Robert Cailliau, le projet va finalement mûrir et deviendra rapidement le « World Wide Web », notre bonne vieille toile dont les arcanes semblent si mystérieuses mais dont l’utilisation nous est, à tous, si naturelle.

Dans une séance de questions-réponses accordée la veille sur Reddit, un site web communautaire, l’informaticien désormais anobli par la Reine en a profité pour jeter un œil tendre sur le chemin parcouru : « 25 ans plus tard, je suis stupéfait devant les nombreuses choses que nous sommes parvenus à accomplir, transformant notre manière de communiquer, de partager et de créer ». Rappelant que le système WWW a failli être baptisé « The Mine of Information », « The Mesh » (« le réseau ») ou encore « The Information Mine » – dont l’acronyme n’est autre que… son prénom, TIM, il s’est également prononcé sur le sort d’Edward Snowden, l’informaticien à l’origine des fuites concernant certains programmes de surveillance de masse américains et britanniques, se déclarant en faveur de la protection de l’ancien employé de la NSA ayant depuis obtenu l’asile en Russie, précisant tout de même que certains aspects de la surveillance sur le web sont probablement nécessaires, « pour combattre le crime ».

Enfin lorsqu’on lui demande de citer une chose dont il n’avait pas imaginé que le Web puisse être utilisé pour, il se fend d’un trait d’humour lapidaire mais on ne peut plus limpide : « les chatons ».

Par Moonzur Rahman

Les chercheurs proches du burn-out

Epuisement professionnel. C’est la définition du burn-out, une maladie liée à un fort stress professionnel, se caractérisant par de la fatigue, de la frustration, une dépression, un sentiment d’impuissance et de désespoir, pouvant malheureusement mener au suicide. Les catégories professionnelles les plus touchées par cette « mort par surcharge de travail » sont celles dont le métier implique un engagement relationnel fort. Les travailleurs sociaux, enseignants et professions médicales comptent le plus de victimes. Les chercheurs du CNRS ne font pas a priori partie des personnes les plus exposées.

Pourtant, le mois de janvier a été marqué par le suicide de trois personnes. Toutes travaillaient au CNRS, dans des laboratoires ou dans l’administration à Rennes, Annecy et Meudon. Les personnes qui ont décidé de mettre fin à leur vie ont agi en dehors de leur lieu de travail, le lien avec leur quotidien professionnel n’étant pas du tout prouvé. Néanmoins, le Syndicat national des travailleurs de la recherche scientifique s’en inquiète, redoutant les prémices d’une vague de suicides à venir.  Daniel Steimetz, responsable du syndicat, bien qu’ayant précisé qu’un des suicides  relevait très probablement de motifs privés, rappelle que ces drames surviennent dans un contexte où les conditions de travail se dégradent : « cela fait plusieurs années que nous signalons à la direction du CNRS des cas de souffrance au travail et cela nous a semblé un signal suffisamment fort ».  

La pression de devoir publier un maximum, les heures d’enseignements à assurer qui ne sont pas prises en compte dans l’évaluation du chercheur, la complexité administrative des demandes de subventions chronophages et démotivantes du fait d’un fort taux de refus…Le travail au cœur des laboratoires serait de plus en plus stressant, et la passion des scientifiques ne suffirait plus à compenser.

Alors, les chercheurs sont-ils en danger ? Ces drames sont-ils une triste coïncidence ou l’illustration d’un profond malaise ?

Le CNRS dispose de différents indicateurs pour mesurer le stress de ses employés. Parmi eux, le taux de suicide ainsi que le nombre de jours de congés maladies. Or, l’analyse de ces outils ne permet pas de conclure à une aggravation du stress. La Direction du CNRS a ainsi rappelé que le taux de suicide dans ses effectifs est inférieur à la moyenne nationale, ajoutant que le nombre d’arrêts maladies n’a pas augmenté non plus. Mieux, le nombre de congés maladies est en baisse constante depuis maintenant quatre ans. 

En 2011, une thèse a débuté, intitulée « Etude qualitative des relations entre souffrance, plaisir et organisation du travail de la recherche ». Celle-ci vient de s’achever. Elle a été remise au comité national mais n’a pas encore été exploitée. Nul doute qu’elle sera lue avec une grande attention.

Par Audrey Loubens, journaliste scientifique