Mars : un grand basculement a refaçonné sa surface

Par sa masse hors du commun, le dôme volcanique de Tharsis a entraîné la rotation des enveloppes superficielles de Mars (sa croûte et son manteau) autour de son noyau. L’existence de ce grand basculement donne un nouveau visage à la planète Mars durant le premier milliard d’années de son histoire, à un moment où la vie aurait pu apparaître. Elle offre aussi une réponse unique à trois mystères : on comprend enfin pourquoi les rivières se sont formées à l’endroit où on les observe aujourd’hui, pourquoi certains réservoirs souterrains de glace d’eau, qualifiés jusqu’ici d’anomalie, se situent loin des pôles de Mars, et pourquoi le dôme de Tharsis est aujourd’hui centré sur l’équateur. Ces résultats sont publiés le 2 mars 2016 dans la revue Nature, par une équipe essentiellement française comprenant des chercheurs de Géosciences Paris Sud (CNRS/Université Paris-Sud), de Géosciences environnement Toulouse (CNRS/Université Toulouse III – Paul Sabatier/IRD) et du Laboratoire de météorologie dynamique (CNRS/École polytechnique/UPMC/ENS), ainsi qu’un chercheur du Lunar and planetary laboratory (Université d’Arizona).

Mars n’a pas toujours eu le visage que nous lui connaissons. Il y a 3 à 3,5 milliards d’années, la planète a subi un grand basculement, que vient de mettre en évidence le travail conjoint de géomorphologues, géophysiciens et climatologues. Ce n’est pas l’axe de rotation de Mars qui a bougé (phénomène que l’on appelle variation de l’obliquité) mais les parties externes (manteau, croûte) qui ont tourné par rapport au noyau interne – un peu comme si l’on faisait tourner la chair d’un abricot autour de son noyau ! Ce phénomène avait été prédit théoriquement, mais jamais encore démontré. L’origine de ce basculement ? Le gigantesque dôme volcanique de Tharsis. Sa formation a débuté il y a plus de 3,7 milliards d’années, vers 20° de latitude nord et l’activité volcanique s’est  poursuivie pendant plusieurs centaines de millions d’années jusqu’à former un plateau de plus de 5000 km de diamètre, environ 12 km d’épaisseur en moyenne et 1 milliard de milliards de tonnes (1/70e de la Lune). Une masse telle qu’elle a fait pivoter la croûte et le manteau de Mars. Le dôme de Tharsis s’est alors retrouvé sur l’équateur, ce qui correspond à sa nouvelle position d’équilibre.

Avant ce basculement, les pôles de Mars étaient donc différents. En 2010, Isamu Matsuyama (Université d’Arizona) avait déjà démontré grâce à un modèle géophysique que, si on retire le dôme de Tharsis de la planète, celle‐ci s’oriente différemment par rapport à son axe. Dans cette nouvelle étude, les géomorphologues Sylvain Bouley (Université Paris-Sud) et David Baratoux (Université Toulouse III – Paul Sabatier) montrent pour la première fois que les rivières étaient à l’origine réparties sur une bande tropicale sud d’une planète Mars tournant autour de pôles décalés d’une vingtaine de degrés par rapport aux pôles actuels. Ces pôles sont cohérents avec ceux calculés de manière indépendante par Isamu Matsuyama. Cette corrélation remarquable est confortée par des observations d’autres équipes scientifiques qui avaient déjà observé dans la région de ces anciens pôles des traces de fonte et de retrait de glaciers, et des preuves de glace souterraine.

Un tel basculement n’est pas anodin sur la physionomie de la planète. La forme de la planète dans cette configuration primitive a été recalculée par Isamu Matsuyama, afin d’en examiner les conséquences sur le visage de la planète Mars primitive. Cette étude modifie profondément le scénario généralement accepté, selon lequel le dôme de Tharsis se serait majoritairement formé avant 3,7 milliards d’années et préexisterait aux rivières puisque c’est lui qui leur imprimerait leur sens d’écoulement. A partir de la topographie calculée, Sylvain Bouley, Antoine Séjourné (Université Paris-Sud) et François Costard (CNRS) ont démontré que malgré un relief différent avec ou sans Tharsis, la plupart des rivières coulent, dans les deux cas, des hauts terrains cratérisés de l’hémisphère sud vers les plaines basses de l’hémisphère nord. Cette observation suggère que les rivières peuvent tout à fait être contemporaines de la formation du dôme de Tharsis.

La topographie de Mars avant le basculement permet également d’étudier le climat primitif de la planète. En utilisant les modèles climatiques du Laboratoire de météorologie dynamique, François Forget (CNRS) et Martin Turbet (UPMC) mettent en évidence, en présence d’un climat froid et d’une atmosphère plus dense que celle d’aujourd’hui, une accumulation de glaces autour de 25° Sud, dans les régions qui correspondent aux sources des rivières aujourd’hui asséchées.

Cette étude bouleverse notre représentation de la surface de Mars telle qu’elle a dû être il y a 4 milliards d’années, et modifie aussi profondément la chronologie des évènements. Selon ce nouveau scénario, la période de stabilité de l’eau liquide permettant la formation de vallées fluviales est contemporaine, et sans doute une conséquence, de l’activité volcanique du dôme de Tharsis. Le grand basculement déclenché par Tharsis a eu lieu après la fin de l’activité fluviale (-3,5 milliards d’années) et a ainsi donné à Mars le visage qu’on lui connaît aujourd’hui. Désormais, quand on s’intéressera à l’époque primitive de Mars – pour chercher des traces de vie ou d’un océan, par exemple – il faudra apprendre à penser avec cette nouvelle géographie.

mars
© Didier Florentz Le nouveau visage de la planète Mars primitive. Voici à quoi devait ressembler la planète Mars il y a 4 milliards d’années, d’après cette nouvelle étude. Une position différente des pôles, des précipitations sur une bande tropicale sud à l’origine des réseaux de rivières et des volcans actifs permettant au dôme de Tharsis de se développer et de faire basculer la surface de Mars après la fin de l’activité fluviale (survenue il y a 3,5 milliards d’années).

Source : cnrs

Ces emplois cadres qui se sont développés avec la transition énergétique

Dans l’énergie, l’impact de la transition énergétique est visible dans deux domaines.

Premièrement, on constate une montée en puissance des spécialistes en efficacité énergétique. En 2014, les offres d’emploi concernant les ingénieurs / chefs de projet en efficacité énergétique représentaient 12 % des offres étudiées dans le secteur de l’énergie, contre 6 % en 2005. Ces spécialistes en efficacité énergétique ont une compétence forte en génie énergétique et sont souvent employés par des bureaux d’études qui conseillent les entreprises et collectivités sur l’optimisation de leur consommation d’énergie.

Deuxièmement, on assiste au recrutement d’ingénieurs / chefs de projets en énergies renouvelables. En 2014, 8 % des offres analysées dans le secteur de l’énergie portaient sur ce type de poste, une proportion similaire à celle relevée en 2005. Les ingénieurs / chefs de projet en énergies renouvelables ont pour mission de développer et coordonner des projets d’installations d’équipements d’énergies renouvelables (parcs éoliens, unités de production de biomasse, centrales photovoltaïques) dans toutes leurs dimensions : études préalables ; lien avec les autorités administratives, les collectivités et les riverains ; suivi des travaux, etc. Certains de ces postes peuvent avoir une dimension plus technique : développement technologique, coordination technique des travaux d’installation, etc.

Dans l’industrie automobile, les constructeurs produisent les véhicules de demain qui seront écoconçus, basés davantage sur la propulsion électrique et qui seront plus connectés et communicants. Dans cette perspective, les phases et démarches de recherche et développement sont primordiales et doivent être intégrées dans les processus de conception et de fabrication. Par ailleurs, des verrous technologiques mais aussi sociétaux sont encore à lever pour proposer ce type de véhicules à un large public.
On observe ainsi une progression importante du poids relatif des offres du secteur pour des postes d’ingénieurs et chefs de projet en recherche & développement.

Ces métiers représentaient 18 % des offres diffusées par l’Apec en 2014, soit presque le double de la proportion relevée en 2005 (10 %). Il en est de même pour les métiers du numérique dans ce secteur.
Ainsi, les métiers d’ingénieur systèmes embarqués et d’ingénieur  logiciel représentaient 12 % des offres étudiées pour l’année 2014 dans le secteur, contre 7 % en 2005.

Dans le bâtiment, on constate le développement de certains métiers dans les bureaux d’études et les sociétés de service et de contrôle sur les calculs de performance énergétique. En outre, les experts du secteur rencontrés indiquent que des métiers de coordination pourraient servir de socle au développement de métiers directement liés à la transition énergétique. Ils évoquent par exemple le conducteur de travaux en rénovation énergétique ou le technico-commercial spécialisé en aménagement durable. On retrouve quelques exemples de ce type de poste dans les offres publiées par l’Apec en 2014.

Source : Etude menée par l’Apec « Transition énergétique : Impacts sur les métiers cadres »

Changement de carrière : les 4 signes qui ne trompent pas

Nouvelles compétences ? Nouvelles responsabilités ? Nouvelles stratégies d’entreprises ? Vous avez l’impression que ces notions sont floues dans votre tête ? C’est le signe que les choses commencent à devenir un peu  lassantes professionnellement non ?

Je sais ce que vous vous dites. J’ai un bon boulot, dans une entreprise réputée, j’aime bien mes collègues et en plus mon boss est sympa. Là aussi je sais ce que vous vous dites : Garder cette situation telle quelle jusqu’à la fin de ma carrière serait un accomplissement non négligeable.

Si par contre votre tempérament vous entraine plutôt à toujours voir plus haut, dans votre métier mais aussi dans votre vie professionnelle, il est temps pour vous de comprendre à quel point le métier que vous exercez affecte votre carrière ET votre vie personnelle.

Vous ne serez promu que si votre chef s’en va…

… ou se fait renverser par un bus en arrivant au travail ! Si vous faites partie de ces structures d’entreprise extrêmement verticales, où tout le monde essaie de grimper à la même échelle,  et que votre supérieur est parti pour rester un bout de temps, alors prenez conscience qu’une grosse promotion n’est probablement pas à l’ordre du jour.

Si tel est le cas, vous devez alors vous entretenir avec votre supérieur. Il y a peut-être des responsabilités auxquelles vous n’aviez pas songé et qui sont potentiellement de votre ressort. Et s’il n’y a pas d’occasion nouvelle pour vous dans votre département, peut-être qu’il faut changer de département ! Une fois cela accomplit, eh bien si vous en êtes toujours au même point c’est que vous êtes plus près de la sortie que le contraire.

Vous éviterez de renouveler ce genre de mésaventures en posant les bonnes questions dans vos prochains entretiens d’embauche. Des questions comme : « quelle est la politique de l’entreprise en ce qui concerne l’évolution de carrière de vos employés ? », ou encore « quel est le parcours classique de nouveaux arrivants chez vous après quelques années ? »

Se faire accepter par son entourage pro est très important pour accumuler les promotions

Si vous n’êtes pas promu alors que vous êtes persuadé de réunir toutes les compétences pour l’être, c’est que quelque chose ne tourne pas rond et vous empêche d’atteindre votre but. Quelque chose ou quelqu’un. Il est donc important de discuter autour de vous, avec votre supérieur également, pour comprendre ce qui ne va pas. Il est possible que ce qui vous sépare de la promotion que vous voulez soit un trait de votre comportement dont vous ignorez qu’il est mal perçu par votre entourage professionnel direct. Il se peut également qu’un problème humain soit à l’origine de votre stagnation. Le savoir ne résoudra pas le problème immédiatement, mais vous donnera les éléments nécessaires pour affiner votre réflexion.

Si les raisons évoquées – depuis quelques temps – pour justifier votre absence de promotion sont floues et que personne ne semble pouvoir vous donner des explications satisfaisantes, alors la solution devient plus évidente. Selon toute vraisemblance vous êtes au placard.

Comment votre entreprise se comporte-t-elle sur son marché ?

En temps de crise, les entreprises ont tendance à se replier sur elles-mêmes, à assurer leurs arrières et consolider ce qui peut l’être. Mais ce n’est pas tout le temps la crise. Quand la crise est passée, quelle est la réaction de la direction ? Le PDG a-t-il la volonté de faire repartir l’entreprise de l’avant ? A-t-il changé sa façon de justifier certains de ses refus concernant vos demandes ? Le retour à une économie moins morose doit être observé attentivement. Soit  votre entreprise profite d’une économie plus clémente pour entreprendre et innover, soit elle reste en retrait de ses concurrents, pour assurer ses arrières. Ces signes sont fondamentaux pour vous permettre de repérer les indices positifs et négatifs quant à l’avenir de votre entreprise.

Si votre entreprise enchaine les plans sociaux, gèle les salaires, que les offres d’emplois diminuent, que tous les acteurs majeurs de votre secteur, sauf votre entreprise, prennent une certaine direction… vous tenez alors tous les indices pour faire le choix qui s’impose.

Le secteur industriel dans lequel vous évoluez est dans l’impasse

Ce dernier point nécessite une certaine prise de recul. Il est courant, normal, que des secteurs entiers de l’industrie déclinent quand d’autres secteurs innovants observent une forte croissance. Il est souvent difficile d’appréhender ce genre de changements avec justesse, d’autant plus quand on est dans l’action. Mais soyez objectifs. Passé le petit coup de blues, vous rendre compte que votre secteur d’activité n’est plus porteur vous épargnera de lourdes déceptions bien plus tard.

Y a-t-il des bonnes nouvelles ?  OUI ! Beaucoup de gens font des changements de carrière drastiques qui sont couronnés de succès. Profitez de ce changement de cap pour faire le point. Quels sont les pans de votre métier qui vous passionnent ? Quelles ont les activités des salariés de votre entreprise qui vous font envie. Comment verriez-vous votre activité à l’avenir ? Prenez tous ces facteurs en compte avant de choisir le domaine d’activité dans lequel vous allez vous lancer.

Une fois le problème identifié, il vous faut agir. Pour ne rien vous cacher, cette mise en action aboutira de manière certaine – je l’espère pour vous – à une recherche d’emploi. Si vous n’êtes pas encore prêt pour vous mettre en mode recherche, préparez le terrain, améliorez votre réseau – ou créez-en un nouveau – avant de vous lancer dans votre nouvelle vie !

Par Lily Zhang

Source : http://uk.businessinsider.com/4-signs-its-time-for-a-career

30 petits neurones unis contre la douleur

Ce coup de marteau sur les doigts du bricoleur du dimanche a dû lui faire mal. Mais il aurait eu encore plus mal si l’ocytocine, un peptide synthétisé par une région du cerveau appelée hypothalamus, n’intervenait pas très tôt dans les processus cérébraux modulant la réponse douloureuse. De la contraction de l’utérus au moment de l’accouchement, à l’éjection du lait maternel après la naissance, en passant par son implication dans la régulation des interactions sociales, de l’anxiété ou de la douleur, l’ocytocine est un messager essentiel mais, pour l’instant, assez mystérieux. En effet, les mécanismes qui aboutissent à sa diffusion n’avaient jusqu’à présent pas été décryptés.

Une équipe internationale de chercheurs, coordonnée par Alexandre Charlet de l’Institut des neurosciences cellulaires et intégratives du CNRS, s’est penchée sur le processus de libération d’ocytocine lorsqu’une douleur est perçue. Elle a découvert que le centre de contrôle, dans le cerveau, qui coordonne la libération de l’ocytocine n’est constitué que d’une petite trentaine de neurones de l’hypothalamus.

Lors de douleurs aiguës ou d’une sensibilisation inflammatoire (brûlure, pincement, coupure, etc.), l’information est acheminée par les nerfs périphériques jusqu’aux neurones de la moelle épinière. Ceux-ci interprètent l’intensité du message et le codent en conséquence. L’information est alors adressée à d’autres neurones, parmi lesquels une petite population de 30 cellules de petite taille du noyau paraventriculaire de l’hypothalamus, identifiés par l’équipe d’Alexandre Charlet. En retour, ils activent une famille de gros neurones, les neurones magnocellulaires, dans une autre région de l’hypothalamus, qui libèrent l’ocytocine dans la circulation sanguine. La cible : les neurones périphériques qui continuent d’envoyer au cerveau le message responsable de la sensation douloureuse. L’ocytocine vient les « endormir » et de ce fait, diminuer la douleur.

© Thomas Splettstoesser - http://www.scistyle.com/ 30 petits neurones de l'hypothalamus exercent un double effet analgésique. En effet, ils provoquent une libération d'ocytocine à la fois dans la moelle épinière profonde, grâce à leurs longs prolongements (axones), et dans le sang afin d'inhiber les neurones sensibles au stimulus douloureux. Ces deux mécanismes sont représentés, respectivement, par la région en rouge dans la moelle épinière, et par la goutte de sang.
© Thomas Splettstoesser – http://www.scistyle.com/
30 petits neurones de l’hypothalamus exercent un double effet analgésique. En effet, ils provoquent une libération d’ocytocine à la fois dans la moelle épinière profonde, grâce à leurs longs prolongements (axones), et dans le sang afin d’inhiber les neurones sensibles au stimulus douloureux.
Ces deux mécanismes sont représentés, respectivement, par la région en rouge dans la moelle épinière, et par la goutte de sang.

Mais les trente donneurs d’ordre ne s’arrêtent pas là. En parallèle, le prolongement de ces cellules, appelé axone, qui mesure jusqu’à un mètre chez l’humain, atteint la plus profonde des dix couches de la moelle épinière. C’est précisément à cet endroit, où le message sensoriel est codé en intensité, qu’ils libèrent l’ocytocine. Ils diminuent donc, par deux voies simultanées, la reconduction du message douloureux au cerveau.

Les travaux de l’équipe ont donc permis d’expliquer la manière dont différentes populations de neurones à ocytocine se coordonnent afin de contrôler l’interprétation du message « douleur » par le système nerveux. La découverte de ce centre de contrôle analgésique est prometteuse dans le cadre du traitement des douleurs pathologiques. Cibler cette poignée de neurones permettrait en effet de limiter les effets secondaires d’un potentiel traitement. Pour l’heure, l’équipe continue de les étudier, cette fois-ci pour découvrir leur implication dans la libération de l’ocytocine permettant la lactation et certains comportements sexués.

Source : cnrs

Le numérique et la robotique, au service de l’agriculture

Le 29 février, les ministères de l’agriculture, de la recherche et de l’économie  ont lancé le plan « Agriculture innovation 2025 ». Parmi 4 priorités, ce plan retient la nécessité de développer le numérique et l’agriculture connectée.  La dynamique de recherche de nouvelles technologies de capteurs et de services numériques associés sera amplifiée. « L’appel à projets « Recherche Technologique » financé par le CASDAR sera renforcé et atteindra 4 millions d’euros/an, notamment pour développer des bio-capteurs à visée de prévention sanitaire précoce », font savoir les 3 ministères dans un communiqué conjoint.

Par ailleurs, ce plan vise à développer un portail de données agricoles pour faciliter l’accès à un ensemble de données permettant l’émergence de solutions nouvelles pour tous les acteurs de la filière agricole. Les services de l’Etat promettent également d’accompagner les startups agricoles pour mieux les structurer.

Des capteurs au service de l’agriculture

Les nouvelles technologies foisonnent d’applications pour le monde agricole. Informatique embarquée, GPS, applications mobiles, logiciels de gestion pour alléger les tâches administratives, financement participatif, drones, robotisation du travail agricole… sont autant de voies explorées par les agriculteurs !

Une large gamme de capteurs intelligents autonomes, embarqués sur les engins agricoles ou sur des drones, permettent d’optimiser les traitements grâce à une meilleure connaissance des besoins du sol et des plantes.

L’heure du Big data agronomique arrive !

Le traitement de données géolocalisées permet d’évaluer les besoins au quotidien, suivre l’état des sols et gérer les risques. L’agriculteur peut ainsi connaître au mieux les besoins d’arrosage, les besoins spatiaux en engrais ou en produits phytosanitaires, pour ne traiter que les parcelles nécessaires. Par exemple, Weenat propose des capteurs connectés permettant de mesurer la température de l’air, l’hygrométrie, la pluviométrie, la température du sol… et fournit l’information météorologique et agronomique à la parcelle en temps réel pour aider à la prise de décision. De son côté, Ekylibre fournit un logiciel permettant une gestion complète de l’exploitation via des solutions open source. Par ailleurs, Picore, un système embarqué sur les tracteurs permet à l’agriculteur d’optimiser les réglages de son pulvérisateur de produits phytosanitaires. Il peut ainsi facilement réduire les quantités épandues de 15 à 20 %.

Les robots, au service de l’agriculture

Les robots se développent dans les champs et dans les élevages. Les robots de traite sont déjà présents dans 3 800 exploitations agricoles de vaches laitières. Des robots d’alimentation se trouvent dans 7 % des élevages. Ce taux devrait atteindre 10 % d’ici 3 ans. Les robots d’intervention sous serre, en milieu fermé, commencent aussi à s’implanter.

Les chercheurs développent des robots de collecte de données pour l’élevage, la viticulture et l’arboriculture. Ils développent aussi  des robots d’entretien (semis, fertilisation, pulvérisation) et des robots d’assistance capables de suivre le pas de l’agriculteur pour lui épargner des tâches rébarbatives. Au Salon de l’agriculture, Terrena présente Oz, un robot de désherbage qui permet de s’affranchir des herbicides. Oz peut désherber mécaniquement 48 rangées de cultures de 100 mètres de long grâce à ses 4 heures d’autonomie.

Des robots autonomes capables d’aider à la récolte des fruits et légumes sont particulièrement attendus par les agriculteurs. Irstea démontre les performances du robot Effibot, issu du projet Baudet-Rob. Il s’agit d’un robot porteur chargé de transporter du matériel ou des produits en suivant automatiquement l’agriculteur pendant la récolte.

D’autres recherches sont encore en cours. Le projet « jeunes chercheurs » AdAP2E vise à réaliser un robot capable de traiter les vignes de manière autonome et d’aider à planifier et contrôler la pulvérisation en temps réel.  Le projet PUMAgri  cherche quant à lui à développer un robot désherbeur d’ici 2023 pour les filières du maraîchage, de la viticulture, de l’arboriculture, voir pour les grandes cultures.

Par Matthieu Combe, journaliste scientifique

Voir à travers les murs grâce aux ondes Wi-Fi

Des chercheurs du MIT ont conçu une nouvelle technologie, le RF Capture, qui exploite les variations des ondes radio d’une borne  Wi-Fi et leurs réflexions sur le corps d’un individu, afin de voir à travers un obstacle.

“Empreintes digitales” de silhouettes

Les ondes radios traversent en effet les murs et se réflechissent sur les structures qui se situent derrière, qu’il s’agissent d’objets ou d’être vivants. Après avoir “scanné” la pièce située derrière le mur à l’aide des ondes émises par une vingtaine d’antennes, le RF Capture conçoit une modélisation 3D des lieux. Des algorithmes permettent ensuite de reconstituer la silhouette des personnes qui se trouvent dans la pièce, en se basant sur les variations du signal, induites par le déplacement des individus.

Détecter des silhouettes derrière les murs c'est possible avec des ondes radios similaires au Wifi.Le résultat est d’une précision infime, puisque le RF Capture permet par exemple de modéliser la main d’un être humain en train d’écrire sur une feuille de papier, ou encore de percevoir la respiration d’une personne – en visualisant les mouvements de sa poitrine. Grâce à des “empreintes digitales de silhouettes” conçues au fil du temps par les chercheurs (en compilant plusieurs clichés), il est même possible d’identifier quelqu’un parmi plusieurs personnes, avec 90% de précision.

Des personnes âgées à l’armée, jusqu’à Hollywood

Les applications du RF Capture sont multiples. Selon les scientifiques, cette technologie pourrait être utilisée par la police, notamment lors d’une prise d’otages. Mais elle pourrait aussi être utilisée pour la médecine ou dans le domaine de la prévention : “nous pouvons déjà utiliser RF-Capture pour suivre la respiration et le rythme cardiaque d’une personne… peut-on détecter des problèmes cardiaques grâce à la technologie sans fil ? Nous pensons que la réponse est oui”, indique ainsi Dina Katabi, directrice des recherches, à Gizmodo.

wireless-silhouette-fingerprints-mit_0

rf-capture

Le RF Capture pourrait aussi être utilisé comme système de détection des chutes des personnes âgées, les antennes Wi-Fi pouvant être installées dans les pièces à surveillées afin de suivre les déplacements de ses occupants. Un projet dans ce sens est actuellement en cours de finalisation – nom de code : “Emerald”.

Voir à travers les murs grâce au Wi-Fi pourrait aussi profiter à Hollywood, en permettant aux réalisateurs de réaliser des motion captures (captures de mouvements), sans avoir besoin de capteurs corporels. Il serait aussi possible pour les équipes de films de suivre les mouvements des acteurs, “même lorsque ces derniers se trouvent derrière un mur ou un meuble”, indique Fadel Adib, l’un des chercheurs, à Sciences et Avenir. Selon le scientifique, le RF Capture pourrait même être utilisé pour concevoir des consoles de jeux vidéo permettant de jouer depuis une autre pièce.

Quid d’un usage néfaste du RF Capture ? “Nous voulons nous assurer que les gens n’utilisent pas le RF-Capture dans des buts malfaisants”, insiste Dina Katabi, qui planche sur un système à même de donner aux utilisateurs du RF Capture (version civile, et non militaire ou policière) un pouvoir de contrôle, et d’empêcher d’autres appareils que le leur de les suivre.

Par Fabien Soyez

Prolongation des centrales nucléaires : une non-surprise !

Pourquoi prolonger de 10 ans l’exploitation d’un réacteur nucléaire ? Le principal argument est qu’au-delà de ses 40 années de fonctionnement, l’installation est amortie financièrement et représente donc un bénéfice net pour son exploitant, en l’occurrence Electricité de France (EDF). Son principal actionnaire, l’Etat à hauteur de 84,5%, a donc un intérêt certain à la prolongation de ces outils de production qui lui procure une manne financière. D’autant qu’en période de vache maigre, EDF a fait office de vache à lait : l’Etat a perçu environ 20 milliards d’euros de dividendes sur les 10 dernières années.

Pas de plan B

Par ailleurs, le secteur énergétique est un paquebot : il est victime d’une forte inertie en raison des lourds investissements qui imposent le temps long. Arrêter des réacteurs nucléaires suppose de construire des moyens de production nouveaux pour équilibrer le réseau, les importations étant limitées. Or, les prix sur les marchés de gros de l’électricité se sont écroulés ce qui rend tout investissement non-profitable sans subvention. De plus, il ne s’agit pas de compenser l’arrêt d’un ou deux réacteurs : Après Tricastin en 2019, ce sont 5 à 7 tranches par an à partir de 2020 qui fêteront leurs 40 ans. Pour les 10 premières tranches, cela représente environ 9 000 MWe qu’il faudrait compenser. Et ce, sachant qu’1 MWe éolien ne correspond pas à 1 MWe nucléaire en termes de production puisque le taux de charge (temps de production effectif/temps total) de cette énergie renouvelable est bien plus faible (de l’ordre de 25% contre 80% pour l’atome). Il faudrait donc installer énormément d’énergies renouvelables et des centrales thermiques, en un temps record, pour compenser l’arrêt d’une partie du parc nucléaire. Une option qui, malgré un récent soutien public aux énergies renouvelables, n’a jamais vraiment été étudiée sérieusement par les gouvernements successifs, juge et partie dans cette affaire.

Grand carénage

EDF travaille donc depuis des années à un plan d’exploitation au-delà des 40 ans, à l’image des compagnies nucléaires américaines. A la différence que la France a élaboré sa propre doctrine de sûreté nucléaire. Comme l’a rappelé Pierre Franck Chevet, directeur de l’ASN : « la prolongation des réacteurs n’est nullement acquise ». Pour l’ASN, la condition primordiale de la prolongation est que l’exploitant réalise un certain nombre d’améliorations pour que l’installation se rapproche le plus d’une centrale neuve (type EPR) en termes de sûreté. C’est ce qu’EDF a appelé son « grand carénage », un plan d’investissements de 55 milliards d’euros, qui consiste à remplacer des composants fondamentaux, et à améliorer les dispositifs de sûreté. Un montant revu largement à la hausse par la Cour des comptes : 100 milliards d’euros. De fait, la décision de prolonger l’exploitation des centrales nucléaires françaises pourrait davantage être influencée par le coût économique d’une telle décision pour EDF qui se trouve déjà dans une situation financière compliquée. En plus du grand carénage, le groupe doit gérer d’autres variables comme le rachat de la partie Réacteur d’Areva (imposée par l’Etat), le projet Hinkley Point, ou Cigéo entre autres. Une équation insoluble pour son président, Jean-Bernard Lévy, qui assure pourtant pouvoir mener de front tous ces chantiers.

Romain Chicheportiche

I.A. et politique : des discours bientôt écrits par un algorithme ?

Bientôt, il ne sera peut-être plus nécessaire d’être un as de la joute oratoire pour écrire un discours : un algorithme se chargera de le générer à votre place. Etudiant-chercheur à l’Université du Massachusetts à Amherst, Valentin Kassarnig a ainsi conçu un programme qui “peut concevoir des discours politiques pour un parti politique spécifique” – autrement dit, adapter un discours au parti de l’utilisateur (républicain ou démocrate). “Le système permet en outre de spécifier si le discours doit exprimer un avis favorable ou défavorable”, indique l’auteur de ce système.

Calculer la probabilité d’apparition d’un mot

Pour créer son algorithme, l’étudiant a regroupé plus de 4000 discours politiques, prononcés au Congrès américain, dans la même base de données. En tout, 50 000 phrases, chacune étant composée de 23 mots en moyenne. Le programme de génération de discours est basé sur plusieurs méthodes de traitement automatique des langues (TAL), dont le modèle mathématique des chaînes de Markov, et les n-gramme – des sous-séquences de n éléments, construits à partir d’une séquence donnée.

A partir d’un corpus d’apprentissage, les n-gramme permettent de calculer la probabilité d’apparition d’un mot, d’une séquence de mots ou de phrases. Dans le cas d’un générateur de discours, cette méthode permet ainsi d’adapter le champ lexical du texte à une couleur politique.

Mis en ligne sur Github, l’algorithme de Valentin Kassarnig, n’en reste pas moins perfectible, les allocutions obtenues restant assez approximatives. Ainsi, les discours exposés dans l’article scientifique du chercheur semblent terriblement vrais, mais ne sont pas toujours très cohérents – ne permettant pas, par exemple, de prendre en compte l’avis défavorable du locuteur vis-à-vis du sujet abordé.

Pour résoudre ce problème, le chercheur en herbe a proposé aux internautes de l’épauler, afin de perfectionner son “intelligence artificielle”. Jusqu’à générer un jour, il l’espère, “des posts de blog” ou des “articles d’information”.

Par Fabien Soyez

Des riverains agricoles exposés aux pesticides

22 échantillons de poussières ont été prélevés en juillet 2015 chez des riverains de zones agricoles grâce à des kits de prélèvement fournis par Kudzu Science. 5 échantillons supplémentaires ont été prélevés en janvier 2016, afin d’évaluer la persistance des pesticides dans une partie de ces mêmes foyers.

En moyenne, près de 20 pesticides ont été détectés dans chaque habitation, dont 12 susceptibles d’être des perturbatureurs endocriniens, selon la base de données TEDX. Trois pesticides sont retrouvés dans tous les foyers  (perméthrine, tebuconazole et dimethomorph), ainsi que le diuron dans 90 % des cas, bien qu’interdit en France depuis 2008. Si certains pesticides proviennent d’usages de pesticides et biocides à la maison ou dans les jardins, les résidus retrouvés (à part la perméthrine et la cyperméthrine) semblent provenir pour la quasi-totalité d’un usage extérieur et très probablement d’un usage agricole.

Dangereuses poussières de pesticides  ?

La plus faible concentration relevée est de 0,27 mg de pesticides par kg de poussière ; la plus forte de 112,7 mg/kg. Soit 0,1 % de pesticides dans cet échantillon de poussière. La moyenne se situe à 17,6 mg/kg, dont 17,3 mg de perturbateurs endocriniens potentiels, soit près de 0,002 %. La concentration totale des pesticides quantifiés diminue entre l’été et l’hiver, entre 30 % et 95 %, ce qui montre que la concentration diminue, mais que l’exposition est chronique tout au long de l’année.

« Ce sont les éventuels niveaux de résidus de pesticides retrouvés dans les aliments et pour lesquels les évaluations de risque démontrent une absence de risque pour le consommateur », essaye de rassurer le Collectif d’agriculteurs Sauvons les Fruits et Légumes de France dans un communiqué. Néanmoins, les études toxicologiques portant sur ces produits s’intéressent aux expositions aiguës ou à long-terme sur des concentrations élevées. Les données concernant les effets des expositions chroniques à de faibles doses sont très peu documentées. Par ailleurs, les matières actives des pesticides sont évaluées substance par substance, sans prendre en compte l’effet cocktail lié à un mélange de pesticides.

Malgré le faible nombre d’échantillons et le fait que cette enquête « ne prétend pas être parfaitement représentative de l’exposition à des pesticides agricoles de l’ensemble des personnes vivant en zone agricole cultivée de manière intensive », les résultats semblent robustes et complètent les informations qui ont déjà été obtenues par ailleurs. « Pour 6 molécules analysées dans ce rapport et recherchées par ailleurs par l’Observatoire de la Qualité de l’Air Intérieur dans les poussières sédimentées de 145 logements, les fréquences de détection de notre étude sont identiques ou très proches de celles de l’OQAI », précise le rapport de l’étude.

A la vue de ces résultats, Générations Futures insiste sur la nécessité de protéger les enfants, mais aussi les populations sensibles, notamment les femmes enceintes et, plus largement, les femmes en âge de procréer. « Il ne faut pas arrêter de traiter qu’à côté des écoles, mais aussi près des habitations où vivent les femmes en âge de procréer, alerte François Veillerette, porte-parole de Générations Futures. Sinon on refait la même erreur qu’avec le bisphénol A : on a d’abord retiré les biberons, mais pas les boîtes de conserve ». Sans cette prévention, les futures mères contamineront inexorablement leurs enfants à naître. L’association interpelle également le Gouvernement français, afin qu’il agisse urgemment auprès de la Commission européenne pour définir les critères qualifiant les perturbateurs endocriniens.

Par Matthieu Combe, journaliste scientifique

Lisa Pathfinder : au plus près des ondes gravitationnelles

Après l’annonce faite le 11 février dernier de la première détection d’ondes gravitationnelles voir cet article, le petit satellite Lisa Pathfinder, lancé le 3 décembre 2015, a été mis sous le feu des projecteurs. En effet, Lisa Pathfinder doit valider le concept de la détection des ondes gravitationnelles dans l’espace par interférométrie optique. Des technologies dont la mise en œuvre à grande échelle sont prévues lors de la mission eLISA (evolution-LISA) programmée par l’agence spatiale européenne (ESA) en 2034.

Passer du côté sombre de l’Univers

LISApathfinderL’ambitieuse mission eLISA a pour but de scruter l’univers à travers le prisme des ondes gravitationnelles, ces déformations de l’espace-temps prédites il y a 100 ans par la théorie de la relativité générale d’Einstein. La mission consistera à placer 2 à 3 satellites, espacés de quelques 5 millions de kilomètres et formant un gigantesque interféromètre optique. Le passage d’une onde gravitationnelle sera mesuré par des modifications infimes de distance entre 2 masses en chute libre, placées aux extrémités de chaque bras de l’interféromètre. Dès lors on n’observera plus l’espace depuis des variations de la lumière ou d’ondes électro-magnétiques, mais à travers des ondes émises par des phénomènes sans lumière tels que les trous noirs. Une ouverture sans précédent vers le côté sombre de l’univers.

Un pionnier à vie courte

Le démonstrateur Lisa Pathfinder est en fait un modèle réduit d’un bras de l’interféromètre prévu en 2034. Sa mission scientifique en tant que telle doit durer six mois à compter du 1er mars 2016. Durant tout le mois de février la communauté scientifique a suivi avec passion et appréhension la mise en place et les premiers tests des outils embarqués. Notamment le 17 février, la libération des deux cubes identiques d’or et de platine de 46 mm qui flottent désormais librement, dans le vide (10-5 Pascal) à 4mm des parois de l’habitacle et espacés de 38 cm l’un de l’autre (espace mesuré au picomètre près). Ils sont reliés entre eux par des faisceaux lasers chargés de rectifier leur position en fonction des perturbations autres que les ondes gravitationnelles qui pourraient les affecter.

Des technologies à la précision inégalée

Le Lisa Technology Package (LPT) est un instrument embarqué permettant de parer les effets d’autres forces qui s’exercent sur le satellite, comme les photons du Soleil et les rayons cosmiques qui peuvent engendrer des perturbations électrostatiques. lisaPlusieurs systèmes sont ainsi chargés d’assurer un vide constant et une décharge électrostatique. Par ailleurs, un système conçu par la Nasa, le DRS (pour Disturbance reduction system) est chargé d’ajuster la poussée du satellite via des mini-propulseurs afin qu’il garde une trajectoire uniquement influencée par les forces gravitationnelles (c’est en fait une trajectoire géodésique) en fonction des informations fournies par LPT. L’ensemble de ces instruments font de Lisa Pathfinder un petit bijou technologique.

Par Sophie Hoguin

Quelles sont les meilleures écoles d’ingénieurs ?

Et le grand vainqueur 2015 est… Lorraine INP ! Le regroupement de 11 écoles d’ingénieurs lorrains vient donc de passer devant Grenoble INP et Insa Lyon respectivement deuxième et troisième du classement. Mais au-delà du simple palmarès, le classement d’Industries et Technologies a surtout l’avantage de s’inscrire dans le temps et d’éclairer ainsi les relations entre écoles d’ingénieurs et innovation.

Recherche : plus de doctorants, plus d’investissements

Alors que le nombre de doctorants et post-doctorants avait accusé une baisse en 2012, il est depuis reparti à la hausse et leur nombre en 2014 est même désormais supérieur à celui de 2009 : 15259

Année Nombre de doctorants et post-doctorants (dans les 100 premières écoles du classement effectué)
2009 14629
2010 14570
2011 14168
2012 12587
2013 13425
2014 15259

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Le nombre de doctorants reste un indicateur notable du dynamisme de la recherche. Leur ré-augmentation s’accompagne d’ailleurs d’une augmentation constante des contrats de recherche signés avec les entreprises (voir tableau). Un système de financement qui structure une bonne part de la recherche des écoles d’ingénieurs et permet à ces écoles de continuer d’offrir des formations de qualité et de préserver des activités de laboratoires.

Année Montant global des contrats de recherche (millions d’euros) – (dans les 100 premières écoles du classement effectué)
2009 481
2010 464
2011 487
2012 576
2013 645
2014 678

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Brevets : stables à un bon niveau

Le nombre de brevets déposés est plutôt stable et prouve l’excellence de la recherche développée au sein des ces écoles d’ingénieurs. En la matière la championne est l’ESPCI ParisTech (école de physique chimie de Paris) avec 257 brevets déposés en 5 ans. Comme le soulignent la rédaction d’Industries et Technologies, le regroupement des 100 premières écoles, permet de réaliser que la France n’a rien à envier aux plus grands instituts internationaux en matière de recherche et d’innovation.

Année Nombre de brevets (dans les 100 premières écoles du classement effectué)
2009 1945
2010 1953
2011 2351
2012 2477
2013 2757
2014 2508

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Rendre visible l’excellence française

Depuis plusieurs années, l’enseignement supérieur et la recherche française souffrent de leur morcellement dans les classements internationaux et dans leur capacité à être à la fois visible et attractifs. Le groupe INP, qui structure désormais les regroupements régionaux INP Lorraine, Bordeaux, Toulouse, Grenoble est une première réponse efficace à cette lacune. Et le classement d’aujourd’hui le montre : atteindre une taille critique permet aux écoles d’être reconnues et renommées et de booster leurs performances tant d’un point de vue éducatif que du côté des entreprises. Du côté de Paris, les choses sont plus compliquées et au bout de 15 ans ParisTech passe de statut d’établissement public à celui de fondation. La marque elle-même qui a pourtant fait ses preuves vient d’être retirée de l’ESPCI qui sera désormais ESPCI Paris. Il faut dire qu’en région parisienne l’ancrage régional est moins évident. Chaque école à sa propre histoire et culture, et ne fait pas forcément partie de la même communauté universitaire. Sans compter le grand projet d’excellence du plateau de Saclay ou l’avenir de Polytechnique qui sont sans cesse en évolution.

Tout est fait pour entreprendre dès les études

Le dossier qui accompagne ce classement est éloquent : tout est désormais mis en place pour que les étudiants deviennent des entrepreneurs aguerris. Et ce dès le début de leurs études : que ce soit via le statut d’étudiant-entrepreneur au sein de PEPITE qui se concrétise à Toulouse INP par un cursus aménagé, de parcours spécifiques comme à Bordeaux INP, de double formation à Lorraine INP ou encore avec le lancement de MOOC à l’X avec un partenariat avec HEC. En outre, les écoles accueillent désormais souvent des incubateurs pour les start-up de leurs propres élèves ou de jeunes diplômés. A ce jeu de la création de start-up, Télécom ParisTech arrive première avec 146 créations d’entreprise depuis 2010.

Par Sophie Hoguin

Zika : l’épidémie se mondialise, les mesures s’organisent

Depuis fin 2015, le virus Zika fait régulièrement la Une de l’actualité. La pandémie qui s’annonce a commencé en mai 2015 par une épidémie locale dans le nord-ouest du Brésil. Elle s’est rapidement propagé à tout le pays. L’Organisation mondiale pour la santé (OMS) estimait fin janvier 2016 que le Brésil comptait plus d’1,5 million de cas et vient d’annoncer que ce chiffre devrait atteindre 3 à 4 millions d’ici la fin de l’année. Aujourd’hui Amérique latine, Antilles, Caraïbes sont touchées et les premiers cas en Asie arrivent.

Qui est Zika ?

Le virus Zika est un arbovirus (virus transmis par les insectes) du genre flavivirus comme celui de la dengue ou de la fièvre jaune. Identifié en 1947 sur un singe Rhésus en Ouganda et repéré en 1952 pour la première fois sur l’homme, il était considéré jusqu’alors comme un virus émergent. Transmis par les moustiques, principalement du genre Aedes, il provoque une fièvre modérée, parfois une éruption cutanée, une conjonctivite et des douleurs musculaires et articulaires. Les symptômes disparaissent en 2 à 7 jours et certaines personnes sont asymptomatiques. La durée d’incubation de quelques jours n’est pas précisément connue.

Pourquoi inquiète-t-il ?

Accueilli au départ comme une fièvre de plus après la dengue, ou le chikungunya, la fièvre Zika a commencé à provoquer de vraies peurs à l’annonce des risques secondaires : risque accru de microcéphalie des enfants à naître et risque accru de développer un syndrome de Guillain-Barré (le SGB est une grave paralysie auto-immune parfois irréversible voire mortelle). Dans les deux cas, la relation n’est pas formellement prouvée mais très fortement suspectée en raison de la corrélation entre les épidémies de fièvre Zika et l’augmentation d’apparitions de cas de microcéphalies et SGB (par exemple en Polynésie en 2013 où les autorités n’ont pas pris la mesure de la menace comme l’explique cet article de France24. Ainsi, le Brésil signalait, mardi 23 février, une augmentation nette des cas de microcéphalie : depuis octobre 2015, 583 naissances confirmées de nourrissons microcéphales alors que la moyenne nationale annuelle est de 150. Il reste en outre plusieurs milliers de cas suspectés.

Diverses rumeurs sont nées autour de ces corrélations, pour les parer, l’OMS consacre d’ailleurs toute une page internet à rétablir certaines vérités (voir les rumeurs)

Quant à la transmission par voie sexuelle, la question n’est pas encore totalement tranchée, même s’il semble que cela puisse être le cas.

Quels sont les moyens de lutte ?

A ce jour, aucun moyen spécifique n’existe pour lutter contre Zika. Les moyens employés sont les moyens habituels de lutte contre les moustiques : épandage massif de pesticides, de larvicides et chasse aux points d’eau stagnantes. (Un reportage éloquent sur les efforts à déployer en la matière). Pour les habitants et voyageurs, on conseille répulsifs et moustiquaires. Les premiers vaccins sont déjà dans les tuyaux tant cette fois la réaction est rapide et forte, mais il faudra tout de même attendre presque deux ans pour que le premier ait passé les essais cliniques (Les Echos ont d’ailleurs fait un point intéressant sur le sujet).

Zika arrivera-t-il en France métropolitaine ?

Sans aucun doute. A l’heure actuelle, des cas ont été recensés sur tous les continents, y compris en Europe où la République Tchèque vient d’annoncer ses deux premiers cas (retours de la zone Antilles-Caraibes). Mais pour faire épidémie il faut que les moustiques puissent se reproduire sur place. En France métropolitaine, les moustiques, et plus particulièrement Aedes albopictus (moustique tigre), présent dans le sud de la France (et même ponctuellement rencontré en région parisienne l’été dernier), se reproduit de mai à novembre. C’est donc à ce moment là que l’épidémie pourrait se produire. En attendant, les autorités font le tour des territoires d’outre-mer déjà bien touchés (voir cet article de Libération) et prennent des mesures d’accompagnement, telle que la prise en charge à 100% d’échographies supplémentaires pour les femmes enceintes annoncée par la ministre de la santé jeudi 25 février.

Par Sophie Hoguin

« Solar serpent » : une route solaire qui élimine la pollution de l’eau, le bruit, et capture les particules fines

L’idée est tellement simple qu’il fallait juste y penser : recouvrir les routes d’ombrières solaires photovoltaïques. Le projet de « serpent solaire » (Solar Serpent) a été pour la première fois présenté lors de la conférence « Toward a Just Metropolis » de l’UC Berkeley (University of California) le 18 juin 2010. Et de nombreuses fois depuis, suscitant partout un fort enthousiasme du grand public.

serpent_solaireLes automobilistes peuvent apprécier confortablement le paysage des deux côtés de la route. Seul le ciel est remplacé par les cellules photovoltaïques. Un tamisage intelligent laisse passer une partie de la lumière du jour. On a ainsi pas du tout l’impression d’être dans un tunnel. Aucun risque de claustrophobie. Les cellules PV pouvant aujourd’hui être transparentes, il est aussi possible de rendre le serpent presque invisible.

Le serpent est un squamate, du latin squama, écaille. Les panneaux solaires constituent les écailles de cette route nouvelle génération qui serpente au gré du relief. Les ophidiens sont des animaux qui muent : ils changent de peau. Une belle métaphore de la révolution énergétique qu’il nous faut mener pour construire une société vraiment durable.

serpent solaire_peripherique_copywright mans tham_small
Mans Tham Architectes, www.manstham.com

En juin 2011, un an après la révélation du concept de Måns Tham, la Belgique inaugurait le premier serpent solaire du monde au niveau d’une voie de TGV. Ceci pour un coût d’investissement de 15 M€ et une puissance installée de 4 MW, soit de 3,8 €/W. Le même projet, compte tenu de la chute vertigineuse des coûts du solaire PV entre 2010 et 2015, coûterait aujourd’hui entre 2 et 2,5€/W. Ce reptile solaire belge a également permis de « faire les gros titres de la presse internationale » souligne l’entreprise Enfinity sur son site officiel.

La même approche est également appliquée au niveau des parkings, avec des ombrières solaires : c’est par exemple ce qu’a fait l’aéroport de Montpellier à un coût de 8 M€ pour 4,5 MW, soit 1,8 €/W (2014). Le même projet coûterait aujourd’hui (2016) moins d’1,5 €/W. Au Liban, un « serpent solaire » a été installé sur la rivière qui traverse Beyrouth (« Beirut River Solar Snake », BRSS), ce qui a comme conséquence positive de réduire l’évaporation de l’eau.

Les cellules photovoltaïques du serpent ont un rendement optimal, ce qui constitue un énorme avantage comparativement aux routes solaires où les cellules PV sont placées au sol : Solar Roadways aux USA, SolarRoad aux Pays-Bas et Wattway en France (6€/W). En effet, le serpent ne subit pas d’ombrage et beaucoup moins de salissure. Il est possible d’orienter correctement ses écailles vis-à-vis du soleil, il bénéficie d’un refroidissement aérien qui optimise le rendement photovoltaïque, et personne ne vient l’écraser, ce qui augmente considérablement sa durée de vie. Chaque euro investi permet ainsi de produire beaucoup plus d’électricité à un coût bien plus faible.

L’intérêt écologique est évident : moins d’activité minière et industrielle polluantes car moins de consommation de matière première par unité d’électricité produite. Dont l’élément argent, le seul élément du photovoltaïque véritablement limitant, selon le MIT (rapport « The Future of Solar », 2015), si la filière était développée à l’échelle de dizaines de TW à l’échelle mondiale. Mais d’autres intérêts majeurs découlent de cette approche particulièrement pertinente.

Durée de vie et maintenance des routes

La toiture solaire protège la route des agressions météorologiques.

« Solar serpent » : une route solaire qui élimine la pollution de l’eau, le bruit, et capture les particules finesLa route n’étant plus exposée au soleil, le bitume ne fond pas durant les périodes chaudes. Les agressions hydriques (érosion par ruissèlement) sont également éliminées. L’eau, absente, rend les périodes de gel moins dévastatrices. Les variations thermiques sont atténuées, réduisant ainsi les cycles de dilatation/contraction destructeurs. Et les très puissants Ultra-Violets sont stoppés.

Selon les sites et les sources, le coût d’une autoroute 2 x 2 voies et d’une largeur roulable de 11 mètres coûte en France entre 5 et 25 millions d’euros du kilomètre, le haut de la fourchette concernant les milieux montagnards. Auquel s’ajoute des frais d’entretien annuels de 70.000 à 100.000 € par kilomètre. Pouvoir protéger une infrastructure aussi coûteuse a donc un intérêt majeur.

Il y a en France 7850 km d’autoroutes à péage, 1100 km d’autoroutes non concédées par l’état, 11 800 km de routes nationales, 383.000 km de routes départementales et 550.000 km de routes communales. En retenant une hypothèse de 85.000€/km, la maintenance des 8950 km d’autouroutes coûte 23 milliards d’€ en 30 ans. Dans l’hypothèse (bas de la fourchette) d’un coût d’investissement de 5 M€/km, elles pèsent 45 milliards d’€.

Le toit solaire peut s’étendre au-delà de la bande roulable, d’où une largeur retenue ici de 16 mètres. Ce qui, avec une longueur de 8950 km, correspond à une surface de 143 kilomètres-carrés. En retenant la même densité de puissance que la centrale solaire de Cestas (300 MW sur 2,6 km2, 115 W/m2), les autoroutes françaises, a elles seules, permettraient d’installer une puissance solaire PV d’un peu plus de 16 GW. Soit 2 fois et demi la puissance PV totale actuellement en place en France. Et on peut considérablement augmenter la mise en intégrant les routes nationales.

Sur la base de l’expérience belge susmentionnée, on peut retenir un coût d’environ 2,5€/W (tout compris) pour une centrale solaire en toiture d’autoroute, contre 0,8 €/W pour du PV classique au sol. Mais le surcoût d’1,7€/W peut être compensé par l’augmentation de la durée de vie de l’autoroute et la réduction de son coût de maintenance. 16 GW à 1,7€/W ce sont 27 milliards d’€. C’est 60% du coût d’investissement de l’autoroute. Autrement dit si la toiture solaire augmente d’un facteur 1,6 la durée de vie de l’autoroute, alors le coût de la structure porteuse est compensé. Et comme cette toiture diminue copieusement les frais de maintenance annuels l’équation économique devient encore plus favorable. Et c’est pas fini…

Qualité de l’air

La pollution de l’air en France, pays où le parc automobile est fortement dieselisé, coûte chaque année plus de 100 milliards d’euros. Deux fois plus que le tabac. Les autoroutes, dont le débit est très elevé, sont des sources majeures de pollution. Des routes de qualité, c’est-à-dire non dégradées par les agents météorologiques, ce que permet le serpent solaire, conduisent à une réduction de la consommation des véhicules de 7% selon une étude danoise. Grâce à une baisse de la résistance au roulement.

Le serpent solaire protège par ailleurs du vent, qui, lorqu’il est de face ou latéral, conduit également à augmenter de manière significative la consommation des véhicules. La résistance de l’air augmente avec le carré de la somme vitesse du véhicule + vitesse du vent. Un vent même de seulement 20 km/h s’opposant à un véhicule voulant maintenir sa vitesse à 110 km/h conduit à un très copieux surcoût énergétique.

L’effet d’îlot urbain est atténué grâce à notre ophidien photovoltaïque. Le fait de rouler à l’ombre conduit à une baisse des besoins en climatisation, et donc à une diminution de la consommation en carburants pétroliers. Et aussi à une diminution du risque de surchauffe du moteur. Si la France est principalement concernée durant la période estivale, une bonne partie de la population mondiale, de l’Egypte au Brésil en passant par l’Arabie Saoudite et l’Inde, vit dans des régions qui sont ensoleillées et chaudes toute l’année.

Un serpent solaire au niveau des 35 kilomètres du périphérique parisien aurait un intérêt pour la santé de l’ensemble des riverains : la pollution particulaire a un en effet des conséquences particulièrement graves lors d’un temps d’exposition long. Celui des automobilistes est bien plus court. Et ce sont ces derniers la source de la pollution. Pollueur, payeur. De nombreux constructeurs proposent par ailleurs aujourd’hui des véhicules dont l’air de l’habitacle est contrôlé. Comme par exemple la Tesla X avec son mode « Bioweapon ». Mais aussi la Renault Zoé 100% électrique.

Des systèmes de filtration de l’air du même type que ceux qui équipent le tunnel du Mont-Blanc dans les Alpes (Autoroutes et Tunnel du Mont Blanc, ATMB) pourraient d’ailleurs être installés dans le tube intestinal du serpent et fonctionner avec l’électricité photovoltaïque. 90% des particules sont éliminées avec ce système.

Le léviathan solaire rend en outre possible la séquestration du CO2. La concentration en CO2 est naturellement plus élevée dans un tunnel. Måns Tham propose d’aspirer cet air enrichi et de l’envoyer vers de petits bassins adjacents où sont cultivées des micro-algues. Le CO2 est la molécule-clé de la photosynthèse. C’est exactement ce qu’avait fait Greenfuel, une start-up du MIT, en utilisant l’air riche en CO2 sortant d’une centrale à charbon alimentant le campus. La structure porteuse du serpent solaire peut d’ailleurs être en bois, matériaux qui constitue un puits de carbone.

« J’ai déjà fait des esquisses pour un serpent solaire au dessus du périphérique » a indique Måns Tham, joint par voie électronique, et interrogé sur la faisabilité de la mise en place d’un tel écosystème dans une grande ville française. Ce Suèdois particulièrement créatif a travaillé en 2010-2011 dans une agence d’architecture parisienne.

Qualité de l’eau

Le serpent solaire empêche l’eau de pluie de ruisseler sur les routes. « La pollution d’origine routière, liée aux émissions du moteur à l’échappement, à l’usure des véhicules, de la chaussée et des équipements de la route, constitue une pollution chronique qui affecte directement l’environnement de proximité via les eaux de ruissellement et les dépôts atmosphériques secs et humides » souligne une étude publiée dans la revue Vertigo. « Les milieux impactés sont les hydrosystèmes superficiels et/ou souterrains, l’atmosphère, les sols et les végétaux qu’ils supportent. » Là encore, les conséquences économiques sont lourdes.

Grâce au serpent solaire non seulement l’eau n’est plus polluée, mais en plus elle peut être collectée, stockée, et ainsi être utile pour les activités agricoles du voisinage. Avec en outre une contribution à la réduction des risques d’inondation.

Réduction de la pollution sonore et sécurité routière

Le serpent solaire a encore une autre qualité : il empêche la propagation des ondes acoustiques. La pollution sonore peut lourdement affecter la santé et la qualité de vie des riverains des routes. Avec des conséquences physiques et/ou psychologiques (stress, dépression, violence conjugale, fatigue, arrêts de travail) pour les hommes et les femmes qui les subissent. Le coût économique est lourd. Les nuisances sonores ont également un impact sur la biodiversité. Certaines espèces d’oiseaux y sont par exemple très sensibles.

Protégeant du soleil et de la chaleur, et ainsi de la fatigue au volant, la peau du serpent peut vous sauver la vie ! Il évite de plus les éblouissements ainsi que l’usage des essuie-glaces. Empêchant la pluie de tomber sur la route, il prévient les aquaplanings mortifères ainsi que l’accumulation de neige verglaçante. L’hélio-reptile peut ainsi éviter de nombreux morts et blessés chaque année. Un tué sur la route coûte 1,2 million d’euros, selon l’Observatoire National Interministériel de la Sécurité Routière (2007).

Un support à l’innovation

camion_electriqueLe serpent solaire pourrait servir à des applications complémentaires. Comme par exemple la charge par pantographe des camions transportant des marchandises, ce qu’expérimente par exemple le géant allemand Siemens en Californie. Il pourrait aussi servir de support à des capteurs utiles pour la conduite 100% autonome.

En continuité de la dynamique lancée par Emmanuel Macron, Ministre de l’économie, des bus électriques autonomes (sans chauffeur), équipés d’un pantographe (ce qui permet de réduire de façon massive la taille de la batterie), pourraient ainsi être guidés par le serpent solaire et traverser la France entière. Le low-cost est bien sûr apprécié des voyageurs, et rouler sous une aile solaire qui capte en direct l’énergie de notre étoile permet de vivre l’expérience Solar Impulse des aventuriers suisses Bertrand Piccard et André Borschberg.Solar-Impulse

Des superchargeurs de type Tesla pourraient également être installés au niveau des aires de repos, en symbiose avec le serpent photonique, afin d’offrir de l’électricité photovoltaïque gratuite (avec éventuellement un soutien de l’état) aux véhicules électriques pratiquant le covoiturage de type BlaBlaCar.

Avec le serpent solaire, plus besoin d’installer de lampadaires pour l’éclairage (il suffit d’installer les lampes directement sous la peau du serpent), ni de supports de panneaux de signalisation routière, ni même de pylones de lignes à haute tension (y compris HVDC). Une économie appréciable pour RTE et ERDF.

Des haies placées de chaque côté du serpent solaire permettront de le rendre complètement invisible dans le paysage tout en améliorant encore davantage son bilan carbone.

« Comme un arbre (solaire) dans la ville » (Forestier)

Les garagistes ne voient pas d’un très bon œil l’arrivée de la voiture électrique. Car elle demande très peu de réparations : beaucoup moins de pièces mobiles qu’avec un moteur thermique qui par ailleurs s’encrasse. De même, il n’est pas certain que le concept de serpent solaire, redoutablement efficient, séduise les producteurs de graviers, de bitumes, d’enrobés et de peintures routières, ainsi que les sociétés de maintenance des routes. En effet le serpent solaire conduit à réduire leur marché. En l’état actuel, l’obsolescence des routes est programmée. Mais le serpent solaire change l’équation !

Colas, filiale de Bouygues, a présenté lors de la COP21 à Paris (et aussi au Consumer Electronic Show de las Vegas, février 2016) le concept Wattway consistant à coller des panneaux solaires sur une route qui, au préalable, doit impérativement être recouverte d’un enrobé haute qualité neuf. Dans la rubique FAQ du siteWattwayByColas.com on peut en effet lire: « Les surfaces pouvant accueillir des dalles Wattway devront être enrobées et récentes. Elles ne devront pas présenter de fissures, d’orniérages, de déformations, ni contenir de l’amiante, et elles devront répondre à un cahier des charges technique et commercial. » Bref, Colas veut vendre de l’enrobé. Normal, c’est son business.

Par contre c’est le devoir de l’état français, qui fonctionne grâce à l’argent des contribuables, d’inscrire sa stratégie dans une perspective d’intérêt général et donc de développement vraiment durable (Charte de l’environnement, Constitution française). Et donc de ne surtout pas laisser ses choix influencés par les intérêts privés de grandes entreprises. Même si ces dernières sont des mécènes de la COP21.

Le concept de Solar Serpent porte non seulement la promesse d’une production solaire à haute efficacité et à impact surfacique nul, mais aussi de réduire de manière significative le coût des autoroutes en augmentant leur durée de vie et en réduisant les coûts de maintenance. Les gestionnaires d’autoroutes pourront ainsi baisser leurs tarifs, attirer davantage de clients et ainsi augmenter la rentabilité de leur investissement tout en réduisant son impact écologique et sanitaire. Grâce à l’efficience du serpent solaire les autoroutes pourraient même devenir gratuites les week-ends, un désir de la Ministre de l’écologie !

01-biodome-exterior-softgrid (1)
Biodôme solaire transparent de Google (Solar Canopy)

L’autoroute du soleil

Le bout du tunnel. Et si on commençait par l’autoroute dite « du soleil » pour monter cette superbe tente solaire ? Le serpent de la tentation ! Très empruntée lors des départs et retours de vacances estivaux, avec des embouteillages durant ces périodes, les automobilistes apprécieront l’ombre offerte par les cellules PV de ce Jörmungand des temps modernes. 1000 kilomètres de routes solaires vraiment écologiques ? C’est possible ! Il manque juste la volonté politique. Mais comme le dit si bien Al Gore, les politiciens, ils sont recyclables.

Solar Serpent, joli nom. Il apparaît sur la pyramide maya de Chichen Itza à l’équinoxe. Le sendero luminoso des mythes pré-incas de l’actuel Pérou. Un sentier…lumineux !

Le solaire PV sera la technologie centrale du mix électrique mondial de demain. Il est donc très important de ne pas commettre d’erreur stratégique dans ce domaine clé. Car cela serait alors comme donner un coup de poignard dans le coeur de la révolution solaire. Tout euro gaspillé dans une technologie inefficente c’est un euro en moins pour investir dans des solutions éco-intelligentes. Et les capacités d’investissement, comme par exemple en Inde, constituent le seul frein à l’énorme déferlante solaire qui ne fait que commencer.

Par Olivier Daniélo

Le shopping impulsif, prochainement sur votre écran

Que l’on puisse poser sa carte bancaire sur un écran et même une image, et acheter aussitôt un produit ou un service, voici qui devrait plaire aux publicitaires et aux commerçants. La société Think&Go en fait le pari : située dans les Bouches-du-Rhône, cette start-up française a conçu un écran «connecté» qui sert de borne de paiement sans contact à l’aide de lecteurs NFC (Near Field Communication) incorporés.

Typiquement, cet écran, présenté au dernier CES de Las Vegas, pourrait être posé dans une galerie marchande et relaierait les promos «flash» lancées par les boutiques avoisinantes. Le flâneur-consommateur, appâté, n’aurait plus qu’à dégainer sa CB ou son smartphone pour s’adjuger la bonne affaire, avant d’aller chercher son bien à quelques pas de là. D’autres terres d’accueil sont envisageables. «Notre premier écran été mis en service fin 2015 dans une agence bancaire de la BNP, place de l’Opéra à Paris, explique Vincent Berge, PDG de Think&Go. Il suffit de poser sa carte bancaire à l’endroit indiqué pour effectuer un don de 5 € à une œuvre caritative.» Une opération similaire avait été aperçue l’an dernier à la gare Montparnasse, à l’initiative de la régie Mediagares et de l’institut Curie. Elle visait à faciliter la collecte de fonds au profit de la recherche contre le cancer.

Un travail de précision

Think&Go n’en est pas à son coup d’essai. La société s’était déjà illustré en 2014 avec un écran capable d’interagir avec des objets connectés, du smartphone au passeport, pour offrir des coupons de réduction notamment. Quelque 150 de ces écrans auraient été vendus à travers le monde. L’ingénierie au cœur du projet n’est pas une partie de plaisir et le cas de l’écran dédié au paiement se révèle plus contraignant encore. «Nous avons travaillé pendant 6 mois avec Ingenico (un des principaux leaders des solutions de paiement, NDLR) pour intégrer des lecteurs de paiement NFC à une dalle LCD, détaille Vincent Berge. Une fois l’écran ouvert, nous posons entre 1 et 10 lecteurs, selon la demande du client. La manipulation est complexe car un lecteur de paiement NFC est beaucoup plus épais et sensible qu’une simple antenne NFC. Ces lecteurs doivent être suffisamment proches de la vitre pour que le champ NFC ne soit pas rompu, mais pas trop non plus, faute de quoi les antennes pourraient être «grillées» par un téléphone. La dalle est ensuite refermée. En dehors du positionnement des lecteurs, l’intégration PC est importante. Derrière chaque écran, il y a en effet un ordinateur qui relie les lecteurs à un serveur et qui permet d’avoir un suivi d’activité des lecteurs. Les antennes doivent également être accordées en fonction de l’environnement.»

La méthode reste artisanale et synonyme de nombreux essais, voire d’échecs. «Nous avons cassé plus de 30 écrans, poursuit Vincent Berge. Nous avons suivi plusieurs pistes, rencontré plusieurs impasses. Nous en sommes à la 4e génération d’écrans et nous travaillons sur la 5e et 6e génération.» Entretemps, Think&Go a encore fait parler d’elle au Mobile World Congress de Barcelone, où elle présentait un dispositif de paiement comparable, mais sur tablette cette fois. La finalité, elle, ne change pas : faciliter l’achat d’impulsion. «C’est l’invention d’un nouveau canal de vente, la transposition dans l’espace public de mécanismes vu sur le web» précise Vincent Berge. La partie n’est pas gagnée car le paiement sans contact, s’il gagne en notoriété, est encore méconnu du grand public. D’autre part, les failles de sécurité liées au NFC ne devraient pas rassurer les consommateurs les plus prudents.

Frédéric Monflier

Forte dynamique pour le bio en 2015

La hausse des conversions se poursuit : fin 2015, 1,31 million d’hectares sont cultivés en bio en France. Une hausse de 17 %. 307 000 hectares sont en conversion, dont 220 000 hectares en première année. Cette amplification de la dynamique de conversion en 2015 témoigne d’un réel intérêt de fond de la part du monde agricole pour cette filière.

Pour répondre à la demande croissante des consommateurs, la production bio augmente en France. Entre 2014 et 2015, le nombre de fermes a augmenté de 8,5 % et le nombre d’opérateurs bio de 7,2 %. Un rythme deux fois plus élevé qu’entre 2013 et 2014 ! Fin 2015, 28 725 fermes bio étaient recensées, ce qui représente 6,5 % des exploitations agricoles françaises. On dénombrait 13 491 transformateurs, distributeurs, importateurs et exportateurs (+4,4 %) et 42 216 opérateurs exerçant une activité bio (+7,2%).

L’agriculture biologique génère en moyenne, de l’ordre de 60 % de main d’oeuvre supplémentaire sur la ferme par rapport à l’agriculture conventionnelle.

Les fermes bio représentent près de 69 000 emplois, soit près de 10 % de l’emploi agricole. Ramené à l’exploitation, les fermes biologiques emploient en moyenne 2,4 Unité de Travail Annuel (UTA), contre 1,52 en conventionnel. Par ailleurs, la transformation et la distribution emploient 30 000 personnes ; les actions de contrôles, conseils, recherche et formation… représentent environ 2 000 emplois directs.

Au total, la filière bio représente plus de 100 000 emplois en équivalent temps plein.

Aller plus loin : Le bio pour sortir les agriculteurs de la crise ?

Par Matthieu Combe, journaliste scientifique

Le chiffrement des données : principes et limites

La réponse d’Apple a été claire : « Nous sommes obligés de résister face à ce que nous considérons être un abus de pouvoir de la part du gouvernement américain », a déclaré Tim Cook, le patron de la marque.

Selon Maître Alain Bensoussan, Apple et les autres « se trompent ». « La protection de l’intégrité physique l’emporte sur la protection de l’intégrité des données individuelles », estime cet avocat français spécialisé qui pense que « c’est la justice qui devrait décider, au cas par cas, d’autoriser ou non l’accès aux données contenues dans un smartphone ».

Au-delà de ce débat, il peut être intéressant de rappeler ce qu’est le chiffrement, d’aucuns parlant à tord de cryptage.

Le chiffrement des données et/ou des connexions (fixes ou mobiles) vise un objectif : préserver la confidentialité des informations. Les échanges de données ne peuvent être « lus » par des pirates ou des États.

Il s’agit donc de transformer une donnée dite « claire »,c’est-à-dire accessible à quiconque, en une donnée incompréhensible, d’apparence la plus aléatoire possible, pour tout tiers non autorisé. Cette transformation se fait en fonction d’un procédé (appelé algorithme) et surtout d’une quantité secrète, appelée clef. Notons qu’un système dépourvu de clef n’est pas un système cryptologique.

Il existe deux grandes familles de procédés de chiffrement :

  • Les procédés de chiffrement par transposition

« Leur principe consiste à mélanger, en fonction d’une clef, l’ordre des lettres. Ainsi, considérons le système de transposition dite à tableau et la clef formée du mot « Austerlitz ». Le déchiffrement consiste à faire l’opération inverse et n’est possible que si l’on connaît le mot clef.

Le principal inconvénient des systèmes par transposition est qu’ils conservent les statistiques de la langue et fournissent par conséquent une information sur le message. Ils ne sont plus employés de nos jours », explique Eric Filiol, Directeur de Recherche du laboratoire Confiance Numérique et Sécurité/Cryptologie et Virologie Opérationnelle (CNS/CVO) de l’ESIEA (une école formant des ingénieurs).

  • Les procédés dits par substitution

Cette fois, chaque lettre ou groupe de lettres est remplacée en fonction d’une clef secrète et d’un procédé par une autre lettre ou groupe de lettres.

L’essentiel de la sécurité se trouve dans la clé. D’où l’idée de deux chercheurs, Diffie et Hellman, d’inventer en 1977 un autre type de cryptographie : la cryptographie à clef publique. Cette fois, chaque utilisateur crée un couple de clefs, l’une publique, qui comme son nom l’indique est destinée à être publiée, l’autre privée qui doit impérativement rester secrète.

Quelle que soit la solution retenue, le degré de protection obtenu dépend de plusieurs facteurs : la qualité du cryptosystème, la manière dont il est implémenté en logiciel ou matériel et le nombre total de clefs possibles qui permettent de chiffrer l’information.

Enfin, un algorithme cryptographique est considéré fort si deux conditions sont remplies :

  1. Il n’y a aucun raccourci qui permet à un adversaire de récupérer le texte clair sans utiliser la force brute qui consiste à tester chaque clef possible jusqu’à trouver la bonne.
  2. Le nombre de clefs possibles est suffisamment grand pour rendre ce type d’attaque irréalisable. Les tailles des clefs de chiffrement sont mesurées en bits et la difficulté à essayer toutes les clefs possibles croît de manière exponentielle avec le nombre de bits utilisés. Ajouter un bit à la clef double le nombre de clefs possibles ; ajouter dix bits augmente le facteur de plus d’un millier.

Reste un problème majeur : « ce qui me gêne, c’est que l’ensemble de la planète utilise des algorithmes d’obédience américaine. Nous laissons aux États-Unis le monopole de toute la standardisation. Je pense qu’il y a de très bons cryptologues en France, il y en a partout en Europe. Pourquoi devrait-on sous-traiter notre sécurité et les standards de cryptographie aux Américains ? », s’interroge Eric Filiol.

Par Philippe Richard

Sécurité des salariés à l’étranger : des progrès réels mais lents

Le deuxième baromètre de la sécurité des collaborateurs à l’international (A consulter ici : deuxieme barometre CDSE de la sécurité des collaborateurs à l’international), réalisé par le CDSE (Club des directeurs de sécurité des entreprises), en partenariat avec AXA Assistance France, montre que les dirigeants d’entreprise de plus de 50 salariés qui ont envoyé au moins 1 salarié à l’étranger prennent de plus en plus conscience des risques à l’international – même si cette prise de conscience n’est pas encore pleinement réalisée dans le cadre de leur entreprise (sentiment de n’être pas directement concerné, absence de consignes pour leur salariés à l’international etc.)

L’insécurité internationale augmente

Terrorisme, instabilité politique, présence majeure de trafics, épidémies, catastrophes naturelles ou industrielles, l’insécurité dans le monde représente une menace pour la France, ses entreprises, ses citoyens pour 82% des dirigeants français interrogés dans ce deuxième baromètre. C’est 8 points de plus qu’en 2014. Et les attentats en France et dans le monde ne semblent pas indifférents à cette évolution. En effet, dans la liste des risques potentiels, le terrorisme arrive en premier avec une augmentation de 28 points depuis 2014 !

Des dirigeants qui se sentent peu concernés

Malgré tout, la part des dirigeants interrogés qui se sentent directement concerné par cette insécurité a diminué d’un point par rapport à 2014, passant de 20 à 19%. Et la part, majoritaire de ceux pensant que les risques sont identiques est restée stable à 71%.

Méconnaissance des risques et des dispositifs d’aide

L’enquête montre aussi une connaissance modérée du cadre tant juridique qu’assurantiel et des moyens de soutien et d’information qui existent. Ainsi, encore 33% n’ont pas d’idée des responsabilités juridiques de l’entreprise dans le cadre du déplacement d’un employé à l’international, 76% ne disposent pas d’une classification des zones à risques et seulement 1 entreprise sur 4 a un dispositif de gestion de crise spécifique. En outre, seule 1 entreprise sur 2 connaît le site de conseils du Ministère des Affaires étrangères (sans pour autant le consulter).

Mais de plus en plus de personnes dédiées

La sécurité/sûreté des employés en déplacement à l’international est un enjeu de plus en plus important pour près d’1/3 des entreprises (31%, +5 points depuis 2014) et les entreprises ont un poste dédié (50% d’entre elles, +19 points) à la gestion de sécurité des collaborateurs à l’étranger. En outre, on voit que la préparation se développe : près des 2/3 des entreprises donnent des informations aux salariés, 2 entreprises sur 5 dispensent des formations, et la moitié soumettent leurs salariés à des procédures spécifiques pour préparer ces déplacements. Néanmoins, elles ne sont qu’une sur deux à avoir des contrats d’assistance spécifiques (en baisse de 10 points).

Rappel des obligations de l’employeur

La loi impose à l’employeur d’informer le salarié qu’il envoie à l’étranger sur les conditions sanitaires et sécuritaires du pays : avant le départ, sans que le salarié n’ait besoin de faire des recherches et en prenant en compte les mises en garde du ministère des affaires étrangères. Par ailleurs, l’obligation de sécurité de résultat édictée par le code du travail continue de courir et il existe en outre une responsabilité civile contractuelle qui peut être invoquée même dans des situations hors des lieux et heures de travail.

Par Sophie Hoguin

Air Liquide : Du xenon pour propulser des satellites

La propulsion des satellites a mué avec le développement des moteurs tout électriques, véritable percée technologique pour l’industrie du satellite. Ces moteurs utilisent l’énergie produite par les panneaux solaires du satellite pour expulser un gaz (habituellement du xénon). Sa densité, son potentiel d’ionisation et son inertie font de ce gaz noble un composant extrêmement précieux pour diverses applications, dont la propulsion électrique des satellites.

Le xénon de haute pureté est utilisé comme agent propulseur pour la mise en orbite et le maintien en position des satellites. Les moteurs tout électriques augmentent la capacité de charge du satellite de 50 %, en réduisant fortement les coûts de lancement.

Le marché des satellites est très concentré. Il n’y a que cinq fabricants de satellites de télécommunications dans le monde, dont trois sont américains : Loral, Boeing et Lockheed-Martin, les deux autres étant européens, EADS-Astrium et Thales Alenia Space.

Chacun d’eux pèse environ 20% du marché mondial et une capacité de production d’environ quatre satellites par an. Au cours des années à venir, au moins un tiers du marché devrait adopter cette technologie, selon Air Liquide.

Par Romain Chicheportiche

Californie : Les barrages manquent d’eau

C’est un exercice difficile auquel s’est livré le Pacific Institute : déterminer le coût pour le système électrique des sécheresses qui se sont abattues sur la Californie entre octobre 2011 et septembre 2015 (années les plus chaudes depuis 120 ans d’après les relevés). Selon les auteurs du rapport, la baisse de la production hydroélectrique aurait représenté un surcoût pour le système électrique de l’ordre de 2 milliards de dollars. L’utilisation de combustibles fossiles pour compenser le manque d’eau aurait conduit à émettre 10% de gaz à effet de serre supplémentaires. « Dans les faits, ces sécheresses ont affecté les contribuables puisque leur électricité est moins propre et plus coûteuse durant ces périodes », explique Peter Gleick du Pacific Institute.

Alors que l’hydroélectricité pesait 18% du mix électrique de l’état, sa part a chuté à 10,5% durant la période étudiée pour atteindre un tout petit 7% la dernière année. Des résultats qui posent la question de la capacité réelle de production hydroélectrique dans un avenir où les épisodes climatiques extrêmes devraient se multiplier.

Par Romain Chicheportiche

Une tolérance accrue pour les OGM et pesticides en bio ?

En agriculture biologique, un seuil de contamination accidentel par les OGM est toléré jusqu’à 0,9 % en poids. Il existe également des seuils pour les pesticides ou produits chimiques à partir desquels un produit peut être « décertifié », c’est-à-dire perdre son label. La proposition de révision du cahier des charges adopté par commission Agriculture du Parlement européen le 8 février propose l’abandon du dispositif de décertification de produits bio contenant des substances non autorisée, telles que des pesticides, engrais chimiques ou des OGM.

« Officiellement, le principe de base de non-utilisation des produits chimiques de synthèse est toujours là, souligne Elisabeth Mercier, directrice de l’Agence bio. On ne parle que de la question de contamination environnementale »

Cette contamination environnementale peut subvenir, involontairement, par exemple lors d’un transport, d’un stockage ou d’une pulvérisation dans un champs situé à proximité de l’exploitation bio. Pour être bien clair, « cela ne concerne pas du tout l’idée d’autoriser des produits chimiques dans les produits bio, il s’agit d’harmoniser les seuils de déclassement éventuels en cas de contamination environnementale si ce n’est pas de la faute de l’agriculteur », précise-t-elle.

Ainsi, ce projet de révision ne concerne que les contaminations accidentelles pour éviter de pénaliser les agriculteurs biologiques. Lors d’une contamination accidentelle de ses produits, c’est l’agriculteur biologique qui est sanctionné et doit subir le manque à gagner lié à la décertification.  La proposition initiale prévoyait des compensations financières pour ces agriculteurs en cas de contamination externe avérée. « La question est celle de la responsabilité », avertit Elisabeth Mercier. Les discussions entre le Parlement, le Conseil et la Commission européenne continuent pour retenir le meilleur compromis.

Il faut néanmoins s’intéresser à la réalité de terrain pour comprendre que cette disposition ne serait pas une porte grande ouverte aux OGM et aux pesticides en agriculture biologique. « Quand il y a une demande conversion, l’organisme certificateur se rend sur la ferme, relate la directrice de l’Agence bio. S’il s’aperçoit qu’autour de cette ferme, il n’y a pas toutes les conditions réunies, peut-être que certaines parcelles ne vont pas être mises en conversion, c’est une réalité ». C’est notamment le cas pour de petits vignobles entourées de parcelles conventionnelles. Selon les données d’Ecocert, le principal certificateur de l’agriculture bio en France, dévoilées par le Journal de l’environnement, environ 10 % des produits sont déclassés tous les ans, la fraude volontaire n’intervenant que dans 0,5 % des cas.

La Commission et le Parlement européen devront trouver un savant compromis sur d’autres points : l’autorisation ou non de la mixité des champs bio/non bio sur une même exploitation, l’évolution des conditions de contrôle pour les importations de pays tiers, la mise en place d’une certification de groupe… Des règles trop strictes pourraient décourager les agriculteurs et faire baisser le nombre de conversions. A l’opposé, des règles trop souples relanceraient le débat sur la crédibilité des produits bio.

Par Matthieu Combe, journaliste scientifique

L’étau se resserre sur la 9eme planète

Le mercredi 20 janvier 2016, un article paru dans Astronomical Journal fait rapidement le tour de notre univers : Mike Brown et Konstantin Batygin du California Institute of Technologie (Caltech) affirment alors qu’ils existent bien une neuvième planète dans notre système solaire. Une hypothèse déjà posée par d’autres scientifiques sur des bases théoriques. Ce serait une géante gazeuse comparable à Neptune située à quelques 30 milliards de km du soleil.  Aussitôt une équipe d’astronomes française décide de vérifier sa possible existence par leurs propres méthodes de calculs, en s’appuyant notamment sur les données de la sonde Cassini (Nasa/Esa/Asi).

Une confirmation de la thèse américaine

Parue le 22 février 2016, dans Astronomy et Astrophysics letters,  l’étude des astronomes français de l’Institut de mécanique céleste et de calcul des éphémérides, et du laboratoire GeoAzur permet de préciser les positions possibles de cette 9eme planète et valide donc la plausibilité de l’affirmation des deux américains. Pour rappel, ces derniers sont partis du constat que la répartition des objets de la ceinture de Kuiper (corps céleste similaires à Pluton, situés au-delà de Neptune) doit s’expliquer par la présence d’une planète très volumineuse qui constituerait ce qu’on appelle le noyau de ceinture de Kuiper et qui dominerait les autres corps du point de vue de la gravité. Grâce à des simulations numériques, ils ont déterminé l’orbite possible de cette planète mais sans pour autant donner d’indications quand à sa position actuelle. Si bien que les observateurs, à la recherche d’une observation plus directe doivent scruter toutes les directions possibles sur la longitude déterminée pour espérer l’apercevoir.

Perturbations sur Saturne

Les données de la sonde Cassini permettent de connaître la distance entre la Terre et Saturne avec une précision de l’ordre de 100m. Depuis 2003, Agnès Fienga et Jacques Laskar, développent des éphémérides planétaires (INPOP) qui permettent de calculer le mouvement des planètes de notre système solaire avec beaucoup de précision. Ils ont appliqué leurs méthodes à l’ajout d’une neuvième planète et ont montré qu’en fonction de la position de cette nouvelle planète par rapport à son périhélie, elle devait induire des perturbations sur l’orbite de Saturne qu’ils ont pu retrouver.

Une portion de ciel restreinte

Les calculs des Français permettent de restreindre grandement la portion de ciel à scruter pour trouver cette planète X (voir figure 1). En effet, les perturbations induites par la 9eme planète sont incompatibles avec sa présence dans certaines directions (au moins la moitié) alors que dans d’autres, sa présence expliquerait en partie les écarts entre le modèle calculé par les astronomes (sans son existence) et les distances observées.

planete
Crédit Observatoire de la Côte d’Azur Cnrs

Zone rose : les perturbations créées par l’introduction d’une nouvelle planète ne sont pas compatibles avec les observations

Zone verte : la planète améliore le modèle de prédiction. Echelle en unités astronomiques.

Par Sophie Hoguin

Des choix qui restent politiques

Cette valeur justifie les dépenses engagées en matière de sécurité et suggère d’en optimiser l’effet en recherchant, globalement, les rendements les plus élevés en termes de vies sauvées. Dans la même optique, mais en partant de principes de maximisation différents, la méthode des QALY permet d’optimiser la dépense pour obtenir le nombre d’années de vie en bonne santé le plus élevé.

Ces approches ont la vertu d’apporter une perspective scientifique sur les questions de prévention des risques. En mettant en lumière l’efficacité implicite des mesures de sécurité, le point de vue de l’économiste apporte un éclairage utile pour le décideur permettant de rationnaliser et d’inter-comparer les choix en matière de sécurité. Malgré cela, l’influence de l’économiste sur ces sujets et ces décisions reste limitée en France, où la culture économique est peu développée.

Cette faible résonance accordé au point de vue économique est naturelle sur un sujet où les arguments politiques, éthiques et psychologiques portent forts et où l’analyse socio-économique reste peu comprise et mal appropriée par l’opinion. Quels que soient les arguments de l’économiste, il est en effet rationnel pour le décideur politique, qui cherche à être réélu, de ne pas chercher la « meilleure » décision suggérée par le technocrate, mais plutôt la décision qui sera la mieux perçue par ses électeurs, quitte à s’éloigner de l’optimum de sécurité et embrasser des arguments de psychologie ou de communication. Cette mécanique de décision, absolument rationnelle et naturelle en démocratie, suggère que pour pouvoir s’affirmer à l’avenir au sein d’un processus de décision qui reste fondamentalement politique, l’économiste doit viser une pédagogie plus large, qui puisse informer et transformer l’opinion, et conduire in fine à développer l’intérêt général pour l’analyse socio-économique des décisions humaines.

Par Emmanuel Grand

Pour aller plus loin

Rapports de référence

Sélection d’articles universitaires

  • Aldy, E. Joseph & Viscusi, W. Kip, « Adjusting the Value of a Statistical Life for Age and Cohort Effects », The Review of Economics and Statistics, Vol. 90, No. 3 (Aug., 2008), pp. 573-581
  • Ashenfelter, Orley, « Measuring the Value of a Statistical Life: Problems and Prospects », The Economic Journal, Vol. 116, No. 510, Conference Papers (Mar., 2006), pp. C10-C23
  • Andersson, Henrik & Treich, Nicolas, « The Value of a Statistical Life« , Toulouse School of Economics paper
  • Biausque, Vincent, Valeur de la vie humaine : une meta-analyse, OCDE, Groupe de travail sur les politiques d’environnement nationales, 2011
  • Banzhaf, Spencer, « The Cold-War Origins of the Value of Statistical Life », The Journal of Economic Perspectives, Vol. 28, No. 4 (Fall 2014), pp. 213-226
  • Miller, Ted R., « Variations between Countries in Values of Statistical Life », Journal of Transport Economics and Policy, Vol. 34, No. 2 (May, 2000), pp. 169-188
  • Viscusi, W. Kip & Gayer, Ted, « Safety at Any Price? », Regulation, Vol. 25, No. 3, 2002

L’auteur
Emmanuel Grand est consultant en stratégie. Ingénieur et économiste de formation, il intervient auprès d’administrations et d’entreprises sur leurs problématiques d’analyse de marchés, de régulations et d’organisation. Il est l’auteur de plusieurs ouvrages d’économie industrielle.

Remerciements
L’auteur tient à remercier Marcel Boiteux, Luc Baumstark et Jérôme Puëll qui ont bien voulu leurs accorder un entretien et les aider dans leurs recherches. L’auteur remercie également Sophie Bourgoin pour sa contribution à la rédaction.

Contacter l’auteur

Comment mesurer la valeur de la vie humaine ?

Les méthodes historiques fondées sur le capital humain

Jusqu’aux années 1980, les valeurs de la vie humaine retenues par les pouvoirs publics s’appuyaient sur une mesure de la perte pour la société entraînée par la mort d’un individu, i.e. la perte d’un capital humain. Cette famille de méthodes repose fondamentalement sur la mesure de la contribution de l’individu au PIB : le capital humain est mesuré par la somme des salaires futurs perdus suite au décès. A cette somme actualisée des revenus futurs sont parfois ajoutés certains facteurs indirects (ex. coûts des dégâts lors d’un accident) et d’éléments non marchands (préjudices affectifs subis par les proches) .

Cette approche a le mérite de reposer fondamentalement sur une mesure monétaire et tangible : la somme de la production future de l’individu. Elle reste à la base de la détermination de la valeur de la vie dans le contexte judiciaire, comme le montre par exemple les indemnités accordées aux familles des victimes des attentats du 11 septembre 2001 aux Etats-Unis : les indemnités ont varié en fonction des salaires espérés, de 300.000$ pour un individu de 65 ans qui gagnait 10.000$/an, à 4,35 millions de dollars pour un trentenaire gagnant 175.000$/an .

Si la méthode du capital humain est simple à comprendre et se place résolument du point de vue de la société, elle souffre de :

  • La réduction fondamentale de la valeur d’un individu à sa seule productivité professionnelle, ignorant les autres rôles productifs dans la société : parent, ami, bénévole, citoyen – les tentatives d’inclusion d’éléments non marchands (ex. douleurs de proches, valeur des travaux familiaux, etc.) ayant toujours été difficiles et discutables.
  • De résultats très différents selon les individus, peu acceptables par les pouvoirs publics, avec notamment des valeurs de la vie nulles voire négatives pour les retraités, dont la production professionnelle future est par définition inexistante.
  • L’absence de prise en compte de la préférence des individus pour la sécurité, i.e. de leurs choix réels entre richesse et sécurité.

Les méthodes actuelles fondées sur le consentement à payer

Dépassant les inconvénients du capital humain, les méthodes inspirées de l’économie comportementale vont devenir prépondérantes à partir des années 1990 pour évaluer le prix de la vie humaine. En observant que la sécurité est un bien achetable, les économistes ont cherché à mesurer le consentement à payer des individus pour améliorer leur propre sécurité, définissant ainsi un arbitrage sécurité/richesse qui peut être moyenné et étendu à l’ensemble de la société.

Concrètement, la valeur de la vie humaine est construite à partir de la mesure du consentement à payer pour la réduction d’un risque faible : si par exemple un équipement de sécurité coûte 300 euros et qu’il supprime un risque de mort de 1/10.000, alors on peut déduire de son achat que, pour le consommateur, la valeur de la vie est supérieure à 300×10.000 = 3 millions d’euros .

L’intérêt de ces méthodes fondée sur le consentement à payer est de traduire les arbitrages des individus quant aux moyens à allouer à la sécurité dans une vue, qui est d’une part a priori fidèle à leurs préférences réelles, et d’autre part globale c’est-à-dire incluant les éléments non marchands.

Préférences déclarées ou préférences révélées

Si l’emploi du consentement à payer fait aujourd’hui consensus comme fondement de la valeur de la vie humaine, la mesure de ce consentement fait l’objet d’une controverse entre la méthode des préférences déclarées et celle des préférences révélées :

  • La mesure des préférences déclarées se fonde sur une enquête par questionnaire auprès d’un échantillon représentatif de population, afin de déterminer la valeur qu’ils accepteraient de payer pour éviter un risque.
  • La mesure des préférences révélées se fonde essentiellement sur des analyses de salaires sur le marché de l’emploi. Il s’agit d’isoler le sursalaire que perçoivent les employés exposés aux risques (par rapport à des emplois identiques équivalents). Par exemple, au zoo de Philadelphie, les soigneurs s’occupant d’éléphants touchent tous 1000 $ de plus par an car il s’agit d’un travail dangereux .

Chaque méthode a ses avantages et inconvénients : le problème de l’enquête étant le caractère hypothétique des réponses des interviewés, alors que l’analyse des salaires se heurte à la difficulté d’isoler le coût du risque dans les choix d’emploi.

tab_prix_vie

Globalement, les valeurs de la vie humaine retenues par les autorités publiques en Europe s’appuient sur les méthodes de préférences déclarées, alors qu’en Amérique du Nord les agences de régulation utilisent des valeurs issues d’études de préférences révélées , qui sont plus élevées :

  • En se basant sur l’analyse de plus de 1000 études de préférences déclarées, l’OCDE a déterminé en 2012 une valeur de référence de la vie humaine pour l’Union européenne de 3,6 millions de dollars , chiffre repris par la suite par certains pays européens dans leurs régulations.
  • Aux Etats-Unis, les données issues du marché de l’emploi concluent à un prix de la vie d’environ 9 millions de dollars : c’est à dire qu’un emploi donnant une chance sur 10 000 de mourir dans l’année donnera lieu à une compensation de 900$/an (par rapport à un emploi équivalent sans risque). Cet ordre de grandeur est globalement repris par les agences de régulation américaines.

Par Emmanuel Grand

Calcul du coût d’une vie humaine : des applications en France qui restent limitées

Une intégration au cadre de l’analyse socio-économique

Pour les pouvoirs publics, le concept de valeur de la vie humaine est principalement utilisé dans le cadre de l’analyse coûts-avantages (i.e. analyse socio-économique). Ces analyses de nature économique visent à quantifier, dans le cadre d’une décision à prendre, l’ensemble des coûts et des avantages attachés à chacune des options possibles, afin de les comparer entre elles. En pratique, cette quantification systématique permet de sommer les coûts et avantages afin d’obtenir pour chacune des options une valeur synthétique (en euros) comparable avec les autres options. Dans ce cadre, les biens non marchands (comme la sécurité, le bruit, l’air pur…) sont valorisés selon des prix de référence, comme la valeur de la vie humaine.

Un recours limité à l’analyse socio-économique

L’utilisation de l’analyse coûts-avantages s’est développée durant les dernières décennies en France : depuis 1984, tous les grands projets d’infrastructure de transport doivent faire l’objet d’une analyse socio-économique [1], et s’appuient donc sur une valeur de la vie humaine pour juger des investissements de sécurité. Cependant, ce type d’analyse est encore loin d’être systématique en France où de nombreuses décisions restent prises en l’absence de toute analyse socio-économique : en pratique, peu d’administrations françaises embrassent l’analyse socio-économique comme guide d’action.

Certains vont même plus loin et critiquent la pertinence même de l’analyse socio-économique, en pointant

  1. le caractère manipulable des calculs,
  2. l’ambition inachevable d’une normalisation de l’utilité sociale,
  3. l’inadaptation de l’analyse socio-économique aux processus de décision, souvent contraints par l’urgence.

A ces critiques s’ajoute particulièrement en France une vision consensuelle de bienveillance de l’action publique. Cette vision diffère nettement de celle des pays nordiques et anglo-saxons où la méfiance à l’égard de la puissance publique force celle-ci à justifier systématiquement son action, en démontrant la valeur ajoutée des investissements et régulations publics par rapport au laissez-faire. C’est donc naturellement dans ces pays que l’analyse socio-économique s’est développé de façon plus large.

Relativement aux autres pays développés, la France a donc un usage modeste de l’analyse socio-économique et par là des méthodes qui permettraient d’inclure la valeur de la vie humaine dans les décisions.

La fixation de valeurs tutélaires pour trancher des débats internes et suivre l’évolution du consensus économique

Il existe cependant un secteur de l’administration française où l’analyse socio-économique est traditionnelle : c’est le secteur des transports. Dirigé par des ingénieurs, le secteur des transports a eu tôt recours au point de vue de l’économiste pour justifier des investissements publics, et a été le moteur de la définition d’une valeur de la vie humaine par l’Etat. Depuis le début des années 1990, trois références successives ont été retenues comme valeur de la vie humaine, en réponse d’une part aux débats internes de l’administration française, et d’autre part à l’évolution de la recherche économique, quasi-exclusivement étrangère, sur le sujet :

  • La première valeur tutélaire de la vie humaine apparaît en 1994. Suite à un débat entre le ministère du budget et celui des transports sur la valeur des biens non marchands (sécurité, pollution, etc.), un groupe de travail est constitué afin de définir des valeurs uniques consensuelles pour ces biens non marchands. Le groupe de travail, organisé autour de Marcel Boiteux (ancien président d’EDF et économiste réputé), s’appuie sur la littérature économique de l’époque, qui mesure fondamentalement la valeur d’une vie à la contribution de l’individu au PIB. Le groupe de travail Boiteux conclut sur une valeur de la vie humaine équivalente à 650.000 euros.
  • Presque une décennie plus tard, au début des années 2000, les méthodes de recherche et les références internationales de valeurs de la vie humaine ont évolué. Le consensus universitaire retient désormais des valeurs issues de l’étude des comportements, qui sont plus élevées. De plus, une nouvelle controverse se développe entre le ministère des transports et celui de l’environnement sur les valeurs relatives du temps économisé, du bruit et de la sécurité dans l’analyse des projets de transport. Un groupe de travail est alors formé, à nouveau autour de Marcel Boiteux, qui conclut en 2001 à une valeur de la vie humaine de 1,5 millions d’euros.
  • Une nouvelle décennie s’écoule et c’est en 2012 qu’un nouveau groupe de travail est formé autour d’Emile Quinet pour redéfinir les valeurs de références de l’analyse socio-économique, suite à de nouveaux travaux internationaux qui réévaluent à la hausse les résultats des études comportementales. Une analyse comparative détaillée de l’OCDE sur la valeur de la vie humaine publiée en 2012 offre notamment une référence gouvernementale pour des valeurs plus élevées. Le groupe de travail Quinet fixe en 2013 une nouvelle valeur de la vie humaine de 3 millions d’euros pour la France.

« Force est donc de se jeter à l’eau. »

C’est avec cette phrase que Marcel Boiteux introduit en 2001 les conclusions du groupe de travail qui a redéfini la valeur de la vie humaine applicable en France. Les références retenues sont présentées comme imparfaites, sujettes à évolution en fonction des recherches économiques, mais indispensables. Marcel Boiteux reconnait l’incertitude, et les difficultés conceptuelles portées par la définition d’une valeur de la vie humaine [2], mais il affirme avec force que ne pas la prendre en compte revient à exclure la sécurité du débat. Il est pour lui indispensable de débattre et d’utiliser une valeur de la vie humaine. Seul un tel outil permet d’envisager d’atteindre un optimum économique dans l’emploi des ressources collectives affectées à la sécurité.

Un outil disponible mais peu employé

Il existe donc en France une valeur tutélaire (i.e. officielle) de la vie humaine : elle  a été fixée en 2013 à 3 millions d’euros [3] et évolue depuis au rythme de la croissance du PIB par habitant. Elle s’applique à toutes les évaluations publiques françaises, et porte l’ambition d’être l’outil d’une approche coordonnée des moyens à allouer à la sécurité.

La pratique du secteur public reste cependant très éloignée de cette ambition. S’inscrivant dans le cadre de l’analyse socio-économique, la valeur de la vie humaine en subit les limitations, comme l’indiquait en 2013 Jean Pisany-Ferry, le Commissaire général à la stratégie et à la prospective du gouvernement :

« Alors que la crise économique plaide pour un recours accru au calcul socioéconomique, son usage reste aujourd’hui limité. Il n’est systématique que dans le secteur des transports. La santé ne l’utilise que pour quelques cas particuliers et le secteur de l’énergie, qui doit absolument optimiser les investissements considérables nécessaires à la réalisation de la transition énergétique, en a quasiment oublié les principes. » [4]

Force est donc de constater que le recours limité à l’analyse économique empêche en France une approche globale de maximisation intersectorielle du nombre de vies sauvées par la collectivité.

Par Emmanuel Grand

[1] Loi n°82-1153 du 30 décembre 1982  d’Orientation des Transports Intérieurs (LOTI) rendant obligatoire la production de bilans socio-économiques et environnementaux, mise en œuvre par le décret 84 – 617 du 17 juillet 1984.

[2]  » Ces observations poussent à l’humilité. Les barèmes proposés ne peuvent prétendre à l’exactitude scientifique. On a fait ce qu’on a pu, avec les matériels disponibles – études publiées, pratiques étrangères, travaux en cours. » Marcel Boiteux, Une nouvelle étape dans la monétarisation des nuisances, 2002, p.5

[3] Le rapport Quinet, publié en 2013, utilise des données passées et a fixé la valeur de la vie humaine à 3 millions d’euros de 2010. Toute mise à jour ultérieure de cette valeur doit inclure l’évolution de l’inflation et du PIB par habitant par rapport à 2010.

[4] Commissariat Général à la Stratégie et à la Prospective, L’évaluation socioéconomique des investissements publics, 2013 – p.6

Un point de vue économique sur la sécurité

Pour le décideur en matière de sécurité, que ce soit l’ingénieur responsable d’un site industriel ou le régulateur définissant les obligations d’une industrie, chaque alerte ou accident renvoie à un arbitrage délicat sur le niveau de sécurité recherché : jusqu’où désirons nous réellement nous protéger du risque ? Dans un monde de ressources finies, nous ne pourrons jamais totalement supprimer l’ensemble des risques auxquels l’homme est confronté. Il y a donc nécessairement un niveau de risques, une borne, au-delà de laquelle nous renonçons à investir des moyens supplémentaires pour renforcer la sécurité.

Cette borne, et les arbitrages concrets qui lui sont associés entre (i) niveau de risques et (ii) moyens à engager pour les réduire, sont l’objet de vifs débats politiques, psychologiques, économiques, éthiques voire religieux. Le présent dossier vise à éclairer ces débats à travers la théorie et la pratique des sciences économiques. C’est donc en prenant résolument le point de vue de l’économiste que les articles qui suivent analysent les arbitrages réels des décideurs concernant la protection contre le risque le plus capital pour l’homme : le risque de mort.

Emmanuel Grand

L’absence de calcul économique tue

Des valeurs de la vie humaine qui varient

Dans la pratique, les autorités publiques utilisent implicitement des valeurs  de la vie humaine qui peuvent être très différentes les unes des autres. Comme le montre la sélection suivante, les valeurs implicitement retenues par les régulations américaines sur la sécurité peuvent varier d’un facteur de 1 à 10.000.

Coût par vie humaine statistique sauvée de certaines régulations de sécurité [Etats-Unis, 1970-1991] [1]

tab2_prix_vie
Coût par vie humaine statistique sauvée de certaines régulations de sécurité [Etats-Unis, 1970-1991]

Une action non-économique et non-coordonnée

L’existence de telles différences découle de la nature du processus de conception des régulations. Ce processus est fondamentalement non-économique et non-coordonné.

En matière de sécurité, les mandats donnés dans la loi aux agences de régulation et aux ministères mentionnent généralement un objectif d’amélioration de la sécurité, visant à minimiser un risque particulier : accident nucléaire, cancer, accident de la route, etc. Ces mandats, s’ils exigent une trajectoire continue de réduction des risques, ne demandent généralement pas (1) d’efficacité économique dans l’action, ni (2) de coordination budgétaire avec les efforts des autres branches des pouvoirs publics.

De ces mandats, il résulte :

  1. Une application non systématique, sporadique, de l’analyse socio-économique aux questions de sécurité, n’incluant donc pas une véritable réflexion sur la valeur (implicite) donnée à la vie humaine ;
  2. Une action généralement indépendante, en silo, de chacune des autorités intervenant sur les questions de sécurité.

L’absence d’analyse économique et de coordination est directement visible dans la formulation des mandats des agences de régulation. On pourra illustrer cet état de fait avec deux exemples :

  • En Europe, l’Autorité européenne de la sécurité aérienne a pour objectif « Une aviation civile toujours plus sûre et plus écologique » et « [sa] mission est de promouvoir les plus hautes normes communes de sécurité et de protection de l’environnement dans l’aviation civile » [2]. Les enjeux de coordination inter-agences et d’efficacité économique ne sont pas primordiaux.
  • Aux Etats-Unis, interrogée sur le besoin de réaliser une analyse coûts-avantages des régulations de l’Agence pour la Santé et la Sécurité au Travail, la Cour Suprême a répondu par la négative. Pour la Cour le mandat donné par le législateur à l’Agence est de produire des régulations qui améliorent la sécurité au travail et qui « peuvent être mises en œuvre » : elles n’ont pas à satisfaire une analyse coûts-avantages positive. L’agence n’a pas à fonder ses décisions sur une analyse économique.

La prise en compte limitée de la valeur explicite de la vie humaine dans les décisions, et l’absence de coordination entre agences, sont les raisons essentielles de ces larges variations dans les valeurs implicites de la vie humaine. Elles dénotent l’absence d’une vision globale et économique sur la question de la sécurité.

Une inefficacité meurtrière

D’un point de vue économique, cette variation dans les valeurs attribuées à la vie humaine montre une inefficacité de la dépense collective  en matière de sécurité. En effet, si une mesure dans la sécurité aérienne conduit à dépenser, par exemple, 30 millions d’euros chaque année pour sauver statistiquement une vie, alors qu’une autre mesure dans la sécurité routière peut sauver des vies avec un coût de 3 millions d’euros par vie, la décision d’affecter chaque année 30 millions à la sécurité aérienne plutôt qu’à la sécurité routière conduit à sauver une vie au lieu de dix, résultant dans une perte statistique de neuf vies. Il y a une inefficacité (et donc des vies inutilement perdues) lorsque les moyens ne sont pas systématiquement affectés aux actions qui apportent le meilleur « rendement » en termes de nombre de vies sauvées, quel que soit le domaine d’action.

Plus généralement, le fait de ne pas adopter une valeur unique de la vie humaine, appliquée de manière cohérente dans tous les domaines de l’action publique, conduit statistiquement à la mort de nombreux individus qui auraient pu être sauvés, avec les mêmes moyens.

Une quantification de cette inefficacité a été conduite dans les années 1990 par des chercheurs américains [3] : ils ont évalué 185 régulations de sécurité en vigueur aux Etats-Unis, qui avaient collectivement un coût de 21,4 milliards de dollars et sauvaient statistiquement 56.700 vies chaque année. En réaffectant simplement les mêmes ressources aux interventions les plus efficaces (celles dont la valeur de la vie humaine est la plus basse), ils ont montré que cela conduiraient à sauver non pas 56.700 mais 117.000 vies, soit un gain statistique de 60.300 vies par an.

Cet exemple n’est a priori pas isolé car l’organisation de la politique de sécurité dans la plupart des pays ne permet pas cette optimisation économique globale, via des politiques de régulation des risques (santé, travail, transport…) indépendantes les uns des autres, et une absence de recours au calcul économique. In fine, ne pas considérer une valeur de la vie humaine conduit à ne pas sauver – donc à tuer – un grand nombre d’individus.

Quand trop de sécurité tue

Au-delà des considérations relatives, certains universitaires affirment que trop dépenser en matière de sécurité peut conduire directement à tuer des gens. Kip Viscusi est l’universitaire américain de référence sur le sujet du prix de la vie humaine et son analyse défend l’existence d’une borne haute au-delà de laquelle les efforts de sécurité mandatés par la collectivité sont contre-productifs.

Viscusi considère que la mise en œuvre d’une nouvelle régulation de sécurité s’assimile à une réaffectation de moyens depuis (1) des revenus privés « libres » vers (2) une dépense contrainte visant au respect de la régulation. Or, il observe que l’espérance de vie des individus s’améliore systématiquement avec leur niveau de revenus. En devant plus riches, les hommes et les femmes allouent une part croissante de leurs moyens aux services de santé, réduisant leurs risques de mortalité. Pour Viscusi, il existe donc un point au-delà duquel à trop réduire les revenus privés « libres », on aboutit à réduire l’espérance de vie de la population de l’équivalent d’une vie statistique : selon ses recherches, ce point ce situe entre 15 et 50 millions de dollars aux Etats-Unis. Au moins une vie statistique est « perdue » à chaque fois qu’une régulation impose 50 millions de dépenses contraintes. Viscusi en déduit que toute régulation d’amélioration de la sécurité portant, implicitement ou explicitement, une valeur de la vie humaine supérieure à 50 millions de dollars va en fait augmenter le nombre de morts : la dépense contrainte de la régulation apporte moins de vies sauvées que la dépense « libre ».

Par Emmanuel Grand

[1] Ces valeurs ont été compilées à partir d’une revue de l’analyse coûts avantages attachées à chacune des régulations. Valeurs de la vie humaine statistique en US dollars (1995). Les bénéfices hors sécurité n’ont pas été pris en compte dans les calculs. Source: Viscusi, W. Kip and Gayer, Ted, « Safety at Any Price? ». Regulation, Vol. 25, No. 3, 2002

[2] Source : https://www.easa.europa.eu/the-agency/easa-explained (Consulté en janvier 2016)

[3] Tengs, Tammy O., & John D. Graham. 1996. “The Opportunity Costs of Haphazard Social Investments in Life-Saving,” in Robert W. Hahn, editor, Risks, Costs, and Lives Saved: Getting Better Results from Regulation. New York and Oxford: Oxford University Press; Washington, DC: The AEI Press.

Un exemple d’utilisation de valeurs différentes entre individus : le QALY

Une volonté de rationalisation de la santé publique

Dans le domaine médical, la question de l’attribution de ressources limitées pour sauver et améliorer des vies se pose de façon particulièrement aiguë et explicite depuis longtemps. A partir des années 1960, des économistes ont commencé à évaluer l’efficacité des soins offerts par les systèmes de santé, en particulier lorsque ceux-ci sont des systèmes publics où les soins sont financés par la solidarité nationale. L’objectif était de permettre une répartition optimale des ressources pour maximiser les bienfaits du système de santé sur l’ensemble de la population. Au Royaume Uni, cela a abouti à la fin des années 1990 à la création du NICE (National Institute for Health and Care Excellence), une institution publique chargée de d’évaluer les politiques de santé de faire des recommandations. C’est pour accomplir ses missions que le NICE a rapidement adopté l’utilisation du QALY (Quality Adjusted Life Year).

Une méthode pour mesurer la durée et la qualité de vie

Un QALY représente une année de vie en bonne santé. Le nombre de QALY d’un individu est donc une mesure du nombre d’années qu’il lui reste à vivre en bonne santé : il traduit donc à la fois la longévité et le niveau de santé attendus [1]. Pour calculer ce nombre de QALY, on pondère chaque année d’espérance de vie de l’individu d’un score reflétant son état de santé attendu : une année en parfaite santé est pondérée de 1 et une année passée dans un état proche de la mort est pondérée d’une valeur quasi-nulle.

Pour chaque individu, les statistiques médicales permettent d’évaluer son espérance de vie et l’état de santé associé à ses états futurs. Afin de pondérer de manière cohérente les années d’espérance de vie, une grille a été définie permettant de qualifier l’état de santé. La méthodologie retenue, EQ-5D, se base sur cinq critères qui font consensus comme traduisant la qualité de vie des patients :

  1. la mobilité,
  2. l’autonomie dans le soin de soi-même,
  3. la capacité à mener ses activités habituelles (travail, loisirs, études, etc.),
  4. la douleur et l’inconfort,
  5. l’état psychologique (anxiété, dépression).

Pour chacune de ces dimensions, trois niveaux sont possibles :

  • 1 (idéal),
  • 2 (problèmes)
  • 3 (problèmes extrêmes).

L’ensemble donne 35=243 possibilités auxquels on ajoute deux états particuliers : “inconscient” et “mort”. C’est cette grille de 245 états qui permet de juger systématiquement de la qualité de vie de chaque patient.

Un score est ensuite affecté à chacun des 245 états de la grille EQ-5D, représentant la valeur relative d’une année passée dans cet état par rapport à une année en parfaite santé, allant de 1 en parfaite santé à 0 en cas de mort [2].

Exemples de mesure du QALY au Royaume-Uni

tab3_prix_de_vie
Source : euroqol.org crosswalk value sets (adapté d’un jeu EQ-5D-5L V1.1)

Un recours aux préférences déclarées d’individus en bonne santé

La détermination du score QALY affecté à chacun des états de cette grille EQ-5D est faite par interrogation d’un groupe statistiquement représentatif d’individus. Trois types de mesures de préférences déclarées sont habituellement employés pour mesurer le QALY des différents états :

  • Visual Analog Scale : les personnes interrogées doivent directement donner le score qu’ils pensent juste pour un état donné, sans l’intermédiaire d’un scénario de mise en situation.
  • Time Trade-Off : les personnes interrogées doivent donner une préférence entre vivre plus longtemps dans un état dégradé ou vivre moins longtemps en pleine santé. On recherche alors le point où les interviewés sont indifférents entre les deux options, ce qui permet de déduire le score QALY dans l’état dégradé.
  • Standard Gamble : les personnes interrogées doivent exprimer une préférence entre rester malade dans un état dégradé ou tenter une intervention, avec un taux de succès connu, qui conduira à une rémission complète ou la mort. On recherche alors également le point d’indifférence entre les deux options pour en déduire un score QALY pour l’état dégradé.

Un outil pour faire des choix

L’existence de l’échelle de QALY permet ensuite de quantifier la différence entre une situation initiale et celle après un traitement thérapeutique, permettant de hiérarchiser les interventions médicales selon leur gain de QALY. En allant plus loin, dans une optique de maximisation du nombre de QALY pour la population, les interventions médicales peuvent être hiérarchisées selon leur gain de QALY par euro dépensé. A cette fin, NICE utilise une valeur maximum de référence de 20.000 £ à 30.000 £ par QALY gagné.

Des controverses méthodologiques et éthiques

D’un point de vue méthodologique, la méthode QALY reste controversée dans son évaluation des états de santé. Nombre de critiques applicables aux méthodes fondées sur les préférences déclarées sont applicables au QALY : comment obtenir par déclaration hypothétique un score QALY non entaché de biais ? Les personnes interrogées, en bonne santé, sont-elles bien placées pour juger de cas de handicap qu’elles ne connaissent pas ?

D’un point de vue éthique, la méthode QALY reste critiquée pour son caractère différentiant, qui assume pleinement le fait qu’un individu jeune a plus de valeur qu’un individu vieux, et amène à discriminer dans l’attribution de ressources contre les personnes les plus âgées. Ceci est un effet souhaitable pour les partisans de la méthode : ils arguent d’un droit de chacun à accéder à un total de QALY le plus égal possible au cours de sa vie. Qu’un individu soit vieux prouve alors simplement qu’il a bénéficié du système et a déjà accédé à ce à quoi il pouvait légitimement prétendre.

Par Emmanuel Grand

[1] La mesure du QALY fait l’hypothèse d’une préférence universelle pour une bonne santé et pour une vie la plus longue possible, et donc in fine pour une maximisation du nombre de QALY.

[2] Certains états jugés pires que la mort peuvent être affectés d’une pondération négative.

Quelle différence de valeur de la vie entre individus ?

Face à ces dilemmes, les gouvernements ont globalement répondu par la négative, conservant une valeur unique de la vie humaine. Le domaine de la santé fait cependant exception, avec le développement dans certains pays de la mesure des gains en années de vie en bonne santé, qui conduit à faire des différences profondes dans la valeur de la vie selon l’âge et l’état de santé de chacun.

Toutes les vies ont-elles la même valeur ?

Les valeurs de la vie humaine présentées jusqu’ici font référence à des valeurs uniques pour l’ensemble de la population. Une telle égalisation pose cependant questions sur deux plans :

  • D’un point de vue économique : les valeurs de la vie humaine mesurées sont-elles divergentes selon les groupes étudiés ? Certains individus font-ils des arbitrages richesse/sécurité différents ?
  • D’un point de vue éthique : la collectivité doit-elle prendre en compte plusieurs prix de la vie humaine ? La collectivité doit-elle par exemple allouer les mêmes efforts au sauvetage d’un enfant et d’un octogénaire ?

Trois caractéristiques principales ressortent de ces débats sur la différentiation du prix de la vie humaine : le niveau de revenus, l’âge, et l’état de santé ; chacune apportant des questions particulières, à la fois économiques et éthiques.

Les revenus : un déterminant clair de la valeur de la vie humaine, rejeté pour des raisons éthiques

Quelle que soit la méthode de mesure, le consentement à payer pour la sécurité augmente avec les revenus, montrant de façon robuste que les individus les plus riches placent une plus forte valeur sur la sécurité : ils achètent par exemple des voitures plus chères, mieux dotées en équipement de sécurité, et ils refusent également les travaux dangereux, souvent quel que soit le niveau de rémunération du risque.

De façon cohérente, ces différences dans la valeur de la vie humaine sont bien corrélées au niveau du PIB/habitant : les études s’appuyant sur le marché de l’emploi montrent par exemple une valeur de la vie humaine de 9 millions de US$ aux Etats-Unis, alors qu’elle n’est que de 230.000 US$ en Inde [1].

En matière de sécurité, les administrations nationales ne font cependant pas de distinction entre les individus sur la base de leurs revenus : elles incluent dans leurs analyses des valeurs de la vie humaine moyennées pour l’ensemble de la population quel que soit le groupe de personnes devant bénéficier de l’amélioration de sécurité. Cette absence de prise en compte des revenus se justifie éthiquement par un désir d’égalité dans l’accès à la sécurité, comme l’affirme en France le dernier rapport gouvernemental sur le sujet : « [la distinction selon les revenus] n’apparaît pas opportune du point de vue éthique.  […] Sauver une vie statistique, ou réduire le risque de décès, doit mobiliser la même somme d’argent quelle que soit la personne en jeu. » [2].

L’âge : un déterminant débattu de la valeur de la vie humaine

Les études fondées sur le marché de l’emploi (préférences révélées) montrent souvent une relation entre âge et valeur de la vie humaine statistique sous forme d’un U inversé : le consentement à payer augmente avec l’âge jusqu’à 45 ans avant de décliner pas la suite.

Une analyse de la valeur de la vie humaine selon l’âge aux Etats-Unis [3]

courbe_prix_de_vie
Source : Aldy, E. Joseph & Viscusi, W. Kip, « Adjusting the Value of a Statistical Life for Age and Cohort Effects », The Review of Economics and Statistics, Vol. 90, No. 3 (Aug., 2008), pp. 573-581

Cependant, les études de préférences déclarées ne confirment pas de façon robuste de relation entre l’âge des individus et leur valeur de la vie humaine [4]. Cette absence de consensus dans la population a d’ailleurs été rendue très visible aux Etats-Unis en 2003, lorsque l’Agence pour la Protection de l’Environnement américaine (EPA) a décidé, sur la base de certains travaux universitaires, d’appliquer une réduction de 37% de la valeur de la vie humaine pour les individus âgés de plus de 70 ans. Cette décision, décriée par la presse comme le « Senior Death Discount » [5], suscita un tollé et fut rapidement abandonnée au profit d’une valeur uniforme de la vie humaine.

L’état de santé : une prise en compte dans certains cas

Deux approches s’opposent souvent concernant les choix en matière de santé : allouer les mêmes moyens à tous les individus, ou privilégier ceux qui bénéficieront le plus des interventions. La première approche traduit une valeur de la vie humaine unique pour tous les individus, alors que la seconde indique des différences dans la valeur de la vie des personnes : par exemple, privilégier une personne de 30 ans sur une personne de 70 ans pour une greffe d’organe montre implicitement que le trentenaire a une valeur de la vie supérieure à celle du septuagénaire.

Cette seconde approche, qui conduit à faire une différence systématique dans la valeur de la vie des individus selon leur état de santé et leur âge, est en pratique utilisée dans de nombreux pays, dont la France [6]. Elle est justifiée par l’objectif de maximiser non pas le nombre de vies sauvées, mais le nombre d’années de vies gagnées [7]. C’est au Royaume-Uni qu’elle a été le plus formalisée avec la mesure systématique du nombre de QALY (Quality Adjusted Life Year) : chaque décision de santé est jugée à l’aune du nombre d’années de vie en bonne santé (QALY) qu’elle apporte.

Par Emmanuel Grand

[1] Madheswaran, S. , « Measuring the value of statistical life: estimating compensating wage differentials among workers in India », Social Indicators Research, Vol. 84, No. 1 (October 2007), pp. 83-96

[2] Commissariat Général à la Stratégie et à la Prospective, « L’évaluation socioéconomique des investissements publics : Rapport de la mission présidé par Emile Quinet », Sept. 2013, p.106

[3] Valeur de la vie humaine, ajusté des effets de cohorte

[4] Cf. OCDE, opus cité, p.62

[5] https://www.washingtonpost.com/archive/business/2003/05/13/under-fire-epa-drops-the-senior-death-discount/e14279ed-9109-40e5-998b-fd3a1620799c/

[6] En France, la méthodologie QALy est notamment employée par la Haute Autorité de la Santé (HAS) – Cf. HAS, Service de l’évaluation économique et de santé publique, « Choix méthodologiques pour l’évaluation économique à la HAS », 2011.

[7] Les partisans de cette approche font notamment remarquer que toute vie étant finie, les moyens dépensés en santé et sécurité ne font que gagner du temps face à la mort, et que dans ce cadre l’objectif de la collectivité doit être de gagner collectivement le maximum de temps de vie.

Pourquoi une valeur de la vie humaine ?

Une origine au cœur de la guerre froide

En 1949, pour la première fois, des économistes sont enrôlés par la US Air Force pour conseiller la stratégie militaire des Etats-Unis. En ce début de guerre froide, l’URSS vient de faire exploser sa première bombe atomique affirmant son égalité avec les USA en la matière.

guerre_froide_USA_URSSLe plan d’attaque nucléaire américain vers l’Union soviétique doit alors être revu de fond en comble, afin de prendre en compte ses nouvelles capacités, et garantir une destruction totale qui empêcherait des représailles significatives.

Des mathématiciens et économistes de la RAND Corporation sont alors embauchés pour conduire une analyse de recherche opérationnelle sur ce sujet, afin de déterminer une stratégie d’attaque optimale pour l’US Air Force. Ils doivent modéliser les combats aériens, les impacts des bombardements, l’utilisation des bases au sol, la logistique des armements et des fuels, etc… L’objectif est d’obtenir la meilleure chance de destruction totale des forces soviétiques, sous la contrainte d’un budget maximum. Les chercheurs construisent un modèle complet et conduisent 400.000 simulations, en utilisant pour la première fois des ordinateurs. Ils concluent que la meilleure stratégie est d’employer un très grand nombre d’avions à hélice rudimentaires : une minorité porterait des armes atomiques, mais la majorité en serait dépourvus agissant comme des leurres. Le très grand nombre d’avions saturerait les défenses soviétiques, et même si les pertes d’avions seraient très élevées, les objectifs de destruction seraient atteints avec assurance.

La présentation de ces recommandations aux généraux de l’US Air Force fut une débâcle absolue. Les généraux, pour la plupart anciens pilotes, refusèrent une stratégie qui impliquait le sacrifice de milliers de pilotes dans des avions sans défense. Les chercheurs réalisèrent ensuite, un peu tard, qu’ils n’avaient pas donné de valeur à la vie des pilotes dans leur modèle.

Si le modèle d’optimisation de l’US Air Force était définitivement enterré, ce n’était que le début d’un nouveau questionnement pour les économistes américains [1], qui allaient par la suite s’intéresser de manière croissante à ce sujet. Si la valeur d’une vie statistique n’était pas nulle comme les généraux l’affirmaient, elle n’était pas non plus infinie car tous les moyens de l’armée sans exception n’était pas concentrés pour sauver chaque soldat. Il y avait donc un arbitrage implicite entre vie humaine et moyens financiers, qui impliquait l’existence d’une borne : une valeur de la vie humaine.

Une vie statistique

La vision des généraux américains de la guerre froide, et celle des économistes depuis lors, s’intéresse à la valeur de la vie d’un individu avant la réalisation de l’événement potentiellement mortel. Cette vision est très différente de celle du sauveteur en mer ou du pompier qui à l’heure du danger engage tous les moyens dont il dispose pour sauver des vies. Pour l’économiste, la valeur d’une vie statistique correspond aux ressources à engager ex ante pour réduire les risques de façon à sauver, en moyenne, une vie ; comme par exemple construire des phares le long de la côte, ou recruter des pompiers. Cette vision s’appuie sur des statistiques de risques observés (ex. nombre d’incendies, naufrages) et vise à quantifier en moyenne l’arbitrage réalisé entre le niveau de sécurité attendu et les ressources allouées.

Un choix implicite

Cet arbitrage entre sécurité et richesse disponible existe pour la plupart des individus et des sociétés : peu d’entre nous renoncent à tout confort et plaisir pour consacrer toutes nos ressources à la réduction des risques de la vie – une vie qui n’aurait alors plus grande saveur. Ce choix entre sécurité et richesse est réel même s’il est souvent implicite. Par leurs décisions en matière de sécurité, les pouvoirs publics et les individus donnent régulièrement une valeur à la réduction des risques :

  • Pour un individu, l’achat (ou pas) d’un airbag en option sur sa voiture ou le choix éventuel d’une compagnie aérienne plus chère mais plus « sûre » sont révélateurs de cet arbitrage entre risques et dépenses,
  • Pour les pouvoirs publics, la mise en œuvre (ou pas) d’investissements dans des glissières de sécurité sur la route, ou de normes de sécurité renforcées sur les avions, montre également un arbitrage entre sécurité et dépenses à la charge de la collectivité.

Une question de politique publique

Au-delà des variations entre individus qu’il peut exister en matière de préférence pour la sécurité, et donc de valeur de la vie humaine, la détermination d’une valeur de la vie est une question concrète de politique publique. Pour l’Etat, donner une valeur à la vie humaine statistique (c’est à dire pour l’ensemble de la population) synthétise la préférence collective pour la sécurité et forme un guide précieux pour décider d’investissements et de régulations visant à réduire les risques – comme par exemple décider de fermer une usine dangereuse ou au contraire préserver ses emplois.

Par Emmanuel Grand

[1] Sans surprise, le premier universitaire américain qui a publié sur le sujet de la valeur de la vie humaine est un ancien conseiller de la RAND Corporation : Thomas Schelling, « The Life You Save May Be Your Own. » (1968)