Prolongation des centrales nucléaires : une non-surprise !

Pourquoi prolonger de 10 ans l’exploitation d’un réacteur nucléaire ? Le principal argument est qu’au-delà de ses 40 années de fonctionnement, l’installation est amortie financièrement et représente donc un bénéfice net pour son exploitant, en l’occurrence Electricité de France (EDF). Son principal actionnaire, l’Etat à hauteur de 84,5%, a donc un intérêt certain à la prolongation de ces outils de production qui lui procure une manne financière. D’autant qu’en période de vache maigre, EDF a fait office de vache à lait : l’Etat a perçu environ 20 milliards d’euros de dividendes sur les 10 dernières années.

Pas de plan B

Par ailleurs, le secteur énergétique est un paquebot : il est victime d’une forte inertie en raison des lourds investissements qui imposent le temps long. Arrêter des réacteurs nucléaires suppose de construire des moyens de production nouveaux pour équilibrer le réseau, les importations étant limitées. Or, les prix sur les marchés de gros de l’électricité se sont écroulés ce qui rend tout investissement non-profitable sans subvention. De plus, il ne s’agit pas de compenser l’arrêt d’un ou deux réacteurs : Après Tricastin en 2019, ce sont 5 à 7 tranches par an à partir de 2020 qui fêteront leurs 40 ans. Pour les 10 premières tranches, cela représente environ 9 000 MWe qu’il faudrait compenser. Et ce, sachant qu’1 MWe éolien ne correspond pas à 1 MWe nucléaire en termes de production puisque le taux de charge (temps de production effectif/temps total) de cette énergie renouvelable est bien plus faible (de l’ordre de 25% contre 80% pour l’atome). Il faudrait donc installer énormément d’énergies renouvelables et des centrales thermiques, en un temps record, pour compenser l’arrêt d’une partie du parc nucléaire. Une option qui, malgré un récent soutien public aux énergies renouvelables, n’a jamais vraiment été étudiée sérieusement par les gouvernements successifs, juge et partie dans cette affaire.

Grand carénage

EDF travaille donc depuis des années à un plan d’exploitation au-delà des 40 ans, à l’image des compagnies nucléaires américaines. A la différence que la France a élaboré sa propre doctrine de sûreté nucléaire. Comme l’a rappelé Pierre Franck Chevet, directeur de l’ASN : « la prolongation des réacteurs n’est nullement acquise ». Pour l’ASN, la condition primordiale de la prolongation est que l’exploitant réalise un certain nombre d’améliorations pour que l’installation se rapproche le plus d’une centrale neuve (type EPR) en termes de sûreté. C’est ce qu’EDF a appelé son « grand carénage », un plan d’investissements de 55 milliards d’euros, qui consiste à remplacer des composants fondamentaux, et à améliorer les dispositifs de sûreté. Un montant revu largement à la hausse par la Cour des comptes : 100 milliards d’euros. De fait, la décision de prolonger l’exploitation des centrales nucléaires françaises pourrait davantage être influencée par le coût économique d’une telle décision pour EDF qui se trouve déjà dans une situation financière compliquée. En plus du grand carénage, le groupe doit gérer d’autres variables comme le rachat de la partie Réacteur d’Areva (imposée par l’Etat), le projet Hinkley Point, ou Cigéo entre autres. Une équation insoluble pour son président, Jean-Bernard Lévy, qui assure pourtant pouvoir mener de front tous ces chantiers.

Romain Chicheportiche

I.A. et politique : des discours bientôt écrits par un algorithme ?

Bientôt, il ne sera peut-être plus nécessaire d’être un as de la joute oratoire pour écrire un discours : un algorithme se chargera de le générer à votre place. Etudiant-chercheur à l’Université du Massachusetts à Amherst, Valentin Kassarnig a ainsi conçu un programme qui “peut concevoir des discours politiques pour un parti politique spécifique” – autrement dit, adapter un discours au parti de l’utilisateur (républicain ou démocrate). “Le système permet en outre de spécifier si le discours doit exprimer un avis favorable ou défavorable”, indique l’auteur de ce système.

Calculer la probabilité d’apparition d’un mot

Pour créer son algorithme, l’étudiant a regroupé plus de 4000 discours politiques, prononcés au Congrès américain, dans la même base de données. En tout, 50 000 phrases, chacune étant composée de 23 mots en moyenne. Le programme de génération de discours est basé sur plusieurs méthodes de traitement automatique des langues (TAL), dont le modèle mathématique des chaînes de Markov, et les n-gramme – des sous-séquences de n éléments, construits à partir d’une séquence donnée.

A partir d’un corpus d’apprentissage, les n-gramme permettent de calculer la probabilité d’apparition d’un mot, d’une séquence de mots ou de phrases. Dans le cas d’un générateur de discours, cette méthode permet ainsi d’adapter le champ lexical du texte à une couleur politique.

Mis en ligne sur Github, l’algorithme de Valentin Kassarnig, n’en reste pas moins perfectible, les allocutions obtenues restant assez approximatives. Ainsi, les discours exposés dans l’article scientifique du chercheur semblent terriblement vrais, mais ne sont pas toujours très cohérents – ne permettant pas, par exemple, de prendre en compte l’avis défavorable du locuteur vis-à-vis du sujet abordé.

Pour résoudre ce problème, le chercheur en herbe a proposé aux internautes de l’épauler, afin de perfectionner son “intelligence artificielle”. Jusqu’à générer un jour, il l’espère, “des posts de blog” ou des “articles d’information”.

Par Fabien Soyez

Des riverains agricoles exposés aux pesticides

22 échantillons de poussières ont été prélevés en juillet 2015 chez des riverains de zones agricoles grâce à des kits de prélèvement fournis par Kudzu Science. 5 échantillons supplémentaires ont été prélevés en janvier 2016, afin d’évaluer la persistance des pesticides dans une partie de ces mêmes foyers.

En moyenne, près de 20 pesticides ont été détectés dans chaque habitation, dont 12 susceptibles d’être des perturbatureurs endocriniens, selon la base de données TEDX. Trois pesticides sont retrouvés dans tous les foyers  (perméthrine, tebuconazole et dimethomorph), ainsi que le diuron dans 90 % des cas, bien qu’interdit en France depuis 2008. Si certains pesticides proviennent d’usages de pesticides et biocides à la maison ou dans les jardins, les résidus retrouvés (à part la perméthrine et la cyperméthrine) semblent provenir pour la quasi-totalité d’un usage extérieur et très probablement d’un usage agricole.

Dangereuses poussières de pesticides  ?

La plus faible concentration relevée est de 0,27 mg de pesticides par kg de poussière ; la plus forte de 112,7 mg/kg. Soit 0,1 % de pesticides dans cet échantillon de poussière. La moyenne se situe à 17,6 mg/kg, dont 17,3 mg de perturbateurs endocriniens potentiels, soit près de 0,002 %. La concentration totale des pesticides quantifiés diminue entre l’été et l’hiver, entre 30 % et 95 %, ce qui montre que la concentration diminue, mais que l’exposition est chronique tout au long de l’année.

« Ce sont les éventuels niveaux de résidus de pesticides retrouvés dans les aliments et pour lesquels les évaluations de risque démontrent une absence de risque pour le consommateur », essaye de rassurer le Collectif d’agriculteurs Sauvons les Fruits et Légumes de France dans un communiqué. Néanmoins, les études toxicologiques portant sur ces produits s’intéressent aux expositions aiguës ou à long-terme sur des concentrations élevées. Les données concernant les effets des expositions chroniques à de faibles doses sont très peu documentées. Par ailleurs, les matières actives des pesticides sont évaluées substance par substance, sans prendre en compte l’effet cocktail lié à un mélange de pesticides.

Malgré le faible nombre d’échantillons et le fait que cette enquête « ne prétend pas être parfaitement représentative de l’exposition à des pesticides agricoles de l’ensemble des personnes vivant en zone agricole cultivée de manière intensive », les résultats semblent robustes et complètent les informations qui ont déjà été obtenues par ailleurs. « Pour 6 molécules analysées dans ce rapport et recherchées par ailleurs par l’Observatoire de la Qualité de l’Air Intérieur dans les poussières sédimentées de 145 logements, les fréquences de détection de notre étude sont identiques ou très proches de celles de l’OQAI », précise le rapport de l’étude.

A la vue de ces résultats, Générations Futures insiste sur la nécessité de protéger les enfants, mais aussi les populations sensibles, notamment les femmes enceintes et, plus largement, les femmes en âge de procréer. « Il ne faut pas arrêter de traiter qu’à côté des écoles, mais aussi près des habitations où vivent les femmes en âge de procréer, alerte François Veillerette, porte-parole de Générations Futures. Sinon on refait la même erreur qu’avec le bisphénol A : on a d’abord retiré les biberons, mais pas les boîtes de conserve ». Sans cette prévention, les futures mères contamineront inexorablement leurs enfants à naître. L’association interpelle également le Gouvernement français, afin qu’il agisse urgemment auprès de la Commission européenne pour définir les critères qualifiant les perturbateurs endocriniens.

Par Matthieu Combe, journaliste scientifique

Lisa Pathfinder : au plus près des ondes gravitationnelles

Après l’annonce faite le 11 février dernier de la première détection d’ondes gravitationnelles voir cet article, le petit satellite Lisa Pathfinder, lancé le 3 décembre 2015, a été mis sous le feu des projecteurs. En effet, Lisa Pathfinder doit valider le concept de la détection des ondes gravitationnelles dans l’espace par interférométrie optique. Des technologies dont la mise en œuvre à grande échelle sont prévues lors de la mission eLISA (evolution-LISA) programmée par l’agence spatiale européenne (ESA) en 2034.

Passer du côté sombre de l’Univers

LISApathfinderL’ambitieuse mission eLISA a pour but de scruter l’univers à travers le prisme des ondes gravitationnelles, ces déformations de l’espace-temps prédites il y a 100 ans par la théorie de la relativité générale d’Einstein. La mission consistera à placer 2 à 3 satellites, espacés de quelques 5 millions de kilomètres et formant un gigantesque interféromètre optique. Le passage d’une onde gravitationnelle sera mesuré par des modifications infimes de distance entre 2 masses en chute libre, placées aux extrémités de chaque bras de l’interféromètre. Dès lors on n’observera plus l’espace depuis des variations de la lumière ou d’ondes électro-magnétiques, mais à travers des ondes émises par des phénomènes sans lumière tels que les trous noirs. Une ouverture sans précédent vers le côté sombre de l’univers.

Un pionnier à vie courte

Le démonstrateur Lisa Pathfinder est en fait un modèle réduit d’un bras de l’interféromètre prévu en 2034. Sa mission scientifique en tant que telle doit durer six mois à compter du 1er mars 2016. Durant tout le mois de février la communauté scientifique a suivi avec passion et appréhension la mise en place et les premiers tests des outils embarqués. Notamment le 17 février, la libération des deux cubes identiques d’or et de platine de 46 mm qui flottent désormais librement, dans le vide (10-5 Pascal) à 4mm des parois de l’habitacle et espacés de 38 cm l’un de l’autre (espace mesuré au picomètre près). Ils sont reliés entre eux par des faisceaux lasers chargés de rectifier leur position en fonction des perturbations autres que les ondes gravitationnelles qui pourraient les affecter.

Des technologies à la précision inégalée

Le Lisa Technology Package (LPT) est un instrument embarqué permettant de parer les effets d’autres forces qui s’exercent sur le satellite, comme les photons du Soleil et les rayons cosmiques qui peuvent engendrer des perturbations électrostatiques. lisaPlusieurs systèmes sont ainsi chargés d’assurer un vide constant et une décharge électrostatique. Par ailleurs, un système conçu par la Nasa, le DRS (pour Disturbance reduction system) est chargé d’ajuster la poussée du satellite via des mini-propulseurs afin qu’il garde une trajectoire uniquement influencée par les forces gravitationnelles (c’est en fait une trajectoire géodésique) en fonction des informations fournies par LPT. L’ensemble de ces instruments font de Lisa Pathfinder un petit bijou technologique.

Par Sophie Hoguin

Quelles sont les meilleures écoles d’ingénieurs ?

Et le grand vainqueur 2015 est… Lorraine INP ! Le regroupement de 11 écoles d’ingénieurs lorrains vient donc de passer devant Grenoble INP et Insa Lyon respectivement deuxième et troisième du classement. Mais au-delà du simple palmarès, le classement d’Industries et Technologies a surtout l’avantage de s’inscrire dans le temps et d’éclairer ainsi les relations entre écoles d’ingénieurs et innovation.

Recherche : plus de doctorants, plus d’investissements

Alors que le nombre de doctorants et post-doctorants avait accusé une baisse en 2012, il est depuis reparti à la hausse et leur nombre en 2014 est même désormais supérieur à celui de 2009 : 15259

Année Nombre de doctorants et post-doctorants (dans les 100 premières écoles du classement effectué)
2009 14629
2010 14570
2011 14168
2012 12587
2013 13425
2014 15259

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Le nombre de doctorants reste un indicateur notable du dynamisme de la recherche. Leur ré-augmentation s’accompagne d’ailleurs d’une augmentation constante des contrats de recherche signés avec les entreprises (voir tableau). Un système de financement qui structure une bonne part de la recherche des écoles d’ingénieurs et permet à ces écoles de continuer d’offrir des formations de qualité et de préserver des activités de laboratoires.

Année Montant global des contrats de recherche (millions d’euros) – (dans les 100 premières écoles du classement effectué)
2009 481
2010 464
2011 487
2012 576
2013 645
2014 678

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Brevets : stables à un bon niveau

Le nombre de brevets déposés est plutôt stable et prouve l’excellence de la recherche développée au sein des ces écoles d’ingénieurs. En la matière la championne est l’ESPCI ParisTech (école de physique chimie de Paris) avec 257 brevets déposés en 5 ans. Comme le soulignent la rédaction d’Industries et Technologies, le regroupement des 100 premières écoles, permet de réaliser que la France n’a rien à envier aux plus grands instituts internationaux en matière de recherche et d’innovation.

Année Nombre de brevets (dans les 100 premières écoles du classement effectué)
2009 1945
2010 1953
2011 2351
2012 2477
2013 2757
2014 2508

(sources : enquête annuelle des écoles d’ingénieurs d’Industries et Technologies, CDEFI, IESF)

Rendre visible l’excellence française

Depuis plusieurs années, l’enseignement supérieur et la recherche française souffrent de leur morcellement dans les classements internationaux et dans leur capacité à être à la fois visible et attractifs. Le groupe INP, qui structure désormais les regroupements régionaux INP Lorraine, Bordeaux, Toulouse, Grenoble est une première réponse efficace à cette lacune. Et le classement d’aujourd’hui le montre : atteindre une taille critique permet aux écoles d’être reconnues et renommées et de booster leurs performances tant d’un point de vue éducatif que du côté des entreprises. Du côté de Paris, les choses sont plus compliquées et au bout de 15 ans ParisTech passe de statut d’établissement public à celui de fondation. La marque elle-même qui a pourtant fait ses preuves vient d’être retirée de l’ESPCI qui sera désormais ESPCI Paris. Il faut dire qu’en région parisienne l’ancrage régional est moins évident. Chaque école à sa propre histoire et culture, et ne fait pas forcément partie de la même communauté universitaire. Sans compter le grand projet d’excellence du plateau de Saclay ou l’avenir de Polytechnique qui sont sans cesse en évolution.

Tout est fait pour entreprendre dès les études

Le dossier qui accompagne ce classement est éloquent : tout est désormais mis en place pour que les étudiants deviennent des entrepreneurs aguerris. Et ce dès le début de leurs études : que ce soit via le statut d’étudiant-entrepreneur au sein de PEPITE qui se concrétise à Toulouse INP par un cursus aménagé, de parcours spécifiques comme à Bordeaux INP, de double formation à Lorraine INP ou encore avec le lancement de MOOC à l’X avec un partenariat avec HEC. En outre, les écoles accueillent désormais souvent des incubateurs pour les start-up de leurs propres élèves ou de jeunes diplômés. A ce jeu de la création de start-up, Télécom ParisTech arrive première avec 146 créations d’entreprise depuis 2010.

Par Sophie Hoguin

Zika : l’épidémie se mondialise, les mesures s’organisent

Depuis fin 2015, le virus Zika fait régulièrement la Une de l’actualité. La pandémie qui s’annonce a commencé en mai 2015 par une épidémie locale dans le nord-ouest du Brésil. Elle s’est rapidement propagé à tout le pays. L’Organisation mondiale pour la santé (OMS) estimait fin janvier 2016 que le Brésil comptait plus d’1,5 million de cas et vient d’annoncer que ce chiffre devrait atteindre 3 à 4 millions d’ici la fin de l’année. Aujourd’hui Amérique latine, Antilles, Caraïbes sont touchées et les premiers cas en Asie arrivent.

Qui est Zika ?

Le virus Zika est un arbovirus (virus transmis par les insectes) du genre flavivirus comme celui de la dengue ou de la fièvre jaune. Identifié en 1947 sur un singe Rhésus en Ouganda et repéré en 1952 pour la première fois sur l’homme, il était considéré jusqu’alors comme un virus émergent. Transmis par les moustiques, principalement du genre Aedes, il provoque une fièvre modérée, parfois une éruption cutanée, une conjonctivite et des douleurs musculaires et articulaires. Les symptômes disparaissent en 2 à 7 jours et certaines personnes sont asymptomatiques. La durée d’incubation de quelques jours n’est pas précisément connue.

Pourquoi inquiète-t-il ?

Accueilli au départ comme une fièvre de plus après la dengue, ou le chikungunya, la fièvre Zika a commencé à provoquer de vraies peurs à l’annonce des risques secondaires : risque accru de microcéphalie des enfants à naître et risque accru de développer un syndrome de Guillain-Barré (le SGB est une grave paralysie auto-immune parfois irréversible voire mortelle). Dans les deux cas, la relation n’est pas formellement prouvée mais très fortement suspectée en raison de la corrélation entre les épidémies de fièvre Zika et l’augmentation d’apparitions de cas de microcéphalies et SGB (par exemple en Polynésie en 2013 où les autorités n’ont pas pris la mesure de la menace comme l’explique cet article de France24. Ainsi, le Brésil signalait, mardi 23 février, une augmentation nette des cas de microcéphalie : depuis octobre 2015, 583 naissances confirmées de nourrissons microcéphales alors que la moyenne nationale annuelle est de 150. Il reste en outre plusieurs milliers de cas suspectés.

Diverses rumeurs sont nées autour de ces corrélations, pour les parer, l’OMS consacre d’ailleurs toute une page internet à rétablir certaines vérités (voir les rumeurs)

Quant à la transmission par voie sexuelle, la question n’est pas encore totalement tranchée, même s’il semble que cela puisse être le cas.

Quels sont les moyens de lutte ?

A ce jour, aucun moyen spécifique n’existe pour lutter contre Zika. Les moyens employés sont les moyens habituels de lutte contre les moustiques : épandage massif de pesticides, de larvicides et chasse aux points d’eau stagnantes. (Un reportage éloquent sur les efforts à déployer en la matière). Pour les habitants et voyageurs, on conseille répulsifs et moustiquaires. Les premiers vaccins sont déjà dans les tuyaux tant cette fois la réaction est rapide et forte, mais il faudra tout de même attendre presque deux ans pour que le premier ait passé les essais cliniques (Les Echos ont d’ailleurs fait un point intéressant sur le sujet).

Zika arrivera-t-il en France métropolitaine ?

Sans aucun doute. A l’heure actuelle, des cas ont été recensés sur tous les continents, y compris en Europe où la République Tchèque vient d’annoncer ses deux premiers cas (retours de la zone Antilles-Caraibes). Mais pour faire épidémie il faut que les moustiques puissent se reproduire sur place. En France métropolitaine, les moustiques, et plus particulièrement Aedes albopictus (moustique tigre), présent dans le sud de la France (et même ponctuellement rencontré en région parisienne l’été dernier), se reproduit de mai à novembre. C’est donc à ce moment là que l’épidémie pourrait se produire. En attendant, les autorités font le tour des territoires d’outre-mer déjà bien touchés (voir cet article de Libération) et prennent des mesures d’accompagnement, telle que la prise en charge à 100% d’échographies supplémentaires pour les femmes enceintes annoncée par la ministre de la santé jeudi 25 février.

Par Sophie Hoguin

« Solar serpent » : une route solaire qui élimine la pollution de l’eau, le bruit, et capture les particules fines

L’idée est tellement simple qu’il fallait juste y penser : recouvrir les routes d’ombrières solaires photovoltaïques. Le projet de « serpent solaire » (Solar Serpent) a été pour la première fois présenté lors de la conférence « Toward a Just Metropolis » de l’UC Berkeley (University of California) le 18 juin 2010. Et de nombreuses fois depuis, suscitant partout un fort enthousiasme du grand public.

serpent_solaireLes automobilistes peuvent apprécier confortablement le paysage des deux côtés de la route. Seul le ciel est remplacé par les cellules photovoltaïques. Un tamisage intelligent laisse passer une partie de la lumière du jour. On a ainsi pas du tout l’impression d’être dans un tunnel. Aucun risque de claustrophobie. Les cellules PV pouvant aujourd’hui être transparentes, il est aussi possible de rendre le serpent presque invisible.

Le serpent est un squamate, du latin squama, écaille. Les panneaux solaires constituent les écailles de cette route nouvelle génération qui serpente au gré du relief. Les ophidiens sont des animaux qui muent : ils changent de peau. Une belle métaphore de la révolution énergétique qu’il nous faut mener pour construire une société vraiment durable.

serpent solaire_peripherique_copywright mans tham_small
Mans Tham Architectes, www.manstham.com

En juin 2011, un an après la révélation du concept de Måns Tham, la Belgique inaugurait le premier serpent solaire du monde au niveau d’une voie de TGV. Ceci pour un coût d’investissement de 15 M€ et une puissance installée de 4 MW, soit de 3,8 €/W. Le même projet, compte tenu de la chute vertigineuse des coûts du solaire PV entre 2010 et 2015, coûterait aujourd’hui entre 2 et 2,5€/W. Ce reptile solaire belge a également permis de « faire les gros titres de la presse internationale » souligne l’entreprise Enfinity sur son site officiel.

La même approche est également appliquée au niveau des parkings, avec des ombrières solaires : c’est par exemple ce qu’a fait l’aéroport de Montpellier à un coût de 8 M€ pour 4,5 MW, soit 1,8 €/W (2014). Le même projet coûterait aujourd’hui (2016) moins d’1,5 €/W. Au Liban, un « serpent solaire » a été installé sur la rivière qui traverse Beyrouth (« Beirut River Solar Snake », BRSS), ce qui a comme conséquence positive de réduire l’évaporation de l’eau.

Les cellules photovoltaïques du serpent ont un rendement optimal, ce qui constitue un énorme avantage comparativement aux routes solaires où les cellules PV sont placées au sol : Solar Roadways aux USA, SolarRoad aux Pays-Bas et Wattway en France (6€/W). En effet, le serpent ne subit pas d’ombrage et beaucoup moins de salissure. Il est possible d’orienter correctement ses écailles vis-à-vis du soleil, il bénéficie d’un refroidissement aérien qui optimise le rendement photovoltaïque, et personne ne vient l’écraser, ce qui augmente considérablement sa durée de vie. Chaque euro investi permet ainsi de produire beaucoup plus d’électricité à un coût bien plus faible.

L’intérêt écologique est évident : moins d’activité minière et industrielle polluantes car moins de consommation de matière première par unité d’électricité produite. Dont l’élément argent, le seul élément du photovoltaïque véritablement limitant, selon le MIT (rapport « The Future of Solar », 2015), si la filière était développée à l’échelle de dizaines de TW à l’échelle mondiale. Mais d’autres intérêts majeurs découlent de cette approche particulièrement pertinente.

Durée de vie et maintenance des routes

La toiture solaire protège la route des agressions météorologiques.

« Solar serpent » : une route solaire qui élimine la pollution de l’eau, le bruit, et capture les particules finesLa route n’étant plus exposée au soleil, le bitume ne fond pas durant les périodes chaudes. Les agressions hydriques (érosion par ruissèlement) sont également éliminées. L’eau, absente, rend les périodes de gel moins dévastatrices. Les variations thermiques sont atténuées, réduisant ainsi les cycles de dilatation/contraction destructeurs. Et les très puissants Ultra-Violets sont stoppés.

Selon les sites et les sources, le coût d’une autoroute 2 x 2 voies et d’une largeur roulable de 11 mètres coûte en France entre 5 et 25 millions d’euros du kilomètre, le haut de la fourchette concernant les milieux montagnards. Auquel s’ajoute des frais d’entretien annuels de 70.000 à 100.000 € par kilomètre. Pouvoir protéger une infrastructure aussi coûteuse a donc un intérêt majeur.

Il y a en France 7850 km d’autoroutes à péage, 1100 km d’autoroutes non concédées par l’état, 11 800 km de routes nationales, 383.000 km de routes départementales et 550.000 km de routes communales. En retenant une hypothèse de 85.000€/km, la maintenance des 8950 km d’autouroutes coûte 23 milliards d’€ en 30 ans. Dans l’hypothèse (bas de la fourchette) d’un coût d’investissement de 5 M€/km, elles pèsent 45 milliards d’€.

Le toit solaire peut s’étendre au-delà de la bande roulable, d’où une largeur retenue ici de 16 mètres. Ce qui, avec une longueur de 8950 km, correspond à une surface de 143 kilomètres-carrés. En retenant la même densité de puissance que la centrale solaire de Cestas (300 MW sur 2,6 km2, 115 W/m2), les autoroutes françaises, a elles seules, permettraient d’installer une puissance solaire PV d’un peu plus de 16 GW. Soit 2 fois et demi la puissance PV totale actuellement en place en France. Et on peut considérablement augmenter la mise en intégrant les routes nationales.

Sur la base de l’expérience belge susmentionnée, on peut retenir un coût d’environ 2,5€/W (tout compris) pour une centrale solaire en toiture d’autoroute, contre 0,8 €/W pour du PV classique au sol. Mais le surcoût d’1,7€/W peut être compensé par l’augmentation de la durée de vie de l’autoroute et la réduction de son coût de maintenance. 16 GW à 1,7€/W ce sont 27 milliards d’€. C’est 60% du coût d’investissement de l’autoroute. Autrement dit si la toiture solaire augmente d’un facteur 1,6 la durée de vie de l’autoroute, alors le coût de la structure porteuse est compensé. Et comme cette toiture diminue copieusement les frais de maintenance annuels l’équation économique devient encore plus favorable. Et c’est pas fini…

Qualité de l’air

La pollution de l’air en France, pays où le parc automobile est fortement dieselisé, coûte chaque année plus de 100 milliards d’euros. Deux fois plus que le tabac. Les autoroutes, dont le débit est très elevé, sont des sources majeures de pollution. Des routes de qualité, c’est-à-dire non dégradées par les agents météorologiques, ce que permet le serpent solaire, conduisent à une réduction de la consommation des véhicules de 7% selon une étude danoise. Grâce à une baisse de la résistance au roulement.

Le serpent solaire protège par ailleurs du vent, qui, lorqu’il est de face ou latéral, conduit également à augmenter de manière significative la consommation des véhicules. La résistance de l’air augmente avec le carré de la somme vitesse du véhicule + vitesse du vent. Un vent même de seulement 20 km/h s’opposant à un véhicule voulant maintenir sa vitesse à 110 km/h conduit à un très copieux surcoût énergétique.

L’effet d’îlot urbain est atténué grâce à notre ophidien photovoltaïque. Le fait de rouler à l’ombre conduit à une baisse des besoins en climatisation, et donc à une diminution de la consommation en carburants pétroliers. Et aussi à une diminution du risque de surchauffe du moteur. Si la France est principalement concernée durant la période estivale, une bonne partie de la population mondiale, de l’Egypte au Brésil en passant par l’Arabie Saoudite et l’Inde, vit dans des régions qui sont ensoleillées et chaudes toute l’année.

Un serpent solaire au niveau des 35 kilomètres du périphérique parisien aurait un intérêt pour la santé de l’ensemble des riverains : la pollution particulaire a un en effet des conséquences particulièrement graves lors d’un temps d’exposition long. Celui des automobilistes est bien plus court. Et ce sont ces derniers la source de la pollution. Pollueur, payeur. De nombreux constructeurs proposent par ailleurs aujourd’hui des véhicules dont l’air de l’habitacle est contrôlé. Comme par exemple la Tesla X avec son mode « Bioweapon ». Mais aussi la Renault Zoé 100% électrique.

Des systèmes de filtration de l’air du même type que ceux qui équipent le tunnel du Mont-Blanc dans les Alpes (Autoroutes et Tunnel du Mont Blanc, ATMB) pourraient d’ailleurs être installés dans le tube intestinal du serpent et fonctionner avec l’électricité photovoltaïque. 90% des particules sont éliminées avec ce système.

Le léviathan solaire rend en outre possible la séquestration du CO2. La concentration en CO2 est naturellement plus élevée dans un tunnel. Måns Tham propose d’aspirer cet air enrichi et de l’envoyer vers de petits bassins adjacents où sont cultivées des micro-algues. Le CO2 est la molécule-clé de la photosynthèse. C’est exactement ce qu’avait fait Greenfuel, une start-up du MIT, en utilisant l’air riche en CO2 sortant d’une centrale à charbon alimentant le campus. La structure porteuse du serpent solaire peut d’ailleurs être en bois, matériaux qui constitue un puits de carbone.

« J’ai déjà fait des esquisses pour un serpent solaire au dessus du périphérique » a indique Måns Tham, joint par voie électronique, et interrogé sur la faisabilité de la mise en place d’un tel écosystème dans une grande ville française. Ce Suèdois particulièrement créatif a travaillé en 2010-2011 dans une agence d’architecture parisienne.

Qualité de l’eau

Le serpent solaire empêche l’eau de pluie de ruisseler sur les routes. « La pollution d’origine routière, liée aux émissions du moteur à l’échappement, à l’usure des véhicules, de la chaussée et des équipements de la route, constitue une pollution chronique qui affecte directement l’environnement de proximité via les eaux de ruissellement et les dépôts atmosphériques secs et humides » souligne une étude publiée dans la revue Vertigo. « Les milieux impactés sont les hydrosystèmes superficiels et/ou souterrains, l’atmosphère, les sols et les végétaux qu’ils supportent. » Là encore, les conséquences économiques sont lourdes.

Grâce au serpent solaire non seulement l’eau n’est plus polluée, mais en plus elle peut être collectée, stockée, et ainsi être utile pour les activités agricoles du voisinage. Avec en outre une contribution à la réduction des risques d’inondation.

Réduction de la pollution sonore et sécurité routière

Le serpent solaire a encore une autre qualité : il empêche la propagation des ondes acoustiques. La pollution sonore peut lourdement affecter la santé et la qualité de vie des riverains des routes. Avec des conséquences physiques et/ou psychologiques (stress, dépression, violence conjugale, fatigue, arrêts de travail) pour les hommes et les femmes qui les subissent. Le coût économique est lourd. Les nuisances sonores ont également un impact sur la biodiversité. Certaines espèces d’oiseaux y sont par exemple très sensibles.

Protégeant du soleil et de la chaleur, et ainsi de la fatigue au volant, la peau du serpent peut vous sauver la vie ! Il évite de plus les éblouissements ainsi que l’usage des essuie-glaces. Empêchant la pluie de tomber sur la route, il prévient les aquaplanings mortifères ainsi que l’accumulation de neige verglaçante. L’hélio-reptile peut ainsi éviter de nombreux morts et blessés chaque année. Un tué sur la route coûte 1,2 million d’euros, selon l’Observatoire National Interministériel de la Sécurité Routière (2007).

Un support à l’innovation

camion_electriqueLe serpent solaire pourrait servir à des applications complémentaires. Comme par exemple la charge par pantographe des camions transportant des marchandises, ce qu’expérimente par exemple le géant allemand Siemens en Californie. Il pourrait aussi servir de support à des capteurs utiles pour la conduite 100% autonome.

En continuité de la dynamique lancée par Emmanuel Macron, Ministre de l’économie, des bus électriques autonomes (sans chauffeur), équipés d’un pantographe (ce qui permet de réduire de façon massive la taille de la batterie), pourraient ainsi être guidés par le serpent solaire et traverser la France entière. Le low-cost est bien sûr apprécié des voyageurs, et rouler sous une aile solaire qui capte en direct l’énergie de notre étoile permet de vivre l’expérience Solar Impulse des aventuriers suisses Bertrand Piccard et André Borschberg.Solar-Impulse

Des superchargeurs de type Tesla pourraient également être installés au niveau des aires de repos, en symbiose avec le serpent photonique, afin d’offrir de l’électricité photovoltaïque gratuite (avec éventuellement un soutien de l’état) aux véhicules électriques pratiquant le covoiturage de type BlaBlaCar.

Avec le serpent solaire, plus besoin d’installer de lampadaires pour l’éclairage (il suffit d’installer les lampes directement sous la peau du serpent), ni de supports de panneaux de signalisation routière, ni même de pylones de lignes à haute tension (y compris HVDC). Une économie appréciable pour RTE et ERDF.

Des haies placées de chaque côté du serpent solaire permettront de le rendre complètement invisible dans le paysage tout en améliorant encore davantage son bilan carbone.

« Comme un arbre (solaire) dans la ville » (Forestier)

Les garagistes ne voient pas d’un très bon œil l’arrivée de la voiture électrique. Car elle demande très peu de réparations : beaucoup moins de pièces mobiles qu’avec un moteur thermique qui par ailleurs s’encrasse. De même, il n’est pas certain que le concept de serpent solaire, redoutablement efficient, séduise les producteurs de graviers, de bitumes, d’enrobés et de peintures routières, ainsi que les sociétés de maintenance des routes. En effet le serpent solaire conduit à réduire leur marché. En l’état actuel, l’obsolescence des routes est programmée. Mais le serpent solaire change l’équation !

Colas, filiale de Bouygues, a présenté lors de la COP21 à Paris (et aussi au Consumer Electronic Show de las Vegas, février 2016) le concept Wattway consistant à coller des panneaux solaires sur une route qui, au préalable, doit impérativement être recouverte d’un enrobé haute qualité neuf. Dans la rubique FAQ du siteWattwayByColas.com on peut en effet lire: « Les surfaces pouvant accueillir des dalles Wattway devront être enrobées et récentes. Elles ne devront pas présenter de fissures, d’orniérages, de déformations, ni contenir de l’amiante, et elles devront répondre à un cahier des charges technique et commercial. » Bref, Colas veut vendre de l’enrobé. Normal, c’est son business.

Par contre c’est le devoir de l’état français, qui fonctionne grâce à l’argent des contribuables, d’inscrire sa stratégie dans une perspective d’intérêt général et donc de développement vraiment durable (Charte de l’environnement, Constitution française). Et donc de ne surtout pas laisser ses choix influencés par les intérêts privés de grandes entreprises. Même si ces dernières sont des mécènes de la COP21.

Le concept de Solar Serpent porte non seulement la promesse d’une production solaire à haute efficacité et à impact surfacique nul, mais aussi de réduire de manière significative le coût des autoroutes en augmentant leur durée de vie et en réduisant les coûts de maintenance. Les gestionnaires d’autoroutes pourront ainsi baisser leurs tarifs, attirer davantage de clients et ainsi augmenter la rentabilité de leur investissement tout en réduisant son impact écologique et sanitaire. Grâce à l’efficience du serpent solaire les autoroutes pourraient même devenir gratuites les week-ends, un désir de la Ministre de l’écologie !

01-biodome-exterior-softgrid (1)
Biodôme solaire transparent de Google (Solar Canopy)

L’autoroute du soleil

Le bout du tunnel. Et si on commençait par l’autoroute dite « du soleil » pour monter cette superbe tente solaire ? Le serpent de la tentation ! Très empruntée lors des départs et retours de vacances estivaux, avec des embouteillages durant ces périodes, les automobilistes apprécieront l’ombre offerte par les cellules PV de ce Jörmungand des temps modernes. 1000 kilomètres de routes solaires vraiment écologiques ? C’est possible ! Il manque juste la volonté politique. Mais comme le dit si bien Al Gore, les politiciens, ils sont recyclables.

Solar Serpent, joli nom. Il apparaît sur la pyramide maya de Chichen Itza à l’équinoxe. Le sendero luminoso des mythes pré-incas de l’actuel Pérou. Un sentier…lumineux !

Le solaire PV sera la technologie centrale du mix électrique mondial de demain. Il est donc très important de ne pas commettre d’erreur stratégique dans ce domaine clé. Car cela serait alors comme donner un coup de poignard dans le coeur de la révolution solaire. Tout euro gaspillé dans une technologie inefficente c’est un euro en moins pour investir dans des solutions éco-intelligentes. Et les capacités d’investissement, comme par exemple en Inde, constituent le seul frein à l’énorme déferlante solaire qui ne fait que commencer.

Par Olivier Daniélo

Le shopping impulsif, prochainement sur votre écran

Que l’on puisse poser sa carte bancaire sur un écran et même une image, et acheter aussitôt un produit ou un service, voici qui devrait plaire aux publicitaires et aux commerçants. La société Think&Go en fait le pari : située dans les Bouches-du-Rhône, cette start-up française a conçu un écran «connecté» qui sert de borne de paiement sans contact à l’aide de lecteurs NFC (Near Field Communication) incorporés.

Typiquement, cet écran, présenté au dernier CES de Las Vegas, pourrait être posé dans une galerie marchande et relaierait les promos «flash» lancées par les boutiques avoisinantes. Le flâneur-consommateur, appâté, n’aurait plus qu’à dégainer sa CB ou son smartphone pour s’adjuger la bonne affaire, avant d’aller chercher son bien à quelques pas de là. D’autres terres d’accueil sont envisageables. «Notre premier écran été mis en service fin 2015 dans une agence bancaire de la BNP, place de l’Opéra à Paris, explique Vincent Berge, PDG de Think&Go. Il suffit de poser sa carte bancaire à l’endroit indiqué pour effectuer un don de 5 € à une œuvre caritative.» Une opération similaire avait été aperçue l’an dernier à la gare Montparnasse, à l’initiative de la régie Mediagares et de l’institut Curie. Elle visait à faciliter la collecte de fonds au profit de la recherche contre le cancer.

Un travail de précision

Think&Go n’en est pas à son coup d’essai. La société s’était déjà illustré en 2014 avec un écran capable d’interagir avec des objets connectés, du smartphone au passeport, pour offrir des coupons de réduction notamment. Quelque 150 de ces écrans auraient été vendus à travers le monde. L’ingénierie au cœur du projet n’est pas une partie de plaisir et le cas de l’écran dédié au paiement se révèle plus contraignant encore. «Nous avons travaillé pendant 6 mois avec Ingenico (un des principaux leaders des solutions de paiement, NDLR) pour intégrer des lecteurs de paiement NFC à une dalle LCD, détaille Vincent Berge. Une fois l’écran ouvert, nous posons entre 1 et 10 lecteurs, selon la demande du client. La manipulation est complexe car un lecteur de paiement NFC est beaucoup plus épais et sensible qu’une simple antenne NFC. Ces lecteurs doivent être suffisamment proches de la vitre pour que le champ NFC ne soit pas rompu, mais pas trop non plus, faute de quoi les antennes pourraient être «grillées» par un téléphone. La dalle est ensuite refermée. En dehors du positionnement des lecteurs, l’intégration PC est importante. Derrière chaque écran, il y a en effet un ordinateur qui relie les lecteurs à un serveur et qui permet d’avoir un suivi d’activité des lecteurs. Les antennes doivent également être accordées en fonction de l’environnement.»

La méthode reste artisanale et synonyme de nombreux essais, voire d’échecs. «Nous avons cassé plus de 30 écrans, poursuit Vincent Berge. Nous avons suivi plusieurs pistes, rencontré plusieurs impasses. Nous en sommes à la 4e génération d’écrans et nous travaillons sur la 5e et 6e génération.» Entretemps, Think&Go a encore fait parler d’elle au Mobile World Congress de Barcelone, où elle présentait un dispositif de paiement comparable, mais sur tablette cette fois. La finalité, elle, ne change pas : faciliter l’achat d’impulsion. «C’est l’invention d’un nouveau canal de vente, la transposition dans l’espace public de mécanismes vu sur le web» précise Vincent Berge. La partie n’est pas gagnée car le paiement sans contact, s’il gagne en notoriété, est encore méconnu du grand public. D’autre part, les failles de sécurité liées au NFC ne devraient pas rassurer les consommateurs les plus prudents.

Frédéric Monflier

Forte dynamique pour le bio en 2015

La hausse des conversions se poursuit : fin 2015, 1,31 million d’hectares sont cultivés en bio en France. Une hausse de 17 %. 307 000 hectares sont en conversion, dont 220 000 hectares en première année. Cette amplification de la dynamique de conversion en 2015 témoigne d’un réel intérêt de fond de la part du monde agricole pour cette filière.

Pour répondre à la demande croissante des consommateurs, la production bio augmente en France. Entre 2014 et 2015, le nombre de fermes a augmenté de 8,5 % et le nombre d’opérateurs bio de 7,2 %. Un rythme deux fois plus élevé qu’entre 2013 et 2014 ! Fin 2015, 28 725 fermes bio étaient recensées, ce qui représente 6,5 % des exploitations agricoles françaises. On dénombrait 13 491 transformateurs, distributeurs, importateurs et exportateurs (+4,4 %) et 42 216 opérateurs exerçant une activité bio (+7,2%).

L’agriculture biologique génère en moyenne, de l’ordre de 60 % de main d’oeuvre supplémentaire sur la ferme par rapport à l’agriculture conventionnelle.

Les fermes bio représentent près de 69 000 emplois, soit près de 10 % de l’emploi agricole. Ramené à l’exploitation, les fermes biologiques emploient en moyenne 2,4 Unité de Travail Annuel (UTA), contre 1,52 en conventionnel. Par ailleurs, la transformation et la distribution emploient 30 000 personnes ; les actions de contrôles, conseils, recherche et formation… représentent environ 2 000 emplois directs.

Au total, la filière bio représente plus de 100 000 emplois en équivalent temps plein.

Aller plus loin : Le bio pour sortir les agriculteurs de la crise ?

Par Matthieu Combe, journaliste scientifique

Le chiffrement des données : principes et limites

La réponse d’Apple a été claire : « Nous sommes obligés de résister face à ce que nous considérons être un abus de pouvoir de la part du gouvernement américain », a déclaré Tim Cook, le patron de la marque.

Selon Maître Alain Bensoussan, Apple et les autres « se trompent ». « La protection de l’intégrité physique l’emporte sur la protection de l’intégrité des données individuelles », estime cet avocat français spécialisé qui pense que « c’est la justice qui devrait décider, au cas par cas, d’autoriser ou non l’accès aux données contenues dans un smartphone ».

Au-delà de ce débat, il peut être intéressant de rappeler ce qu’est le chiffrement, d’aucuns parlant à tord de cryptage.

Le chiffrement des données et/ou des connexions (fixes ou mobiles) vise un objectif : préserver la confidentialité des informations. Les échanges de données ne peuvent être « lus » par des pirates ou des États.

Il s’agit donc de transformer une donnée dite « claire »,c’est-à-dire accessible à quiconque, en une donnée incompréhensible, d’apparence la plus aléatoire possible, pour tout tiers non autorisé. Cette transformation se fait en fonction d’un procédé (appelé algorithme) et surtout d’une quantité secrète, appelée clef. Notons qu’un système dépourvu de clef n’est pas un système cryptologique.

Il existe deux grandes familles de procédés de chiffrement :

  • Les procédés de chiffrement par transposition

« Leur principe consiste à mélanger, en fonction d’une clef, l’ordre des lettres. Ainsi, considérons le système de transposition dite à tableau et la clef formée du mot « Austerlitz ». Le déchiffrement consiste à faire l’opération inverse et n’est possible que si l’on connaît le mot clef.

Le principal inconvénient des systèmes par transposition est qu’ils conservent les statistiques de la langue et fournissent par conséquent une information sur le message. Ils ne sont plus employés de nos jours », explique Eric Filiol, Directeur de Recherche du laboratoire Confiance Numérique et Sécurité/Cryptologie et Virologie Opérationnelle (CNS/CVO) de l’ESIEA (une école formant des ingénieurs).

  • Les procédés dits par substitution

Cette fois, chaque lettre ou groupe de lettres est remplacée en fonction d’une clef secrète et d’un procédé par une autre lettre ou groupe de lettres.

L’essentiel de la sécurité se trouve dans la clé. D’où l’idée de deux chercheurs, Diffie et Hellman, d’inventer en 1977 un autre type de cryptographie : la cryptographie à clef publique. Cette fois, chaque utilisateur crée un couple de clefs, l’une publique, qui comme son nom l’indique est destinée à être publiée, l’autre privée qui doit impérativement rester secrète.

Quelle que soit la solution retenue, le degré de protection obtenu dépend de plusieurs facteurs : la qualité du cryptosystème, la manière dont il est implémenté en logiciel ou matériel et le nombre total de clefs possibles qui permettent de chiffrer l’information.

Enfin, un algorithme cryptographique est considéré fort si deux conditions sont remplies :

  1. Il n’y a aucun raccourci qui permet à un adversaire de récupérer le texte clair sans utiliser la force brute qui consiste à tester chaque clef possible jusqu’à trouver la bonne.
  2. Le nombre de clefs possibles est suffisamment grand pour rendre ce type d’attaque irréalisable. Les tailles des clefs de chiffrement sont mesurées en bits et la difficulté à essayer toutes les clefs possibles croît de manière exponentielle avec le nombre de bits utilisés. Ajouter un bit à la clef double le nombre de clefs possibles ; ajouter dix bits augmente le facteur de plus d’un millier.

Reste un problème majeur : « ce qui me gêne, c’est que l’ensemble de la planète utilise des algorithmes d’obédience américaine. Nous laissons aux États-Unis le monopole de toute la standardisation. Je pense qu’il y a de très bons cryptologues en France, il y en a partout en Europe. Pourquoi devrait-on sous-traiter notre sécurité et les standards de cryptographie aux Américains ? », s’interroge Eric Filiol.

Par Philippe Richard

Sécurité des salariés à l’étranger : des progrès réels mais lents

Le deuxième baromètre de la sécurité des collaborateurs à l’international (A consulter ici : deuxieme barometre CDSE de la sécurité des collaborateurs à l’international), réalisé par le CDSE (Club des directeurs de sécurité des entreprises), en partenariat avec AXA Assistance France, montre que les dirigeants d’entreprise de plus de 50 salariés qui ont envoyé au moins 1 salarié à l’étranger prennent de plus en plus conscience des risques à l’international – même si cette prise de conscience n’est pas encore pleinement réalisée dans le cadre de leur entreprise (sentiment de n’être pas directement concerné, absence de consignes pour leur salariés à l’international etc.)

L’insécurité internationale augmente

Terrorisme, instabilité politique, présence majeure de trafics, épidémies, catastrophes naturelles ou industrielles, l’insécurité dans le monde représente une menace pour la France, ses entreprises, ses citoyens pour 82% des dirigeants français interrogés dans ce deuxième baromètre. C’est 8 points de plus qu’en 2014. Et les attentats en France et dans le monde ne semblent pas indifférents à cette évolution. En effet, dans la liste des risques potentiels, le terrorisme arrive en premier avec une augmentation de 28 points depuis 2014 !

Des dirigeants qui se sentent peu concernés

Malgré tout, la part des dirigeants interrogés qui se sentent directement concerné par cette insécurité a diminué d’un point par rapport à 2014, passant de 20 à 19%. Et la part, majoritaire de ceux pensant que les risques sont identiques est restée stable à 71%.

Méconnaissance des risques et des dispositifs d’aide

L’enquête montre aussi une connaissance modérée du cadre tant juridique qu’assurantiel et des moyens de soutien et d’information qui existent. Ainsi, encore 33% n’ont pas d’idée des responsabilités juridiques de l’entreprise dans le cadre du déplacement d’un employé à l’international, 76% ne disposent pas d’une classification des zones à risques et seulement 1 entreprise sur 4 a un dispositif de gestion de crise spécifique. En outre, seule 1 entreprise sur 2 connaît le site de conseils du Ministère des Affaires étrangères (sans pour autant le consulter).

Mais de plus en plus de personnes dédiées

La sécurité/sûreté des employés en déplacement à l’international est un enjeu de plus en plus important pour près d’1/3 des entreprises (31%, +5 points depuis 2014) et les entreprises ont un poste dédié (50% d’entre elles, +19 points) à la gestion de sécurité des collaborateurs à l’étranger. En outre, on voit que la préparation se développe : près des 2/3 des entreprises donnent des informations aux salariés, 2 entreprises sur 5 dispensent des formations, et la moitié soumettent leurs salariés à des procédures spécifiques pour préparer ces déplacements. Néanmoins, elles ne sont qu’une sur deux à avoir des contrats d’assistance spécifiques (en baisse de 10 points).

Rappel des obligations de l’employeur

La loi impose à l’employeur d’informer le salarié qu’il envoie à l’étranger sur les conditions sanitaires et sécuritaires du pays : avant le départ, sans que le salarié n’ait besoin de faire des recherches et en prenant en compte les mises en garde du ministère des affaires étrangères. Par ailleurs, l’obligation de sécurité de résultat édictée par le code du travail continue de courir et il existe en outre une responsabilité civile contractuelle qui peut être invoquée même dans des situations hors des lieux et heures de travail.

Par Sophie Hoguin

Air Liquide : Du xenon pour propulser des satellites

La propulsion des satellites a mué avec le développement des moteurs tout électriques, véritable percée technologique pour l’industrie du satellite. Ces moteurs utilisent l’énergie produite par les panneaux solaires du satellite pour expulser un gaz (habituellement du xénon). Sa densité, son potentiel d’ionisation et son inertie font de ce gaz noble un composant extrêmement précieux pour diverses applications, dont la propulsion électrique des satellites.

Le xénon de haute pureté est utilisé comme agent propulseur pour la mise en orbite et le maintien en position des satellites. Les moteurs tout électriques augmentent la capacité de charge du satellite de 50 %, en réduisant fortement les coûts de lancement.

Le marché des satellites est très concentré. Il n’y a que cinq fabricants de satellites de télécommunications dans le monde, dont trois sont américains : Loral, Boeing et Lockheed-Martin, les deux autres étant européens, EADS-Astrium et Thales Alenia Space.

Chacun d’eux pèse environ 20% du marché mondial et une capacité de production d’environ quatre satellites par an. Au cours des années à venir, au moins un tiers du marché devrait adopter cette technologie, selon Air Liquide.

Par Romain Chicheportiche

Californie : Les barrages manquent d’eau

C’est un exercice difficile auquel s’est livré le Pacific Institute : déterminer le coût pour le système électrique des sécheresses qui se sont abattues sur la Californie entre octobre 2011 et septembre 2015 (années les plus chaudes depuis 120 ans d’après les relevés). Selon les auteurs du rapport, la baisse de la production hydroélectrique aurait représenté un surcoût pour le système électrique de l’ordre de 2 milliards de dollars. L’utilisation de combustibles fossiles pour compenser le manque d’eau aurait conduit à émettre 10% de gaz à effet de serre supplémentaires. « Dans les faits, ces sécheresses ont affecté les contribuables puisque leur électricité est moins propre et plus coûteuse durant ces périodes », explique Peter Gleick du Pacific Institute.

Alors que l’hydroélectricité pesait 18% du mix électrique de l’état, sa part a chuté à 10,5% durant la période étudiée pour atteindre un tout petit 7% la dernière année. Des résultats qui posent la question de la capacité réelle de production hydroélectrique dans un avenir où les épisodes climatiques extrêmes devraient se multiplier.

Par Romain Chicheportiche

Une tolérance accrue pour les OGM et pesticides en bio ?

En agriculture biologique, un seuil de contamination accidentel par les OGM est toléré jusqu’à 0,9 % en poids. Il existe également des seuils pour les pesticides ou produits chimiques à partir desquels un produit peut être « décertifié », c’est-à-dire perdre son label. La proposition de révision du cahier des charges adopté par commission Agriculture du Parlement européen le 8 février propose l’abandon du dispositif de décertification de produits bio contenant des substances non autorisée, telles que des pesticides, engrais chimiques ou des OGM.

« Officiellement, le principe de base de non-utilisation des produits chimiques de synthèse est toujours là, souligne Elisabeth Mercier, directrice de l’Agence bio. On ne parle que de la question de contamination environnementale »

Cette contamination environnementale peut subvenir, involontairement, par exemple lors d’un transport, d’un stockage ou d’une pulvérisation dans un champs situé à proximité de l’exploitation bio. Pour être bien clair, « cela ne concerne pas du tout l’idée d’autoriser des produits chimiques dans les produits bio, il s’agit d’harmoniser les seuils de déclassement éventuels en cas de contamination environnementale si ce n’est pas de la faute de l’agriculteur », précise-t-elle.

Ainsi, ce projet de révision ne concerne que les contaminations accidentelles pour éviter de pénaliser les agriculteurs biologiques. Lors d’une contamination accidentelle de ses produits, c’est l’agriculteur biologique qui est sanctionné et doit subir le manque à gagner lié à la décertification.  La proposition initiale prévoyait des compensations financières pour ces agriculteurs en cas de contamination externe avérée. « La question est celle de la responsabilité », avertit Elisabeth Mercier. Les discussions entre le Parlement, le Conseil et la Commission européenne continuent pour retenir le meilleur compromis.

Il faut néanmoins s’intéresser à la réalité de terrain pour comprendre que cette disposition ne serait pas une porte grande ouverte aux OGM et aux pesticides en agriculture biologique. « Quand il y a une demande conversion, l’organisme certificateur se rend sur la ferme, relate la directrice de l’Agence bio. S’il s’aperçoit qu’autour de cette ferme, il n’y a pas toutes les conditions réunies, peut-être que certaines parcelles ne vont pas être mises en conversion, c’est une réalité ». C’est notamment le cas pour de petits vignobles entourées de parcelles conventionnelles. Selon les données d’Ecocert, le principal certificateur de l’agriculture bio en France, dévoilées par le Journal de l’environnement, environ 10 % des produits sont déclassés tous les ans, la fraude volontaire n’intervenant que dans 0,5 % des cas.

La Commission et le Parlement européen devront trouver un savant compromis sur d’autres points : l’autorisation ou non de la mixité des champs bio/non bio sur une même exploitation, l’évolution des conditions de contrôle pour les importations de pays tiers, la mise en place d’une certification de groupe… Des règles trop strictes pourraient décourager les agriculteurs et faire baisser le nombre de conversions. A l’opposé, des règles trop souples relanceraient le débat sur la crédibilité des produits bio.

Par Matthieu Combe, journaliste scientifique

L’étau se resserre sur la 9eme planète

Le mercredi 20 janvier 2016, un article paru dans Astronomical Journal fait rapidement le tour de notre univers : Mike Brown et Konstantin Batygin du California Institute of Technologie (Caltech) affirment alors qu’ils existent bien une neuvième planète dans notre système solaire. Une hypothèse déjà posée par d’autres scientifiques sur des bases théoriques. Ce serait une géante gazeuse comparable à Neptune située à quelques 30 milliards de km du soleil.  Aussitôt une équipe d’astronomes française décide de vérifier sa possible existence par leurs propres méthodes de calculs, en s’appuyant notamment sur les données de la sonde Cassini (Nasa/Esa/Asi).

Une confirmation de la thèse américaine

Parue le 22 février 2016, dans Astronomy et Astrophysics letters,  l’étude des astronomes français de l’Institut de mécanique céleste et de calcul des éphémérides, et du laboratoire GeoAzur permet de préciser les positions possibles de cette 9eme planète et valide donc la plausibilité de l’affirmation des deux américains. Pour rappel, ces derniers sont partis du constat que la répartition des objets de la ceinture de Kuiper (corps céleste similaires à Pluton, situés au-delà de Neptune) doit s’expliquer par la présence d’une planète très volumineuse qui constituerait ce qu’on appelle le noyau de ceinture de Kuiper et qui dominerait les autres corps du point de vue de la gravité. Grâce à des simulations numériques, ils ont déterminé l’orbite possible de cette planète mais sans pour autant donner d’indications quand à sa position actuelle. Si bien que les observateurs, à la recherche d’une observation plus directe doivent scruter toutes les directions possibles sur la longitude déterminée pour espérer l’apercevoir.

Perturbations sur Saturne

Les données de la sonde Cassini permettent de connaître la distance entre la Terre et Saturne avec une précision de l’ordre de 100m. Depuis 2003, Agnès Fienga et Jacques Laskar, développent des éphémérides planétaires (INPOP) qui permettent de calculer le mouvement des planètes de notre système solaire avec beaucoup de précision. Ils ont appliqué leurs méthodes à l’ajout d’une neuvième planète et ont montré qu’en fonction de la position de cette nouvelle planète par rapport à son périhélie, elle devait induire des perturbations sur l’orbite de Saturne qu’ils ont pu retrouver.

Une portion de ciel restreinte

Les calculs des Français permettent de restreindre grandement la portion de ciel à scruter pour trouver cette planète X (voir figure 1). En effet, les perturbations induites par la 9eme planète sont incompatibles avec sa présence dans certaines directions (au moins la moitié) alors que dans d’autres, sa présence expliquerait en partie les écarts entre le modèle calculé par les astronomes (sans son existence) et les distances observées.

planete
Crédit Observatoire de la Côte d’Azur Cnrs

Zone rose : les perturbations créées par l’introduction d’une nouvelle planète ne sont pas compatibles avec les observations

Zone verte : la planète améliore le modèle de prédiction. Echelle en unités astronomiques.

Par Sophie Hoguin

Des choix qui restent politiques

Cette valeur justifie les dépenses engagées en matière de sécurité et suggère d’en optimiser l’effet en recherchant, globalement, les rendements les plus élevés en termes de vies sauvées. Dans la même optique, mais en partant de principes de maximisation différents, la méthode des QALY permet d’optimiser la dépense pour obtenir le nombre d’années de vie en bonne santé le plus élevé.

Ces approches ont la vertu d’apporter une perspective scientifique sur les questions de prévention des risques. En mettant en lumière l’efficacité implicite des mesures de sécurité, le point de vue de l’économiste apporte un éclairage utile pour le décideur permettant de rationnaliser et d’inter-comparer les choix en matière de sécurité. Malgré cela, l’influence de l’économiste sur ces sujets et ces décisions reste limitée en France, où la culture économique est peu développée.

Cette faible résonance accordé au point de vue économique est naturelle sur un sujet où les arguments politiques, éthiques et psychologiques portent forts et où l’analyse socio-économique reste peu comprise et mal appropriée par l’opinion. Quels que soient les arguments de l’économiste, il est en effet rationnel pour le décideur politique, qui cherche à être réélu, de ne pas chercher la « meilleure » décision suggérée par le technocrate, mais plutôt la décision qui sera la mieux perçue par ses électeurs, quitte à s’éloigner de l’optimum de sécurité et embrasser des arguments de psychologie ou de communication. Cette mécanique de décision, absolument rationnelle et naturelle en démocratie, suggère que pour pouvoir s’affirmer à l’avenir au sein d’un processus de décision qui reste fondamentalement politique, l’économiste doit viser une pédagogie plus large, qui puisse informer et transformer l’opinion, et conduire in fine à développer l’intérêt général pour l’analyse socio-économique des décisions humaines.

Par Emmanuel Grand

Pour aller plus loin

Rapports de référence

Sélection d’articles universitaires

  • Aldy, E. Joseph & Viscusi, W. Kip, « Adjusting the Value of a Statistical Life for Age and Cohort Effects », The Review of Economics and Statistics, Vol. 90, No. 3 (Aug., 2008), pp. 573-581
  • Ashenfelter, Orley, « Measuring the Value of a Statistical Life: Problems and Prospects », The Economic Journal, Vol. 116, No. 510, Conference Papers (Mar., 2006), pp. C10-C23
  • Andersson, Henrik & Treich, Nicolas, « The Value of a Statistical Life« , Toulouse School of Economics paper
  • Biausque, Vincent, Valeur de la vie humaine : une meta-analyse, OCDE, Groupe de travail sur les politiques d’environnement nationales, 2011
  • Banzhaf, Spencer, « The Cold-War Origins of the Value of Statistical Life », The Journal of Economic Perspectives, Vol. 28, No. 4 (Fall 2014), pp. 213-226
  • Miller, Ted R., « Variations between Countries in Values of Statistical Life », Journal of Transport Economics and Policy, Vol. 34, No. 2 (May, 2000), pp. 169-188
  • Viscusi, W. Kip & Gayer, Ted, « Safety at Any Price? », Regulation, Vol. 25, No. 3, 2002

L’auteur
Emmanuel Grand est consultant en stratégie. Ingénieur et économiste de formation, il intervient auprès d’administrations et d’entreprises sur leurs problématiques d’analyse de marchés, de régulations et d’organisation. Il est l’auteur de plusieurs ouvrages d’économie industrielle.

Remerciements
L’auteur tient à remercier Marcel Boiteux, Luc Baumstark et Jérôme Puëll qui ont bien voulu leurs accorder un entretien et les aider dans leurs recherches. L’auteur remercie également Sophie Bourgoin pour sa contribution à la rédaction.

Contacter l’auteur

Comment mesurer la valeur de la vie humaine ?

Les méthodes historiques fondées sur le capital humain

Jusqu’aux années 1980, les valeurs de la vie humaine retenues par les pouvoirs publics s’appuyaient sur une mesure de la perte pour la société entraînée par la mort d’un individu, i.e. la perte d’un capital humain. Cette famille de méthodes repose fondamentalement sur la mesure de la contribution de l’individu au PIB : le capital humain est mesuré par la somme des salaires futurs perdus suite au décès. A cette somme actualisée des revenus futurs sont parfois ajoutés certains facteurs indirects (ex. coûts des dégâts lors d’un accident) et d’éléments non marchands (préjudices affectifs subis par les proches) .

Cette approche a le mérite de reposer fondamentalement sur une mesure monétaire et tangible : la somme de la production future de l’individu. Elle reste à la base de la détermination de la valeur de la vie dans le contexte judiciaire, comme le montre par exemple les indemnités accordées aux familles des victimes des attentats du 11 septembre 2001 aux Etats-Unis : les indemnités ont varié en fonction des salaires espérés, de 300.000$ pour un individu de 65 ans qui gagnait 10.000$/an, à 4,35 millions de dollars pour un trentenaire gagnant 175.000$/an .

Si la méthode du capital humain est simple à comprendre et se place résolument du point de vue de la société, elle souffre de :

  • La réduction fondamentale de la valeur d’un individu à sa seule productivité professionnelle, ignorant les autres rôles productifs dans la société : parent, ami, bénévole, citoyen – les tentatives d’inclusion d’éléments non marchands (ex. douleurs de proches, valeur des travaux familiaux, etc.) ayant toujours été difficiles et discutables.
  • De résultats très différents selon les individus, peu acceptables par les pouvoirs publics, avec notamment des valeurs de la vie nulles voire négatives pour les retraités, dont la production professionnelle future est par définition inexistante.
  • L’absence de prise en compte de la préférence des individus pour la sécurité, i.e. de leurs choix réels entre richesse et sécurité.

Les méthodes actuelles fondées sur le consentement à payer

Dépassant les inconvénients du capital humain, les méthodes inspirées de l’économie comportementale vont devenir prépondérantes à partir des années 1990 pour évaluer le prix de la vie humaine. En observant que la sécurité est un bien achetable, les économistes ont cherché à mesurer le consentement à payer des individus pour améliorer leur propre sécurité, définissant ainsi un arbitrage sécurité/richesse qui peut être moyenné et étendu à l’ensemble de la société.

Concrètement, la valeur de la vie humaine est construite à partir de la mesure du consentement à payer pour la réduction d’un risque faible : si par exemple un équipement de sécurité coûte 300 euros et qu’il supprime un risque de mort de 1/10.000, alors on peut déduire de son achat que, pour le consommateur, la valeur de la vie est supérieure à 300×10.000 = 3 millions d’euros .

L’intérêt de ces méthodes fondée sur le consentement à payer est de traduire les arbitrages des individus quant aux moyens à allouer à la sécurité dans une vue, qui est d’une part a priori fidèle à leurs préférences réelles, et d’autre part globale c’est-à-dire incluant les éléments non marchands.

Préférences déclarées ou préférences révélées

Si l’emploi du consentement à payer fait aujourd’hui consensus comme fondement de la valeur de la vie humaine, la mesure de ce consentement fait l’objet d’une controverse entre la méthode des préférences déclarées et celle des préférences révélées :

  • La mesure des préférences déclarées se fonde sur une enquête par questionnaire auprès d’un échantillon représentatif de population, afin de déterminer la valeur qu’ils accepteraient de payer pour éviter un risque.
  • La mesure des préférences révélées se fonde essentiellement sur des analyses de salaires sur le marché de l’emploi. Il s’agit d’isoler le sursalaire que perçoivent les employés exposés aux risques (par rapport à des emplois identiques équivalents). Par exemple, au zoo de Philadelphie, les soigneurs s’occupant d’éléphants touchent tous 1000 $ de plus par an car il s’agit d’un travail dangereux .

Chaque méthode a ses avantages et inconvénients : le problème de l’enquête étant le caractère hypothétique des réponses des interviewés, alors que l’analyse des salaires se heurte à la difficulté d’isoler le coût du risque dans les choix d’emploi.

tab_prix_vie

Globalement, les valeurs de la vie humaine retenues par les autorités publiques en Europe s’appuient sur les méthodes de préférences déclarées, alors qu’en Amérique du Nord les agences de régulation utilisent des valeurs issues d’études de préférences révélées , qui sont plus élevées :

  • En se basant sur l’analyse de plus de 1000 études de préférences déclarées, l’OCDE a déterminé en 2012 une valeur de référence de la vie humaine pour l’Union européenne de 3,6 millions de dollars , chiffre repris par la suite par certains pays européens dans leurs régulations.
  • Aux Etats-Unis, les données issues du marché de l’emploi concluent à un prix de la vie d’environ 9 millions de dollars : c’est à dire qu’un emploi donnant une chance sur 10 000 de mourir dans l’année donnera lieu à une compensation de 900$/an (par rapport à un emploi équivalent sans risque). Cet ordre de grandeur est globalement repris par les agences de régulation américaines.

Par Emmanuel Grand

Calcul du coût d’une vie humaine : des applications en France qui restent limitées

Une intégration au cadre de l’analyse socio-économique

Pour les pouvoirs publics, le concept de valeur de la vie humaine est principalement utilisé dans le cadre de l’analyse coûts-avantages (i.e. analyse socio-économique). Ces analyses de nature économique visent à quantifier, dans le cadre d’une décision à prendre, l’ensemble des coûts et des avantages attachés à chacune des options possibles, afin de les comparer entre elles. En pratique, cette quantification systématique permet de sommer les coûts et avantages afin d’obtenir pour chacune des options une valeur synthétique (en euros) comparable avec les autres options. Dans ce cadre, les biens non marchands (comme la sécurité, le bruit, l’air pur…) sont valorisés selon des prix de référence, comme la valeur de la vie humaine.

Un recours limité à l’analyse socio-économique

L’utilisation de l’analyse coûts-avantages s’est développée durant les dernières décennies en France : depuis 1984, tous les grands projets d’infrastructure de transport doivent faire l’objet d’une analyse socio-économique [1], et s’appuient donc sur une valeur de la vie humaine pour juger des investissements de sécurité. Cependant, ce type d’analyse est encore loin d’être systématique en France où de nombreuses décisions restent prises en l’absence de toute analyse socio-économique : en pratique, peu d’administrations françaises embrassent l’analyse socio-économique comme guide d’action.

Certains vont même plus loin et critiquent la pertinence même de l’analyse socio-économique, en pointant

  1. le caractère manipulable des calculs,
  2. l’ambition inachevable d’une normalisation de l’utilité sociale,
  3. l’inadaptation de l’analyse socio-économique aux processus de décision, souvent contraints par l’urgence.

A ces critiques s’ajoute particulièrement en France une vision consensuelle de bienveillance de l’action publique. Cette vision diffère nettement de celle des pays nordiques et anglo-saxons où la méfiance à l’égard de la puissance publique force celle-ci à justifier systématiquement son action, en démontrant la valeur ajoutée des investissements et régulations publics par rapport au laissez-faire. C’est donc naturellement dans ces pays que l’analyse socio-économique s’est développé de façon plus large.

Relativement aux autres pays développés, la France a donc un usage modeste de l’analyse socio-économique et par là des méthodes qui permettraient d’inclure la valeur de la vie humaine dans les décisions.

La fixation de valeurs tutélaires pour trancher des débats internes et suivre l’évolution du consensus économique

Il existe cependant un secteur de l’administration française où l’analyse socio-économique est traditionnelle : c’est le secteur des transports. Dirigé par des ingénieurs, le secteur des transports a eu tôt recours au point de vue de l’économiste pour justifier des investissements publics, et a été le moteur de la définition d’une valeur de la vie humaine par l’Etat. Depuis le début des années 1990, trois références successives ont été retenues comme valeur de la vie humaine, en réponse d’une part aux débats internes de l’administration française, et d’autre part à l’évolution de la recherche économique, quasi-exclusivement étrangère, sur le sujet :

  • La première valeur tutélaire de la vie humaine apparaît en 1994. Suite à un débat entre le ministère du budget et celui des transports sur la valeur des biens non marchands (sécurité, pollution, etc.), un groupe de travail est constitué afin de définir des valeurs uniques consensuelles pour ces biens non marchands. Le groupe de travail, organisé autour de Marcel Boiteux (ancien président d’EDF et économiste réputé), s’appuie sur la littérature économique de l’époque, qui mesure fondamentalement la valeur d’une vie à la contribution de l’individu au PIB. Le groupe de travail Boiteux conclut sur une valeur de la vie humaine équivalente à 650.000 euros.
  • Presque une décennie plus tard, au début des années 2000, les méthodes de recherche et les références internationales de valeurs de la vie humaine ont évolué. Le consensus universitaire retient désormais des valeurs issues de l’étude des comportements, qui sont plus élevées. De plus, une nouvelle controverse se développe entre le ministère des transports et celui de l’environnement sur les valeurs relatives du temps économisé, du bruit et de la sécurité dans l’analyse des projets de transport. Un groupe de travail est alors formé, à nouveau autour de Marcel Boiteux, qui conclut en 2001 à une valeur de la vie humaine de 1,5 millions d’euros.
  • Une nouvelle décennie s’écoule et c’est en 2012 qu’un nouveau groupe de travail est formé autour d’Emile Quinet pour redéfinir les valeurs de références de l’analyse socio-économique, suite à de nouveaux travaux internationaux qui réévaluent à la hausse les résultats des études comportementales. Une analyse comparative détaillée de l’OCDE sur la valeur de la vie humaine publiée en 2012 offre notamment une référence gouvernementale pour des valeurs plus élevées. Le groupe de travail Quinet fixe en 2013 une nouvelle valeur de la vie humaine de 3 millions d’euros pour la France.

« Force est donc de se jeter à l’eau. »

C’est avec cette phrase que Marcel Boiteux introduit en 2001 les conclusions du groupe de travail qui a redéfini la valeur de la vie humaine applicable en France. Les références retenues sont présentées comme imparfaites, sujettes à évolution en fonction des recherches économiques, mais indispensables. Marcel Boiteux reconnait l’incertitude, et les difficultés conceptuelles portées par la définition d’une valeur de la vie humaine [2], mais il affirme avec force que ne pas la prendre en compte revient à exclure la sécurité du débat. Il est pour lui indispensable de débattre et d’utiliser une valeur de la vie humaine. Seul un tel outil permet d’envisager d’atteindre un optimum économique dans l’emploi des ressources collectives affectées à la sécurité.

Un outil disponible mais peu employé

Il existe donc en France une valeur tutélaire (i.e. officielle) de la vie humaine : elle  a été fixée en 2013 à 3 millions d’euros [3] et évolue depuis au rythme de la croissance du PIB par habitant. Elle s’applique à toutes les évaluations publiques françaises, et porte l’ambition d’être l’outil d’une approche coordonnée des moyens à allouer à la sécurité.

La pratique du secteur public reste cependant très éloignée de cette ambition. S’inscrivant dans le cadre de l’analyse socio-économique, la valeur de la vie humaine en subit les limitations, comme l’indiquait en 2013 Jean Pisany-Ferry, le Commissaire général à la stratégie et à la prospective du gouvernement :

« Alors que la crise économique plaide pour un recours accru au calcul socioéconomique, son usage reste aujourd’hui limité. Il n’est systématique que dans le secteur des transports. La santé ne l’utilise que pour quelques cas particuliers et le secteur de l’énergie, qui doit absolument optimiser les investissements considérables nécessaires à la réalisation de la transition énergétique, en a quasiment oublié les principes. » [4]

Force est donc de constater que le recours limité à l’analyse économique empêche en France une approche globale de maximisation intersectorielle du nombre de vies sauvées par la collectivité.

Par Emmanuel Grand

[1] Loi n°82-1153 du 30 décembre 1982  d’Orientation des Transports Intérieurs (LOTI) rendant obligatoire la production de bilans socio-économiques et environnementaux, mise en œuvre par le décret 84 – 617 du 17 juillet 1984.

[2]  » Ces observations poussent à l’humilité. Les barèmes proposés ne peuvent prétendre à l’exactitude scientifique. On a fait ce qu’on a pu, avec les matériels disponibles – études publiées, pratiques étrangères, travaux en cours. » Marcel Boiteux, Une nouvelle étape dans la monétarisation des nuisances, 2002, p.5

[3] Le rapport Quinet, publié en 2013, utilise des données passées et a fixé la valeur de la vie humaine à 3 millions d’euros de 2010. Toute mise à jour ultérieure de cette valeur doit inclure l’évolution de l’inflation et du PIB par habitant par rapport à 2010.

[4] Commissariat Général à la Stratégie et à la Prospective, L’évaluation socioéconomique des investissements publics, 2013 – p.6

Un point de vue économique sur la sécurité

Pour le décideur en matière de sécurité, que ce soit l’ingénieur responsable d’un site industriel ou le régulateur définissant les obligations d’une industrie, chaque alerte ou accident renvoie à un arbitrage délicat sur le niveau de sécurité recherché : jusqu’où désirons nous réellement nous protéger du risque ? Dans un monde de ressources finies, nous ne pourrons jamais totalement supprimer l’ensemble des risques auxquels l’homme est confronté. Il y a donc nécessairement un niveau de risques, une borne, au-delà de laquelle nous renonçons à investir des moyens supplémentaires pour renforcer la sécurité.

Cette borne, et les arbitrages concrets qui lui sont associés entre (i) niveau de risques et (ii) moyens à engager pour les réduire, sont l’objet de vifs débats politiques, psychologiques, économiques, éthiques voire religieux. Le présent dossier vise à éclairer ces débats à travers la théorie et la pratique des sciences économiques. C’est donc en prenant résolument le point de vue de l’économiste que les articles qui suivent analysent les arbitrages réels des décideurs concernant la protection contre le risque le plus capital pour l’homme : le risque de mort.

Emmanuel Grand

L’absence de calcul économique tue

Des valeurs de la vie humaine qui varient

Dans la pratique, les autorités publiques utilisent implicitement des valeurs  de la vie humaine qui peuvent être très différentes les unes des autres. Comme le montre la sélection suivante, les valeurs implicitement retenues par les régulations américaines sur la sécurité peuvent varier d’un facteur de 1 à 10.000.

Coût par vie humaine statistique sauvée de certaines régulations de sécurité [Etats-Unis, 1970-1991] [1]

tab2_prix_vie
Coût par vie humaine statistique sauvée de certaines régulations de sécurité [Etats-Unis, 1970-1991]

Une action non-économique et non-coordonnée

L’existence de telles différences découle de la nature du processus de conception des régulations. Ce processus est fondamentalement non-économique et non-coordonné.

En matière de sécurité, les mandats donnés dans la loi aux agences de régulation et aux ministères mentionnent généralement un objectif d’amélioration de la sécurité, visant à minimiser un risque particulier : accident nucléaire, cancer, accident de la route, etc. Ces mandats, s’ils exigent une trajectoire continue de réduction des risques, ne demandent généralement pas (1) d’efficacité économique dans l’action, ni (2) de coordination budgétaire avec les efforts des autres branches des pouvoirs publics.

De ces mandats, il résulte :

  1. Une application non systématique, sporadique, de l’analyse socio-économique aux questions de sécurité, n’incluant donc pas une véritable réflexion sur la valeur (implicite) donnée à la vie humaine ;
  2. Une action généralement indépendante, en silo, de chacune des autorités intervenant sur les questions de sécurité.

L’absence d’analyse économique et de coordination est directement visible dans la formulation des mandats des agences de régulation. On pourra illustrer cet état de fait avec deux exemples :

  • En Europe, l’Autorité européenne de la sécurité aérienne a pour objectif « Une aviation civile toujours plus sûre et plus écologique » et « [sa] mission est de promouvoir les plus hautes normes communes de sécurité et de protection de l’environnement dans l’aviation civile » [2]. Les enjeux de coordination inter-agences et d’efficacité économique ne sont pas primordiaux.
  • Aux Etats-Unis, interrogée sur le besoin de réaliser une analyse coûts-avantages des régulations de l’Agence pour la Santé et la Sécurité au Travail, la Cour Suprême a répondu par la négative. Pour la Cour le mandat donné par le législateur à l’Agence est de produire des régulations qui améliorent la sécurité au travail et qui « peuvent être mises en œuvre » : elles n’ont pas à satisfaire une analyse coûts-avantages positive. L’agence n’a pas à fonder ses décisions sur une analyse économique.

La prise en compte limitée de la valeur explicite de la vie humaine dans les décisions, et l’absence de coordination entre agences, sont les raisons essentielles de ces larges variations dans les valeurs implicites de la vie humaine. Elles dénotent l’absence d’une vision globale et économique sur la question de la sécurité.

Une inefficacité meurtrière

D’un point de vue économique, cette variation dans les valeurs attribuées à la vie humaine montre une inefficacité de la dépense collective  en matière de sécurité. En effet, si une mesure dans la sécurité aérienne conduit à dépenser, par exemple, 30 millions d’euros chaque année pour sauver statistiquement une vie, alors qu’une autre mesure dans la sécurité routière peut sauver des vies avec un coût de 3 millions d’euros par vie, la décision d’affecter chaque année 30 millions à la sécurité aérienne plutôt qu’à la sécurité routière conduit à sauver une vie au lieu de dix, résultant dans une perte statistique de neuf vies. Il y a une inefficacité (et donc des vies inutilement perdues) lorsque les moyens ne sont pas systématiquement affectés aux actions qui apportent le meilleur « rendement » en termes de nombre de vies sauvées, quel que soit le domaine d’action.

Plus généralement, le fait de ne pas adopter une valeur unique de la vie humaine, appliquée de manière cohérente dans tous les domaines de l’action publique, conduit statistiquement à la mort de nombreux individus qui auraient pu être sauvés, avec les mêmes moyens.

Une quantification de cette inefficacité a été conduite dans les années 1990 par des chercheurs américains [3] : ils ont évalué 185 régulations de sécurité en vigueur aux Etats-Unis, qui avaient collectivement un coût de 21,4 milliards de dollars et sauvaient statistiquement 56.700 vies chaque année. En réaffectant simplement les mêmes ressources aux interventions les plus efficaces (celles dont la valeur de la vie humaine est la plus basse), ils ont montré que cela conduiraient à sauver non pas 56.700 mais 117.000 vies, soit un gain statistique de 60.300 vies par an.

Cet exemple n’est a priori pas isolé car l’organisation de la politique de sécurité dans la plupart des pays ne permet pas cette optimisation économique globale, via des politiques de régulation des risques (santé, travail, transport…) indépendantes les uns des autres, et une absence de recours au calcul économique. In fine, ne pas considérer une valeur de la vie humaine conduit à ne pas sauver – donc à tuer – un grand nombre d’individus.

Quand trop de sécurité tue

Au-delà des considérations relatives, certains universitaires affirment que trop dépenser en matière de sécurité peut conduire directement à tuer des gens. Kip Viscusi est l’universitaire américain de référence sur le sujet du prix de la vie humaine et son analyse défend l’existence d’une borne haute au-delà de laquelle les efforts de sécurité mandatés par la collectivité sont contre-productifs.

Viscusi considère que la mise en œuvre d’une nouvelle régulation de sécurité s’assimile à une réaffectation de moyens depuis (1) des revenus privés « libres » vers (2) une dépense contrainte visant au respect de la régulation. Or, il observe que l’espérance de vie des individus s’améliore systématiquement avec leur niveau de revenus. En devant plus riches, les hommes et les femmes allouent une part croissante de leurs moyens aux services de santé, réduisant leurs risques de mortalité. Pour Viscusi, il existe donc un point au-delà duquel à trop réduire les revenus privés « libres », on aboutit à réduire l’espérance de vie de la population de l’équivalent d’une vie statistique : selon ses recherches, ce point ce situe entre 15 et 50 millions de dollars aux Etats-Unis. Au moins une vie statistique est « perdue » à chaque fois qu’une régulation impose 50 millions de dépenses contraintes. Viscusi en déduit que toute régulation d’amélioration de la sécurité portant, implicitement ou explicitement, une valeur de la vie humaine supérieure à 50 millions de dollars va en fait augmenter le nombre de morts : la dépense contrainte de la régulation apporte moins de vies sauvées que la dépense « libre ».

Par Emmanuel Grand

[1] Ces valeurs ont été compilées à partir d’une revue de l’analyse coûts avantages attachées à chacune des régulations. Valeurs de la vie humaine statistique en US dollars (1995). Les bénéfices hors sécurité n’ont pas été pris en compte dans les calculs. Source: Viscusi, W. Kip and Gayer, Ted, « Safety at Any Price? ». Regulation, Vol. 25, No. 3, 2002

[2] Source : https://www.easa.europa.eu/the-agency/easa-explained (Consulté en janvier 2016)

[3] Tengs, Tammy O., & John D. Graham. 1996. “The Opportunity Costs of Haphazard Social Investments in Life-Saving,” in Robert W. Hahn, editor, Risks, Costs, and Lives Saved: Getting Better Results from Regulation. New York and Oxford: Oxford University Press; Washington, DC: The AEI Press.

Un exemple d’utilisation de valeurs différentes entre individus : le QALY

Une volonté de rationalisation de la santé publique

Dans le domaine médical, la question de l’attribution de ressources limitées pour sauver et améliorer des vies se pose de façon particulièrement aiguë et explicite depuis longtemps. A partir des années 1960, des économistes ont commencé à évaluer l’efficacité des soins offerts par les systèmes de santé, en particulier lorsque ceux-ci sont des systèmes publics où les soins sont financés par la solidarité nationale. L’objectif était de permettre une répartition optimale des ressources pour maximiser les bienfaits du système de santé sur l’ensemble de la population. Au Royaume Uni, cela a abouti à la fin des années 1990 à la création du NICE (National Institute for Health and Care Excellence), une institution publique chargée de d’évaluer les politiques de santé de faire des recommandations. C’est pour accomplir ses missions que le NICE a rapidement adopté l’utilisation du QALY (Quality Adjusted Life Year).

Une méthode pour mesurer la durée et la qualité de vie

Un QALY représente une année de vie en bonne santé. Le nombre de QALY d’un individu est donc une mesure du nombre d’années qu’il lui reste à vivre en bonne santé : il traduit donc à la fois la longévité et le niveau de santé attendus [1]. Pour calculer ce nombre de QALY, on pondère chaque année d’espérance de vie de l’individu d’un score reflétant son état de santé attendu : une année en parfaite santé est pondérée de 1 et une année passée dans un état proche de la mort est pondérée d’une valeur quasi-nulle.

Pour chaque individu, les statistiques médicales permettent d’évaluer son espérance de vie et l’état de santé associé à ses états futurs. Afin de pondérer de manière cohérente les années d’espérance de vie, une grille a été définie permettant de qualifier l’état de santé. La méthodologie retenue, EQ-5D, se base sur cinq critères qui font consensus comme traduisant la qualité de vie des patients :

  1. la mobilité,
  2. l’autonomie dans le soin de soi-même,
  3. la capacité à mener ses activités habituelles (travail, loisirs, études, etc.),
  4. la douleur et l’inconfort,
  5. l’état psychologique (anxiété, dépression).

Pour chacune de ces dimensions, trois niveaux sont possibles :

  • 1 (idéal),
  • 2 (problèmes)
  • 3 (problèmes extrêmes).

L’ensemble donne 35=243 possibilités auxquels on ajoute deux états particuliers : “inconscient” et “mort”. C’est cette grille de 245 états qui permet de juger systématiquement de la qualité de vie de chaque patient.

Un score est ensuite affecté à chacun des 245 états de la grille EQ-5D, représentant la valeur relative d’une année passée dans cet état par rapport à une année en parfaite santé, allant de 1 en parfaite santé à 0 en cas de mort [2].

Exemples de mesure du QALY au Royaume-Uni

tab3_prix_de_vie
Source : euroqol.org crosswalk value sets (adapté d’un jeu EQ-5D-5L V1.1)

Un recours aux préférences déclarées d’individus en bonne santé

La détermination du score QALY affecté à chacun des états de cette grille EQ-5D est faite par interrogation d’un groupe statistiquement représentatif d’individus. Trois types de mesures de préférences déclarées sont habituellement employés pour mesurer le QALY des différents états :

  • Visual Analog Scale : les personnes interrogées doivent directement donner le score qu’ils pensent juste pour un état donné, sans l’intermédiaire d’un scénario de mise en situation.
  • Time Trade-Off : les personnes interrogées doivent donner une préférence entre vivre plus longtemps dans un état dégradé ou vivre moins longtemps en pleine santé. On recherche alors le point où les interviewés sont indifférents entre les deux options, ce qui permet de déduire le score QALY dans l’état dégradé.
  • Standard Gamble : les personnes interrogées doivent exprimer une préférence entre rester malade dans un état dégradé ou tenter une intervention, avec un taux de succès connu, qui conduira à une rémission complète ou la mort. On recherche alors également le point d’indifférence entre les deux options pour en déduire un score QALY pour l’état dégradé.

Un outil pour faire des choix

L’existence de l’échelle de QALY permet ensuite de quantifier la différence entre une situation initiale et celle après un traitement thérapeutique, permettant de hiérarchiser les interventions médicales selon leur gain de QALY. En allant plus loin, dans une optique de maximisation du nombre de QALY pour la population, les interventions médicales peuvent être hiérarchisées selon leur gain de QALY par euro dépensé. A cette fin, NICE utilise une valeur maximum de référence de 20.000 £ à 30.000 £ par QALY gagné.

Des controverses méthodologiques et éthiques

D’un point de vue méthodologique, la méthode QALY reste controversée dans son évaluation des états de santé. Nombre de critiques applicables aux méthodes fondées sur les préférences déclarées sont applicables au QALY : comment obtenir par déclaration hypothétique un score QALY non entaché de biais ? Les personnes interrogées, en bonne santé, sont-elles bien placées pour juger de cas de handicap qu’elles ne connaissent pas ?

D’un point de vue éthique, la méthode QALY reste critiquée pour son caractère différentiant, qui assume pleinement le fait qu’un individu jeune a plus de valeur qu’un individu vieux, et amène à discriminer dans l’attribution de ressources contre les personnes les plus âgées. Ceci est un effet souhaitable pour les partisans de la méthode : ils arguent d’un droit de chacun à accéder à un total de QALY le plus égal possible au cours de sa vie. Qu’un individu soit vieux prouve alors simplement qu’il a bénéficié du système et a déjà accédé à ce à quoi il pouvait légitimement prétendre.

Par Emmanuel Grand

[1] La mesure du QALY fait l’hypothèse d’une préférence universelle pour une bonne santé et pour une vie la plus longue possible, et donc in fine pour une maximisation du nombre de QALY.

[2] Certains états jugés pires que la mort peuvent être affectés d’une pondération négative.

Quelle différence de valeur de la vie entre individus ?

Face à ces dilemmes, les gouvernements ont globalement répondu par la négative, conservant une valeur unique de la vie humaine. Le domaine de la santé fait cependant exception, avec le développement dans certains pays de la mesure des gains en années de vie en bonne santé, qui conduit à faire des différences profondes dans la valeur de la vie selon l’âge et l’état de santé de chacun.

Toutes les vies ont-elles la même valeur ?

Les valeurs de la vie humaine présentées jusqu’ici font référence à des valeurs uniques pour l’ensemble de la population. Une telle égalisation pose cependant questions sur deux plans :

  • D’un point de vue économique : les valeurs de la vie humaine mesurées sont-elles divergentes selon les groupes étudiés ? Certains individus font-ils des arbitrages richesse/sécurité différents ?
  • D’un point de vue éthique : la collectivité doit-elle prendre en compte plusieurs prix de la vie humaine ? La collectivité doit-elle par exemple allouer les mêmes efforts au sauvetage d’un enfant et d’un octogénaire ?

Trois caractéristiques principales ressortent de ces débats sur la différentiation du prix de la vie humaine : le niveau de revenus, l’âge, et l’état de santé ; chacune apportant des questions particulières, à la fois économiques et éthiques.

Les revenus : un déterminant clair de la valeur de la vie humaine, rejeté pour des raisons éthiques

Quelle que soit la méthode de mesure, le consentement à payer pour la sécurité augmente avec les revenus, montrant de façon robuste que les individus les plus riches placent une plus forte valeur sur la sécurité : ils achètent par exemple des voitures plus chères, mieux dotées en équipement de sécurité, et ils refusent également les travaux dangereux, souvent quel que soit le niveau de rémunération du risque.

De façon cohérente, ces différences dans la valeur de la vie humaine sont bien corrélées au niveau du PIB/habitant : les études s’appuyant sur le marché de l’emploi montrent par exemple une valeur de la vie humaine de 9 millions de US$ aux Etats-Unis, alors qu’elle n’est que de 230.000 US$ en Inde [1].

En matière de sécurité, les administrations nationales ne font cependant pas de distinction entre les individus sur la base de leurs revenus : elles incluent dans leurs analyses des valeurs de la vie humaine moyennées pour l’ensemble de la population quel que soit le groupe de personnes devant bénéficier de l’amélioration de sécurité. Cette absence de prise en compte des revenus se justifie éthiquement par un désir d’égalité dans l’accès à la sécurité, comme l’affirme en France le dernier rapport gouvernemental sur le sujet : « [la distinction selon les revenus] n’apparaît pas opportune du point de vue éthique.  […] Sauver une vie statistique, ou réduire le risque de décès, doit mobiliser la même somme d’argent quelle que soit la personne en jeu. » [2].

L’âge : un déterminant débattu de la valeur de la vie humaine

Les études fondées sur le marché de l’emploi (préférences révélées) montrent souvent une relation entre âge et valeur de la vie humaine statistique sous forme d’un U inversé : le consentement à payer augmente avec l’âge jusqu’à 45 ans avant de décliner pas la suite.

Une analyse de la valeur de la vie humaine selon l’âge aux Etats-Unis [3]

courbe_prix_de_vie
Source : Aldy, E. Joseph & Viscusi, W. Kip, « Adjusting the Value of a Statistical Life for Age and Cohort Effects », The Review of Economics and Statistics, Vol. 90, No. 3 (Aug., 2008), pp. 573-581

Cependant, les études de préférences déclarées ne confirment pas de façon robuste de relation entre l’âge des individus et leur valeur de la vie humaine [4]. Cette absence de consensus dans la population a d’ailleurs été rendue très visible aux Etats-Unis en 2003, lorsque l’Agence pour la Protection de l’Environnement américaine (EPA) a décidé, sur la base de certains travaux universitaires, d’appliquer une réduction de 37% de la valeur de la vie humaine pour les individus âgés de plus de 70 ans. Cette décision, décriée par la presse comme le « Senior Death Discount » [5], suscita un tollé et fut rapidement abandonnée au profit d’une valeur uniforme de la vie humaine.

L’état de santé : une prise en compte dans certains cas

Deux approches s’opposent souvent concernant les choix en matière de santé : allouer les mêmes moyens à tous les individus, ou privilégier ceux qui bénéficieront le plus des interventions. La première approche traduit une valeur de la vie humaine unique pour tous les individus, alors que la seconde indique des différences dans la valeur de la vie des personnes : par exemple, privilégier une personne de 30 ans sur une personne de 70 ans pour une greffe d’organe montre implicitement que le trentenaire a une valeur de la vie supérieure à celle du septuagénaire.

Cette seconde approche, qui conduit à faire une différence systématique dans la valeur de la vie des individus selon leur état de santé et leur âge, est en pratique utilisée dans de nombreux pays, dont la France [6]. Elle est justifiée par l’objectif de maximiser non pas le nombre de vies sauvées, mais le nombre d’années de vies gagnées [7]. C’est au Royaume-Uni qu’elle a été le plus formalisée avec la mesure systématique du nombre de QALY (Quality Adjusted Life Year) : chaque décision de santé est jugée à l’aune du nombre d’années de vie en bonne santé (QALY) qu’elle apporte.

Par Emmanuel Grand

[1] Madheswaran, S. , « Measuring the value of statistical life: estimating compensating wage differentials among workers in India », Social Indicators Research, Vol. 84, No. 1 (October 2007), pp. 83-96

[2] Commissariat Général à la Stratégie et à la Prospective, « L’évaluation socioéconomique des investissements publics : Rapport de la mission présidé par Emile Quinet », Sept. 2013, p.106

[3] Valeur de la vie humaine, ajusté des effets de cohorte

[4] Cf. OCDE, opus cité, p.62

[5] https://www.washingtonpost.com/archive/business/2003/05/13/under-fire-epa-drops-the-senior-death-discount/e14279ed-9109-40e5-998b-fd3a1620799c/

[6] En France, la méthodologie QALy est notamment employée par la Haute Autorité de la Santé (HAS) – Cf. HAS, Service de l’évaluation économique et de santé publique, « Choix méthodologiques pour l’évaluation économique à la HAS », 2011.

[7] Les partisans de cette approche font notamment remarquer que toute vie étant finie, les moyens dépensés en santé et sécurité ne font que gagner du temps face à la mort, et que dans ce cadre l’objectif de la collectivité doit être de gagner collectivement le maximum de temps de vie.

Pourquoi une valeur de la vie humaine ?

Une origine au cœur de la guerre froide

En 1949, pour la première fois, des économistes sont enrôlés par la US Air Force pour conseiller la stratégie militaire des Etats-Unis. En ce début de guerre froide, l’URSS vient de faire exploser sa première bombe atomique affirmant son égalité avec les USA en la matière.

guerre_froide_USA_URSSLe plan d’attaque nucléaire américain vers l’Union soviétique doit alors être revu de fond en comble, afin de prendre en compte ses nouvelles capacités, et garantir une destruction totale qui empêcherait des représailles significatives.

Des mathématiciens et économistes de la RAND Corporation sont alors embauchés pour conduire une analyse de recherche opérationnelle sur ce sujet, afin de déterminer une stratégie d’attaque optimale pour l’US Air Force. Ils doivent modéliser les combats aériens, les impacts des bombardements, l’utilisation des bases au sol, la logistique des armements et des fuels, etc… L’objectif est d’obtenir la meilleure chance de destruction totale des forces soviétiques, sous la contrainte d’un budget maximum. Les chercheurs construisent un modèle complet et conduisent 400.000 simulations, en utilisant pour la première fois des ordinateurs. Ils concluent que la meilleure stratégie est d’employer un très grand nombre d’avions à hélice rudimentaires : une minorité porterait des armes atomiques, mais la majorité en serait dépourvus agissant comme des leurres. Le très grand nombre d’avions saturerait les défenses soviétiques, et même si les pertes d’avions seraient très élevées, les objectifs de destruction seraient atteints avec assurance.

La présentation de ces recommandations aux généraux de l’US Air Force fut une débâcle absolue. Les généraux, pour la plupart anciens pilotes, refusèrent une stratégie qui impliquait le sacrifice de milliers de pilotes dans des avions sans défense. Les chercheurs réalisèrent ensuite, un peu tard, qu’ils n’avaient pas donné de valeur à la vie des pilotes dans leur modèle.

Si le modèle d’optimisation de l’US Air Force était définitivement enterré, ce n’était que le début d’un nouveau questionnement pour les économistes américains [1], qui allaient par la suite s’intéresser de manière croissante à ce sujet. Si la valeur d’une vie statistique n’était pas nulle comme les généraux l’affirmaient, elle n’était pas non plus infinie car tous les moyens de l’armée sans exception n’était pas concentrés pour sauver chaque soldat. Il y avait donc un arbitrage implicite entre vie humaine et moyens financiers, qui impliquait l’existence d’une borne : une valeur de la vie humaine.

Une vie statistique

La vision des généraux américains de la guerre froide, et celle des économistes depuis lors, s’intéresse à la valeur de la vie d’un individu avant la réalisation de l’événement potentiellement mortel. Cette vision est très différente de celle du sauveteur en mer ou du pompier qui à l’heure du danger engage tous les moyens dont il dispose pour sauver des vies. Pour l’économiste, la valeur d’une vie statistique correspond aux ressources à engager ex ante pour réduire les risques de façon à sauver, en moyenne, une vie ; comme par exemple construire des phares le long de la côte, ou recruter des pompiers. Cette vision s’appuie sur des statistiques de risques observés (ex. nombre d’incendies, naufrages) et vise à quantifier en moyenne l’arbitrage réalisé entre le niveau de sécurité attendu et les ressources allouées.

Un choix implicite

Cet arbitrage entre sécurité et richesse disponible existe pour la plupart des individus et des sociétés : peu d’entre nous renoncent à tout confort et plaisir pour consacrer toutes nos ressources à la réduction des risques de la vie – une vie qui n’aurait alors plus grande saveur. Ce choix entre sécurité et richesse est réel même s’il est souvent implicite. Par leurs décisions en matière de sécurité, les pouvoirs publics et les individus donnent régulièrement une valeur à la réduction des risques :

  • Pour un individu, l’achat (ou pas) d’un airbag en option sur sa voiture ou le choix éventuel d’une compagnie aérienne plus chère mais plus « sûre » sont révélateurs de cet arbitrage entre risques et dépenses,
  • Pour les pouvoirs publics, la mise en œuvre (ou pas) d’investissements dans des glissières de sécurité sur la route, ou de normes de sécurité renforcées sur les avions, montre également un arbitrage entre sécurité et dépenses à la charge de la collectivité.

Une question de politique publique

Au-delà des variations entre individus qu’il peut exister en matière de préférence pour la sécurité, et donc de valeur de la vie humaine, la détermination d’une valeur de la vie est une question concrète de politique publique. Pour l’Etat, donner une valeur à la vie humaine statistique (c’est à dire pour l’ensemble de la population) synthétise la préférence collective pour la sécurité et forme un guide précieux pour décider d’investissements et de régulations visant à réduire les risques – comme par exemple décider de fermer une usine dangereuse ou au contraire préserver ses emplois.

Par Emmanuel Grand

[1] Sans surprise, le premier universitaire américain qui a publié sur le sujet de la valeur de la vie humaine est un ancien conseiller de la RAND Corporation : Thomas Schelling, « The Life You Save May Be Your Own. » (1968)

L’huile de palme durable l’est-elle vraiment ?

La garantie RSPO fixe 3 niveaux distincts : « segregated » (ségrégation), « mass balance » (balance de masse) et « book and claim » (réserver et revendiquer). La garantie « segregated » indique que l’huile de palme utilisée pour fabriquer le produit est tracée et séparée des autres huiles non vérifiées sur toute la chaîne d’approvisionnement. Elle ne s’applique qu’à l’huile de palme 100% « durable ». La garantie « mass balance » veut que l’huile de palme utilisée soit majoritairement durable, mais sans séparation le long de la chaîne d’approvisionnement. Ainsi, le produit contient un mélange d’huile de palme durable et non durable, et donne aussi droit à une étiquette « verte ». Enfin, pour la garantie « book and claim », le fabricant achète simplement des certificats Green Palm, indépendemment de la chaîne d’approvisionnement réelle. Le logo RSPO est réservé aux produits contenant de l’huile de palme durable « segregated » et « mass balance »; ceux contenant de l’huile « book and claim » ne peuvent qu’indiquer « participe à la lutte contre la déforestation ».

Aujourd’hui, 2,2 millions d’hectares de plantations sont certifiées RSPO, soit 15% environ de la surface mondiale plantée (contre 106 000 ha en 2008). 8,2 millions de tonnes d’huile de palme RSPO ont été produites en 2013 (contre 620 000 tonnes en 2008). Toutefois, en 2015, un peu moins de 10 % de l’huile de palme échangée sur les marchés mondiaux était certifiée RSPO, en raison d’une offre qui dépasse la demande.

RSPO : des critères à consolider !

Dans leur forme actuelle, les critères de la RSPO ne donnent que des lignes directrices trop vagues pour viter l’assèchement des zones humides. Il n’y a pas non plus pour l’instant de critères concernant les émissions de gaz à effet de serre causées par la production d’huile de palme. Ses principes et critères garantissent cependant que les droits fondamentaux des précédents propriétaires terriens, des travailleurs sur les plantations, des cultivateurs et de leurs familles sont respectés et pris en compte. Ils assurent également qu’aucune forêt primaire ou zone protégée n’a été détruite depuis novembre 2005 pour laisser la place à des exploitations d’huile de palme. Mais la déforestation secondaire n’est pas toujours prise en compte et quelques certificats delivrés par RSPO sont aujourdhui contestés en Asie.

Face à ces critiques, la RSPO propose désormais « RSPO Next », une initiative volontaire dépassant les exigences actuelles de la RSPO. Pour obtenir cette certification, les planteurs doivent s’engager sur l’ensemble de leurs plantations à ce qu’il n’y ait aucune déforestation et aucun feu. Ils s’engagent à réduire leurs émissions de gaz à effet de serre, à respecter les petits exploitants et les droits ouvriers, à interdire le paraquat, un pesticide interdit dans l’Union européenne, et à renforcer leur traçabilité.

Par Matthieu Combe, journaliste scientifique

L’huile de palme : une productivité incomparable

La productivité moyenne mondiale d’huile de palme est de 3,8  tonnes par hectare et par an (t/ha/an), de l’ordre de 6 t/ha/an dans de bonnes conditions agro-écologiques. Les rendements du palmier à huile sont exceptionnels par rapport aux autres oléagineux. De ce fait, en occupant 7 % des surfaces agricoles consacrées aux cultures oléagineuses et 1 % des terres agricoles mondiales, le palmier à huile assure 35 % de la production mondiale d’huile végétale, selon le Cirad. Par comparaison, le soja, le colza et le tournesol occupent respectivement 61 %, 18 % et 14 % des surfaces agricoles oléagineuses. Par ailleurs, l’huile de palme a les coûts de production les moins élevés des huiles végétales (jusqu’à 20 % de moins que le soja).

L’huile de palme a un autre avantage par rapport aux autres oléagineux. Le palmier n’est pas génétiquement modifié, alors qu’en 2014, 82% du soja et 25 % du colza étaient des OGM… Remplacer l’huile de palme par d’autres huiles à grande échelle demanderait beaucoup plus de terres, de pesticides et participerait à développer les OGM.

Au total, près de 50 millions de personnes vivent directement ou indirectement de la filière. En Indonésie, l’huile de palme génère de 1000 à 2000 dollars par an et par hectare. Ces revenus ont contribué significativement à la régression de la pauvreté et à l’émergence d’une classe moyenne rurale, selon le Cirad.

Comment limiter la déforestation ?

Selon Cécile Bessou, correspondant adjoint de la filière palmier à huile du Cirad, seulement 10 à 15 % de la déforestation indonésienne est liée au palmier à huile. La grande majorité de la déforestation est en réalité due aux activités minières et à l’extraction du bois. Ainsi, sur les 21 millions d’hectares de forêt primaire qui ont disparu en Indonésie entre 1990 et 2005, seulement 3 millions correspondent à la création de palmeraies. Selon des travaux de recherche, si l’on mettait en culture toutes les terres dégradées recensées à ce jour en Indonésie, notamment les surfaces déboisées suite à l’exploitation forestière ne présentant pas d’intérêt de biodiversité, les besoins en nouvelles terres seraient couverts jusqu’en 2050.

Par Matthieu Combe, journaliste scientifique

Revue du web #88 : les meilleures vidéos high tech du mois

Un objet imprimé en 4D qui change de forme une fois dans l’eau

Des chercheurs ont créé un matériau anisotrope « programmable » capable d’ajouter une étape supplémentaire au processus d’impression en 3D.

Plongé dans l’eau, ce matériau adopte une nouvelle forme, préalablement inscrite dans sa composition. Comme les plantes qui modifient leur morphologie en fonction de leur environnement, il se transforme selon la programmation décidée par les chercheurs grâce à la nature anisotrope des fibrilles de cellulose.

Pour nous permettre d’observer le phénomène, les chercheurs ont créé deux formes d’apparence identique. Mais une fois plongées dans l’eau, ces fleurs ne réagissent pas de la même façon…

Tissus intelligents, électronique souple, organes… Les applications potentielles ne manquent pas.

 

Vous avez un smartphone ? Plus besoin de clés de voiture.

Vous oubliez tout le temps vos clés de voiture ? En revanche, vous ne vous séparez jamais de votre téléphone portable. La solution est donc toute trouvée : vous allez utiliser votre smartphone à la place de vos clés pour verrouiller et déverrouiller votre voiture.

Le constructeur Volvo a présenté cette technologie lors du Mobile World Congress qui se tenait fin février 2016 à Barcelone.

Le dispositif permet à un smartphone d’échanger en quelques secondes des informations avec l’ordinateur de bord du véhicule via une liaison bluetooth. Dès que ce dernier vous identifie, vous pouvez déverrouiller votre voiture et faire démarrer le moteur.

Cela permet de louer et prêter un véhicule très facilement puisqu’il suffit de générer une clé numérique et de l’envoyer au nouveau conducteur.

Les hackers risquent malheureusement de s’en donner à cœur joie.

 

Insolite : une chaise robotisée signée Nissan qui se gare toute seule…

Pourquoi ne pas utiliser notre fabuleuse technologie d’assistant au parking pour ranger notre fauteuil ? C’est l’idée étrange qui est née dans la tête de quelques ingénieurs du constructeur automobile Nissan.

Dans le cas d’une voiture, plusieurs caméras prennent les mesures et envoient les informations utiles à l’ordinateur de bord de façon à ce que le véhicule effectue lui-même le créneau parfait.

Les Japonais ont donc décidé d’installer une base motorisée à leur fauteuil ainsi que des puces de communication sans fil. La position des chaises, des bureaux et des tables est transmise grâce à des caméras placées sur les murs. Le résultat du calcul est transmis en Wi-fi aux pieds robotisés de la chaise.

Dans le futur,  nous n’aurons donc plus besoin de ranger nos fauteuils après chaque réunion, reste à savoir si cela permettra d’augmenter notre productivité.

 

La réalité augmentée, le futur du cinéma

Cinéma, jeux vidéo, médecine, éducation… La réalité augmentée va bientôt bouleverser nos habitudes dans de nombreux domaines en enrichissant la réalité par la superposition d’éléments virtuels.

Les écrans et claviers que nous connaissons pourraient s’effacer dans le futur. C’est la conviction de Microsoft qui a présenté ses lunettes Hololens, mais aussi de la start-up Meta, fière de ses premières lunettes de réalité augmentée dont les démonstrations à Vancouver ont attiré la foule.

Transporter le spectateur dans un environnement imaginaire et l’immerger totalement dans une autre réalité pourraient bien devenir le quotidien des salles obscures.

 

Réalité virtuelle : manipuler des objets grâce à Leap Motion

Décidément, le clavier et la souris sont en ligne de mire ! Les scientifiques ne cessent de chercher à les évincer au profit d’une meilleure immersion de l’utilisateur.

Orion, nouvelle version du logiciel Leap Motion, interface de contrôle en 3D, peut être intégré dans des casques de réalité virtuelle afin de manipuler des objets.

L’expérience est attractive. Un petit bémol cependant : la sensation de toucher, absente, risque de dérouter l’utilisateur.

 

Le premier vélo imprimé en 3D

Aux Pays-Bas, des étudiants ont construit le premier vélo imprimé en 3D par soudage baptisé le « Arc Bicycle ».

Cette nouvelle technique est plus rapide que la méthode traditionnelle qui consiste à imprimer en ajoutant une poudre de métal fondue ensuite au laser.

Il s’agit ici de déposer des petites couches de métal en fusion qui finissent par créer des colonnes, colonnes que l’on imbrique. Les pièces finales sont soudées ensemble, en un temps record.

Par Iris T.

Taxer l’huile de palme, la fausse bonne idée ?

Le boycott ou l’instauration d’une taxe sur l’huile de palme ne permettrait pas de faire baisser la demande mondiale. Elle aurait même un effet contre-productif ! L’amendement prévoit une taxe fixée à 300 euros par tonne en 2017, 500 € en 2018, 700 € en 2019 et 900 € à partir de 2020.

L’Alliance française pour une huile de palme durable « s’étonne de ce vote qui va à l’encontre de l’ambition de la « Déclaration d’Amsterdam », signée par la France le 7 décembre 2015, visant à obtenir 100% d’huile de palme durable en Europe en 2020 » . Elle affirme qu’une augmentation de la fiscalité mettrait en danger la compétitivité des entreprises et donc le développement de bonnes pratiques, notamment environnementales.

Le boycott réduirait les efforts déjà accomplis

Loin de diminuer, la demande en huile de palme continue de croître de 3 % chaque année. Mais seulement 17 % de la production mondiale d’huile de palme est consommée en Europe et aux Etats-Unis. Les pays qui tirent la demande sont les pays émergents, notamment, la Chine qui absorbe 40 % de la production mondiale. L’huile de palme est cultivée sur 20 millions d’hectares pour une production annelle globale de 54 millions de tonnes d’huile de palme et 6 millions de tonnes d’huile de palmiste. L’Indonésie et la Malaisie représentent 90 % de la production mondiale.

« Si les producteurs d’huile de palme mettent fin aux pratiques de déforestation à la demande des industriels européens, cela impacte de facto les productions vendues en Asie, principal acheteur, affirme Guillaume Réveilhac, Président de l’Alliance Française pour une Huile de Palme Durable. Si nous, industriels membres de l’Alliance, n’achetons plus demain d’huile de palme, quel sera le levier qui encouragera les producteurs à changer leurs pratiques ? ». En réalité, cet amendement enverrait un signal négatif aux producteurs et produirait un effet contraire : le boycott ne ferait que compromettre tous les efforts de durabilité accomplis jusqu’à présent. « L’intention est louable, l’effet est contraire », assure Michel Eddi, PDG du Centre de coopération internationale en recherche agronomique pour le développement (Cirad).

Par Matthieu Combe, journaliste scientifique

Biotech : « il est urgent de faire venir des capitaux privés ! »

Depuis 13 ans vous présentez un panorama du secteur innovant des sciences de la vie en France. Quel est le périmètre de ce secteur ? A-t-il évolué ?

photo POG rcdPierre-Olivier Goineau : sous l’appellation « sciences de la vie » nous regroupons aujourd’hui plusieurs filières qui tendent à converger. Il s’agit des biotechnologies, des dispositifs médicaux, de la e-santé et des cleantech. Ce secteur a grandement évolué. A titre d’exemple, notre questionnaire pouvait s’appuyer sur 20-30 entreprises de plus de 250 salariés il y a 13 ans aujourd’hui nous sommes à 200-300.

Là où il y a encore 10 ans, on ne comptait presque que des TPE, aujourd’hui, c’est beaucoup de PME et nombre d’entre elles devraient devenir des ETI.

 

Les pouvoirs publics soutiennent-ils activement ces entreprises innovantes ?

Pierre-Olivier Goineau : Oui, énormément. A la fois via la création de fonds, surtout pour l’amorçage, qui permettent à de nombreuses start-up de voir le jour mais aussi via des efforts pour structurer le secteur : création de pôle de compétitivité, société de valorisation de la recherche, mises en place de passerelles public-privé. L’importance prise par nos entreprises se traduit par exemple par la présence à la BPI (banque publique d’investissement, ex-Oséo) d’experts qui sont dédiés à nos métiers.

Comment se situent les entreprises françaises au niveau international ?

Pierre-Olivier Goineau : Depuis 2-3 ans, nos innovations sont réellement reconnues comme étant du plus haut niveau donc l’internationalisation est très rapide. Sur le terrain cela se traduit par des coopérations avec des universités étrangères ou par une présence importante de filiales notamment nord-américaines. Une tendance qui n’est pas sans poser la question d’un financement français privé plus important.

Les Français n’investissent pas assez dans les entreprises de biotech ?

Pierre-Olivier Goineau: Notre modèle économique est hyper-globalisé. Le carburant premier de nos entreprises, c’est le capital. Et il peut venir du monde entier. En France, pour débuter nous avons le soutien de structures telles que la BPI et il est facile de créer une start-up pour 2-3 ans mais quand il faut refaire un tour de table pour 10-20 millions supplémentaires, là, il y a carence. Aucun acteur privé ne veut investir. On s’aperçoit alors que les capitaux viennent de l’étranger ou d’une introduction en bourse, parfois trop précoce. Il faut savoir que nous intéressons beaucoup les investisseurs étrangers car nos entreprises sont très peu chères – de l’ordre de 10 fois moins qu’une entreprise équivalente aux USA. Mais il y a un risque majeur pour l’économie française d’investir dans la filière et de ne pas en récolter les fruits. Car si les capitaux viennent d’ailleurs, le centre de décision risque de se déplacer aussi et au moment où l’entreprise va employer des ingénieurs de manière plus massive, les emplois créés vont l’être hors de France.

Avez-vous des propositions pour améliorer l’appel de fonds privés ?

Pierre-Olivier Goineau : oui et nous les avons présentées au Gouvernement. Il s’agit par exemple de prélever 1% des 120-140 Md€ de l’assurance-vie pour le transférer vers les entreprises de la vie. Actuellement, j’anime une réflexion pour trouver une solution franco-française voire européenne via le plan Junker par exemple. Il est essentiel pour notre filière que les grands de la finance, les banques et les assureurs reviennent dans le jeu.

Quel conseil donneriez-vous à un jeune scientifique qui veut lancer son entreprise de biotech ?

Pierre-Olivier Goineau : Les jeunes qui veulent se lancer doivent être conscients d’une chose : soit on a l’ambition d’être le meilleur mondial, soit il vaut mieux renoncer. Nous sommes un secteur exigeant où il n’y pas de demi-mesure possible : il faut être le premier à déposer le brevet et prévoir tout de suite une stratégie mondiale de conquête. Par le passé des entreprises trop prudentes, trop timorées ont échoué à cause de ça. Aujourd’hui, les créateurs d’entreprises ont la chance d’être mieux conseillés et accompagnés et peuvent profiter de l’expérience de leurs prédécesseurs au sein de notre association, des cellules de valorisations ou par divers autres dispositifs.

Quelles sont actuellement les innovations qui induisent les plus grandes ruptures ?

Pierre-Olivier Goineau : Je pense que ce sont celles qui touchent à la santé, notamment la e-santé, c’est-à-dire tous les moyens de transfert d’information à partir de dispositifs médicaux. Outre l’aspect purement technologique lié aux dispositifs eux-mêmes ou aux supports de traitements des données,  l’arrivée de ces innovations chamboulent le rôle des experts médicaux, le parcours de soin et le statut des patients et posent de nombreuses questions éthiques. En termes d’emplois cela devrait ouvrir des perspectives pour les statisticiens, informaticiens et experts des nouvelles technologies dans les laboratoires et les hôpitaux.

Y-a-t-il d’autres secteurs porteurs ?

Pierre-Olivier Goineau : On pourrait aussi parler des cleantech. En France, on peut compter sur une bonne dizaine de sociétés innovantes (autour des algues, de l’analyse de l’eau, de la dépollution des eaux et des sols) qui font face à des géants qui ont une faible capacité de R&D pour trouver des technologies disruptives (comme nous dans la pharmacie). On voit alors naître des accords de licence et de distributions. Leur chance, c’est que le besoin en capitaux est moindre.

Propos recueillis par Sophie Hoguin

Une machine expérimentale perce les secrets des bulles de savon

Une équipe de chercheurs du département Matière molle de l’Institut de physique de Rennes (CNRS/Université Rennes 1) s’est penchée sur la question et a développé en laboratoire une machine à bulles auto-entretenue. Les chercheurs sont ainsi parvenus à déterminer la vitesse minimale à laquelle il convient de souffler sur un film de savon pour former des bulles, dans différentes conditions expérimentales. Ces travaux, qui permettraient d’optimiser divers procédés industriels, sont publiés le 19 février 2016 dans la revue Physical Review Letters.

© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1) (a) Evolution typique de la cavité créée dans un film lorsque la vitesse du gaz Vg croit et est inférieure à la valeur minimale de création de bulles Vc. (b) Des bulles se forment lorsque Vg est plus grande que Vc.
© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1)
(a) Evolution typique de la cavité créée dans un film lorsque la vitesse du gaz Vg croit et est inférieure à la valeur minimale de création de bulles Vc. (b) Des bulles se forment lorsque Vg est plus grande que Vc.

De nombreux phénomènes naturels et procédés industriels nécessitent la formation de films liquides minces, pour la production de mousses par exemple. D’autres processus impliquent au contraire d’empêcher l’apparition de bulles, en particulier pour la fabrication de verres et le dépôt de couches liquides sur plaques ou sur fibres. Afin de pouvoir étudier en laboratoire la formation de bulles de savon,  les chercheurs ont développé une machine à bulles expérimentale capable de conférer aux films de liquides minces une très grande durée de vie.

Une cuve placée en hauteur y laisse couler un fluide savonneux entre deux fils de nylon tendus. Le liquide s’écoule par gravité, puis est pompé pour revenir dans la cuve. Lorsque les deux fils, d’environ un mètre de long, sont éloignés l’un de l’autre, ils forment un film rectangulaire de liquide savonneux. Une « bouche artificielle », constituée d’une aiguille connectée à un régulateur de pression, permet de mimer le souffle humain. À basse vitesse, le jet de gaz déforme le film et crée une cavité qui s’affine lorsque la vitesse du gaz augmente, jusqu’au seuil de formation des bulles. Ces phénomènes rapides, difficilement discernables à l’œil nu, sont révélés en filmant l’expérience avec une caméra à haute vitesse.

Les chercheurs ont ainsi pu modéliser les résultats obtenus en fonction des différentes configurations expérimentales. Ils ont identifié les facteurs physiques clefs contrôlant la vitesse minimale à laquelle il convient de souffler, sur un film de savon, pour générer des bulles. L’équipe a également caractérisé l’influence de la distance séparant la « bouche » du film pour former une bulle, puis constaté que la vitesse d’écoulement et l’épaisseur du film d’eau savonneuse n’avaient pas d’impact sur la production des bulles dans les conditions étudiées.

Ces travaux rendent ainsi possible l’obtention d’excellentes données de mesures de taille et de fréquence de formation des bulles. Elles pourraient ainsi permettre d’optimiser divers procédés industriels.


Générer des bulles de savon requiert une vitesse du gaz (Vg) supérieure à une valeur seuil Vc (Film 1). Pour des vitesses de gaz inférieures au seuil, une cavité se forme dans le film de savon auto-entretenu, les autres paramètres de l’expérience demeurant identiques (Film2).© L. Salkin et al., Phys. Rev. Lett. (2016). Institut de physique de Rennes (CNRS/Université Rennes 1).   

Court-métrage de vulgarisation scientifique « Les Bulles de savon« 

Réalisée en 2014 par Louis Salkin (premier auteur de cet article, alors doctorant à l’Institut de physique de Rennes), cette vidéo a remporté la même année à Rennes le 1er prix du jury du Festival Sciences en cour[t]s.

Source : cnrs