Le premier « budget carbone » est britannique

Le Royaume-Uni a adopté, mercredi dernier lors de la présentation du budget, des objectifs chiffrés en ce qui concerne les émissions de CO2. Passée presque inaperçue, cette décision est pourtant historique, puisque c’est la première fois qu’un état adopte un « budget carbone ». Dans le détail, le gouvernement s’est basé sur les émissions de CO2 de 1990 pour imposer trois budgets quinquennaux avec des objectifs précis de baisse des émissions. Premier rendez-vous : 2012 pour lequel le gouvernement britannique table sur une baisse de 22 % des émissions. Le gouvernement compte ensuite sur une baisse de 28 % d’ici à 2016, et de 34 % d’ici à 2022. Il faut savoir qu’à l’heure actuelle, les émissions se situent déjà 19 % en dessous de leur niveau de 1990.Le contenu de ces budgets carbone présente deux nouveautés marquantes. Ils offrent des niveaux intermédiaires, ce qui permet d’avoir une idée plus précise de l’évolution des émissions du pays concerné. Ce qui facilite également l’évaluation du succès futur quant à l’objectif final.

Une première mondiale
Le deuxième avantage des budgets carbone est le côté officiel des documents. En effet, ces budgets sont des documents légaux, votés au parlement. Comme l’explique le porte parole de l’association « Friends of the Earth », Liz Hutchins, « le gouvernement pourra être poursuivi en justice s’il ne respecte pas ses objectifs. »Certes la sanction ne sera pas financiaire puisqu’aucune amende n’est prévue en cas d’échec vis-à-vis des objectifs fixés, mais « le gouvernement risque de payer un prix fort politiquement s’il se retrouve devant les tribunaux », confirme Liz Hutchins.Bien sûr, les associations environnementales britanniques saluent l’action du gouvernement, en soulignant toutefois que l’application du budget carbone laisse à désirer sur certains points. Par exemple, le montant du budget à proprement parlé laisse perplexe.

Un budget, mais très peu d’argent investi
Au total, ce sont 1,5 milliard d’euros qui ont été débloqués pour lutter contre les émissions de CO2. Adrian Wilkes, directeur de l’Environmental Industries Commission (un groupement de quelques 300 entreprises liées aux technologies de l’environnement), salue l’action du gouvernement, mais reste dubitatif sur les moyens mis en œuvre : « il y a un vrai risque que les objectifs ne soient pas atteints s’il n’y a pas de nouveaux investissements dans les technologies de l’environnement. »Quoi qu’il en soit, avant le vote définitif du budget et de son montant début juin, la mise en place officielle de cette échelle d’actions va dans le bon sens, et est supérieure aux objectifs fixés précédemment par Downing Street, qui fixaient une baisse atteignant 32 % d’ici à 2022. Les objectifs du budget carbone pourraient même être revus, si un accord est trouvé à la conférence de Copenhague en décembre prochain.

Des fonds pour les plastiques sans pétrole de Draths

La société américaine de biochimie Draths vient de lever 21 millions de dollars. Ses bailleurs de fonds sont le grand fonds d’investissement TPG (Texas Pacific Group), qui a mené le tour de table, ainsi que les fonds californiens CMEA Capital et Khosla Ventures.Draths a basé sa technologie sur une recherche issue de l’Université du Michigan qui combine biologie moléculaire, ingénierie génétique et chimie de synthèse pour créer des hydrates de carbone à hautes performances. Car, comme le souligne son responsable scientifique John Frost, ex-professeur à l’Université du Michigan, « la vieille industrie pétrochimique durera ce que durera le pétrole. »La société Draths, fondée par John Frost et sa femme Karen Draths, également chimiste, avait déjà levé 1 million de dollars auprès de business angels puis 5 millions auprès de Khosla Ventures fin 2007.

Préparer la fin du pétrole
La jeune société, créée en 2005, vise en premier lieu l’immense marché mondial des nylons (un marché de 20 milliards de dollars), un matériau utilisé dans toutes sortes de produits grand public. Autres secteurs visés en priorité, ceux des arômes synthétiques, des peintures et des résines.Draths est l’un des pionniers d’une chimie d’un nouveau genre, celle de l’après-pétrole, basée sur la biologie. Déjà, des géants pétrochimiques comme DuPont se sont lancés dans la fabrication de substituts du plastique à base de plantes : DuPont a développé une technique baptisée Genencor, qui transforme du sucre de maïs fermenté en un polymère baptisé Cerenol, qui peut par exemple remplacer les produits dérivés du pétrole dans les peintures pour voitures. Le groupe de biotechnologies Cargill a lui démarré un nouveau polymère à base d’huile végétale, qui peut être utilisé pour fabriquer des mousses polymères pour les lits, les sièges ou les appuie-têtes de voitures.Mais il fallait des produits économiquement compétitifs pour détrôner les plastiques à base de pétrole : c’est le pari de Draths qui crée des micro-organismes capables de convertir le glucose en alcools aromatiques. Et non seulement ces nouveaux plastiques permettent de se passer de pétrole et donc d’usines particulièrement polluantes, mais en plus ils sont biodégradables.Par Laurence Benhamou, auteur du blog Green Univers

Bientôt une essence synthétique plus vraie que nature

C’est grâce à une découverte, faite il y a presque trente ans dans une décharge française que des chercheurs américains, du laboratoire de biologie de synthèse de l’Université de San Francisco, ont mis au point une essence synthétique. A l’origine de celle-ci, une bactérie dont les propriétés ont permis d’élaborer une nouvelle méthode de transformation des déchets industriels en essence, sans utiliser de sources alimentaires. Comment ? Grâce à l’identification d’un composant capable d’utiliser la biomasse pour produire un gaz qui peut être transformé en essence synthétique, mais qui apparaît, et c’est là que réside la véritable avancée de cette découverte, en tout point similaire au pétrole produit grâce aux carburants fossiles.

Utiliser des matières premières non alimentaires
Comme l’affirme Chris Voigt, qui a dirigé l’étude, « vous pourriez dès aujourd’hui remplir votre réservoir avec cette nouvelle essence, votre moteur ne sentirait pas la différence. »Mais contrairement aux biocarburants, décriés pour leur production faisant appel à des sources alimentaires, cette essence de synthèse utilise un grand nombre de produits non alimentaires, comme les résidus fibreux de la canne à sucre, ou les feuilles et les tiges du maïs. Cette propriété répond à un des inconvénients majeurs attribué aux biocarburants : utilisant des sources alimentaires, ces derniers sont accusés de participer à une hausse du prix de l’alimentation. L’autre avantage important de cette essence est sa composition. Equivalente aux carburants classiques, elle pourrait facilement suppléer le pétrole explique Chris Voigt : « Les Etats-Unis pourraient se tourner vers ce genre de sources biologiques pour compléter une grande partie de l’essence dont les américains ont besoin lorsque les prix du pétrole sont trop élevés. Ensuite, si le prix du pétrole redescend, nous pourrions repasser au pétrole, et le consommateur ne sentirait même pas la différence. Et nous pourrions faire tout cela sans éthanol. »

Une solution à l’augmentation des prix du pétrole ?
La découverte faite par le laboratoire de biologie de synthèse de l’Université de San Francisco permettrait, selon les calculs, de produire de l’essence pour environ 0,33 dollar par litre, à partir du bagasse de canne à sucre. Mais, pour des sources cellulosiques telles que le peuplier, le prix pourrait encore baisser, pour osciller entre 0,22 et 0,26 dollar le litre.Le potentiel de ce nouveau carburant est donc évident. La première usine pilote devrait voir le jour d’ici trois ans.

Pour un développement de masse des véhicules électriques

Dans quelques semaines, au mois de juin, la Commission européenne communiquera sur l’avenir des véhicules électriques, pour établir les actions possibles de développement pour ce type de véhicule. Devançant les débats à venir, l’association européenne Going Electric publie les résultats d’une étude qui valide le choix de l’électrique. La création d’un marché de masse du véhicule électrique est même avancée. Dans cette étude, intitulée « La consommation d’énergie, les émissions de CO2 et autres considérations liées aux batteries des véhicules électriques », Going Electric liste les avantages du développement du transport électrique, et propose des mesures, au niveau européen, pour favoriser au mieux ce développement.Ainsi, la généralisation des voitures électriques, et la prise en compte du mix de production électrique européen, permettraient de générer presque deux fois moins de CO2 que les voitures à carburant fossile. De plus, la consommation d’énergie serait drastiquement revue à la baisse, toujours selon l’étude.

Pas de problème d’infrastructures
A travers des simulations, l’association se montre optimiste en ce qui concerne le parc électrique. Ainsi, un développement en masse de ce marché n’impliquerait pas une augmentation substantielle des infrastructures électriques, si on considère l’électrique comme représentant un quart du parc automobile. Côté consommation de pétrole, l’étude accouche de résultats tout à fait étonnants. En effet, l’utilisation systématique des véhicules électriques pour les déplacements de courte durée, dans le monde entier, réduirait la consommation de pétrole d’environ 20 %. Autres effets bénéfiques : la pollution urbaine diminuerait légèrement, la pollution sonore serait quasiment nulle, et les problèmes de circulation et de stationnement s’atténueraient. Trois autres préconisations faites par Going Electric visent à favoriser la mise en place d’un marché de masse des véhicules électriques. La principale vise à faire en sorte que l’UE rattrape son retard sur les Etats-Unis et la Chine. Il faut savoir que les producteurs de batteries américains, les constructeurs automobiles et les consommateurs reçoivent des subventions gouvernementales. En Chine, les fabricants ont un fort avantage concurrentiel en termes de coût. Il faudrait donc, au niveau européen, adopter au plus vite des mesures incitatives pour les constructeurs, mais aussi pour les consommateurs et les villes.

La nécessité d’agir auprès des constructeurs, des consommateurs et des villes
Dans le détail, l’aide aux constructeurs automobiles se résumerait à subventionner les recherches en matière de batterie pour développer de nouvelles technologies plus efficaces. Des investissements dans les capacités de production de masse des véhicules et de leurs composants seraient également nécessaires.Au niveau des efforts à faire pour aider les villes, l’association Going Electric préconise deux types d’actions. D’abord, l’aide à la mise en place de structures de charge dans des espaces publics faciliterait l’utilisation des véhicules électriques de manière massive. Ensuite, l’instauration de mesures incitatives, comme par exemple l’autorisation d’utiliser les voies de bus ou la gratuité des places de parking, irait dans le bon sens. Pour les consommateurs, l’enjeu est simple. Il faut que les prix d’achat des véhicules électriques soit en concurrence directe avec celui des véhicules à essence. Comme ce n’est pas pour l’instant le cas, Going Electric préconise la mise en place de subventions spécifiques qui permettraient au consommateur de se tourner vers l’électrique plus facilement.

Une feuille de route pour la Commission européenne ?
L’étude menée par Going Electric a permis de faire émerger d’autres voies d’action pour favoriser le développement des véhicules électriques, voies qui pourraient d’ailleurs être mises en place, puis supprimées une fois les véhicules produits en masse et devenus compétitifs. Ainsi, réductions d’impôts, TVA réduite, exonération des taxes d’enregistrement ou encore incitations financières pour l’échange entre un véhicule conventionnel et un véhicule électrique apparaissent comme autant de pistes à creuser. Il reste maintenant à voir si la Commission européenne tiendra compte de ces préconisations, qui accélèreraient de façon substantielle l’installation sur le marché des véhicules électriques.

Les bactéries productrices d’hydrogène : de nouveaux débouchés pour les énergies propres ?

C’est peut être une nouvelle technologie verte, que viennent de mettre à jour les chercheurs l’Agricultural Research Service (ARS) et de l’université de l’état de la North Carolina State University (NC State). Cette découverte est la production d’hydrogène à partir de bactéries fixatrices d’azote.Les sources d’énergie renouvelables, comme l’hydrogène, qui ne produisent pas de polluants ou de gaz à effet de serre sont nécessaires pour résoudre le problème mondiale de pénurie d’énergie. Les combustibles fossiles comme le charbon, le pétrole et le gaz naturel sont des sources d’énergie non renouvelables et fortement impliqués dans le problème de réchauffement climatique.

Un seul sous-produit : la vapeur d’eau
Les applications potentielles sont multiples : ainsi, les piles à combustibles pourraient profiter de cette découverte. En effet, le dispositif des piles à combustible utilise l’hydrogène et l’oxygène pour produire de l’électricité. Les piles à combustible, non polluantes et qui plus est silencieuses, ont de nombreux avantages. Elles sont actuellement testées en application sur de nombreux produits, et notamment sur les voitures. Au final, les véhicules ainsi équipés ne dégagent rien d’autre que de la vapeur d’eau en guise de sous-produit.Dans le détail, les bactéries fixatrices d’azote, qui intéressent les chercheurs, sont bien connues dans l’agriculture. Ce sont elles qui, dans le sol, transforment l’azote en le rendant disponible, c’est-à-dire assimilable, pour les racines des végétaux. Trois processus de base sont impliqués dans le recyclage de l’azote : la fixation de l’azote diatomique N2, la nitrification et la dénitrification. C’est lors de la réaction de nitrification qu’il y a production d’hydrogène.A partir de là, les chercheurs ont développé un agent de sélection, dont le rôle est d’identifier les souches de bactéries productrices d’hydrogène. L’agent de sélection permet d’identifier une souche bactérienne sans qu’il soit nécessaire de faire un séquençage génomique ou de faire des modifications génétiques.

Une solution pour les piles à combustibles
C’est grâce à cet agent que les chercheurs ont pu identifier et isoler le gène qui inactive les capacités d’absorption d’hydrogène par la bactérie. Ainsi, l’hydrogène est libéré, il peut alors être capturé et utilisé comme un combustible ayant pour seul sous-produit de la vapeur d’eau.Grâce à cet agent de sélection, les scientifiques ont pu identifier un gène qui inactive la capacité d’absorption de l’hydrogène ce qui permet ainsi à l’hydrogène produit d’être libéré. Cet hydrogène produit peut alors ensuite, être capturé et utilisé comme un combustible ayant pour seul sous-produit de la vapeur d’eau.Un brevet a d’ores et déjà été déposé par les chercheurs de l’ARS et de l’université de Caroline du Nord, qui continuent à travailler pour perfectionner la mise au point de cette nouvelle énergie propre.

SkySpark, un avion 100 % électrique pour demain ?

A l’origine du projet, on retrouve une spin off de l’Université Polytechnique de Turin, la société Digisky, ainsi que le groupe de recherche du Département d’Ingénierie Aéronautique et Spatiale du Polytechnique de Turin (DIASP). Présenté fin janvier à l’Environnement Park de Turin, SkySpark se veut un concentré des technologies aéronautiques de demain : des batteries lithium polymère, un moteur électrique brushless, un système de compensation automatique pour optimiser le fonctionnement des piles durant le vol, ou encore un contrôleur électronique de puissance intégré.Lancé en 2007, l’avion sera dévoilé lors des World Air Games 2009 qui se dérouleront en juin à Turin, avant la tentative prévue pour cet automne. Le record visé par l’embarcation consisterait en un vol de 500 km à une vitesse moyenne de 300 km/h. L’avion sera piloté par Maurizio Cheli, astronaute italien et actuel chef-pilote d’essais du programme Eurofighter.Par Christian Caro, auteur du blog environnement-info

Mise en place d’un forage géothermal près de Paris

L’opérateur de réseau de chaleur de Paris, la CPCU, réalise actuellement un puits géothermal à Aubervilliers. Prévu pour produire à terme 100.000 MWh/an, l’ensemble alimentera l’équivalent de 10 à 15.000 équivalents logements dans le Nord-Est parisien.Concrètement, ce forage géothermique basse énergie utilise de l’eau pompée à une profondeur d’environ 1.800 mètres. Pompée dans le dogger, l’eau sort à une température de 57 °C, ce qui nécessite l’utilisation de pompes à chaleur, ceci afin d’optimiser le rendement énergétique, avant la distribution dans le réseau.Réinjectée dans le même aquifère, l’eau prélevée est alors à une température de 20 °C. Financièrement, le montant des travaux et de la mise en route de cette installation s’élève à 31 millions d’euros, tout en sachant que l’ADEME finance le projet à hauteur de 18 %. Au final, le prix de revient est estimé entre 45 et 50 euros/Mwh.

1 milliard d’euros investis sur deux ans
Jean-Christophe Allué, directeur adjoint de CPCU, envisage la mise en place d’un deuxième forage dans le Nord-Est parisien (près de porte de la Chapelle), « dans la mesure où cela se justifie », précise-t-il. Suite aux décisions prises au Grenelle, les projets, particulièrement en Ile de France, se multiplient.Ainsi, la région a voté le 17 avril un « plan régional pour la géothermie en Ile de France dans l’habitat et le tertiaire », sur la période 2008-2013. A partir de là, une douzaine de sites ont été identifiés comme pouvant accueillir des installations géothermiques. Plus de 30.000 logements pourraient à terme être chauffés grâce aux forages géothermiques.Au niveau national, le Grenelle prévoit, d’ici à 2020, d’atteindre l’objectif de 20 millions de tonnes équivalent pétrole (tep) annuelles supplémentaires d’énergies renouvelables. Or, la géothermie doit prendre une part importante dans la réalisation de cet objectif, estimée à 1,3 million de tep.

Un potentiel important en Ile de France
Mais c’est bien l’Ile de France, région extrêmement bien dotée en ressources aquifères, qui devrait être le moteur de l’activité géothermique sur le territoire français. En effet, la région mise sur une augmentation de 50 % de l’ « activité géothermie » d’ici à 2020. Guy Simmonot, délégué régional de l’ADEME, confirme le potentiel de la région : « actuellement, la géothermie produit l’équivalent de 130.000 tep en Ile de France. Nous misons sur 400.000 tep en 2012 ».Les projets géothermiques se multiplient, donc, et le fonds chaleur renouvelable, initié par le Grenelle et doté de un milliard d’euros, devrait favoriser ce dynamisme et accélérer la concrétisation des projets.

Les nouvelles industries sont de gros utilisateurs de matériaux et d’énergie

D’après cette étude, les industries les plus récentes consomment entre 1.000 et 1.000.000 fois plus d’énergie que les industries traditionnelles. Avez-vous été surpris par ces résultats ?
Dusan Sekulic : Dans la conversation de tous les jours, nous utilisons le mot « énergie » dans son acception large. Mais pour un scientifique, il faut faire attention à distinguer « énergie » et « ressources énergétiques ». Le point important pour nous n’est pas seulement la quantité d’énergie consommée au final mais également l’efficacité énergétique des ressources utilisées, c’est-à-dire quel pourcentage est perdu.D’autre part, nous prenons en compte les différences de magnitude dans l’utilisation des ressources énergétiques par unité produite. De ce point de vue, nous devons bien faire la différence entre la consommation totale des ressources énergétiques et les ressources énergétiques spécifiques nécessaires pour obtenir le résultat voulu par unité d’un produit/service. Cette consommation énergétique spécifique peut être spectaculairement plus importante pour les industries de pointe modernes que pour les industries traditionnelles.Mais ce n’est qu’un aspect. Il nous faut regarder le cycle de vie complet du produit dans un contexte de développement durable. Un certain produit peut sembler « meilleur marché » en termes de ressources énergétiques consommées au cours de son processus de fabrication, si nous nous arrêtons là. Mais si nous regardons plus loin, nous pouvons également inclure la qualité du produit, ses bénéfices non matériels comme sa capacité à nous rendre heureux, qui sont des critères importants mais non exclusifs de développement durable. Mais ce qu’il faut prendre avant tout en compte, c’est sa consommation des ressources (énergie et matériaux) au cours de son cycle de vie. Pour répondre à la question, non, nous n’avons pas été surpris par ces différences. Elles sont simplement la conséquence de la demande pour un certain produit, en fonction de l’état actuel des connaissances et de l’état de l’art. Autrement dit, nous fabriquons parfois « au-delà de nos moyens », de la même façon que d’autres utilisent leur carte de crédit. Mais nous sommes ensuite « taxés » lourdement par les lois de la Nature qui nous obligent à payer le prix fort en terme de consommation des ressources énergétiques. Ce qui est surprenant, c’est que les gens prêtent en général toujours attention à l’utilité du produit et non au prix que nous devons tous payer pour l’obtenir, à savoir l’appauvrissement des ressources. Ainsi, nous consommons aujourd’hui nos ressources comme si nous étions persuadés qu’il n’y aura pas de meilleur moyen ou de moyen plus efficace de les utiliser dans le futur.

Ces résultats remettent-ils en question la quête d’efficacité énergétique au 21ème siècle ?
C’est une question difficile. Dans la mesure où pour certains procédés de fabrication indispensables, nous n’avons pas actuellement de meilleure alternative, l’inefficacité doit de façon surprenante être la règle. D’autre part, lorsque nous parlons d’améliorer l’efficacité énergétique d’une technologie donnée, nous devons accepter que ces progrès soient progressifs, et non pas spectaculaires. Des bonds technologiques radicaux sont également essentiels. Mais il faut faire attention à ne pas surestimer le rôle des nouvelles technologies « en attente d’être découvertes ». La Nature impose certaines limites concernant toute ressource d’énergie et de matériaux. Nous espérons résoudre les problèmes mondiaux de développement durable en utilisant les nouvelles technologies. Toutefois, à la fin de la journée, ce qui compte c’est la consommation et/ou l’impact total des ressources. Les grandes avancées dépendent des petits pas à l’échelle locale et c’est la raison pour laquelle nous devons nous efforcer d’améliorer nos procédés/technologies lorsque cela est possible.

Suite à votre étude, que recommandez-vous pour réduire les coûts de production en termes de ressources énergétiques ?
Certaines personnes excessivement optimistes pensent que les technologies du futur pourront résoudre tous les problèmes liés au développement durable. Il est vrai que le progrès technologique est important pour atteindre nos objectifs mais les nouvelles technologies ne seront jamais une solution suffisante en soi. Nous croyons qu’il est utile d’établir de façon rigoureuse les limites imposées par les lois physiques pour atteindre l’efficacité énergétique des processus et des produits. Identifier les limites réelles aux progrès futurs des technologies à venir est l’une des façons par lesquelles la science peut nous aider à nous concentrer sur les opportunités les plus réalistes dans lesquelles les nouvelles technologies peuvent faire la différence. Cette vision théorique a deux implications importantes. La première met l’accent sur le gaspillage de la consommation énergétique des technologies et des comportements humains actuels. Bien que le progrès humain ne peut pas et ne doit pas être bridé par une régulation imposée, il est crucial d’être conscient de l’impact et des conséquences d’un développement sans limites. La seconde est que c’est une illusion de croire que nous pouvons produire du nouveau capital pour remplacer le capital naturel épuisé. La solution de la facilité est un leurre. En savoir plusDusan Sekulic est professeur dans le département de construction mécanique de l’Université de Kentucky  

Sources :
Environ. Sci. Technol., 2009, 43 (5), pp 1584–1590 DOI:10.1021/es8016655 Publication Date (Web): January 29, 2009 

Le bioéthanol : une solution non durable

Les producteurs américains d’éthanol n’avaient pas besoin de mauvaises nouvelles supplémentaires. En dépit des aides fédérales et étatiques et d’un mandat fédéral en progression constante pour l’utilisation de ses produits, l’industrie américaine d’éthanol a souffert de ses faibles marges suite au choc pétrolier de l’année dernière.Un certain nombre de grandes comme de petites sociétés ont été forcées de s’en remettre au Chapitre 11 sur la protection des faillites. VeraSun, ex-leader de l’industrie qui a fait aujourd’hui faillite, a récemment vendu sept de ses usines à la compagnie pétrolière indépendante Valero, et plusieurs autres à ses créanciers. Mais alors que la controverse « pétrole contre nourriture » de l’année dernière a presque disparu, grâce à la baisse des prix du maïs, une nouvelle étude de l’Université du Minnesota suggère que certaines productions d’éthanol consomment davantage d’eau que précédemment estimé : de l’ordre de 529 litres pour chaque litre d’éthanol produit dans les états où les cultures doivent être irriguées.Ce résultat infirme encore un peu plus les bénéfices environnementaux d’un carburant qui économise une quantité non négligeable de pétrole mais nécessite un apport important en gaz naturel et autres carburants fossiles, n’offrant qu’un faible progrès en terme de gaz à effet de serre par rapport à l’essence.

529 litres d’eau pour produire un litre d’éthanol
Quant aux autres dommages environnementaux dont il est responsable, l’impact majeur de l’éthanol sur l’eau a lieu en amont de l’usine d’éthanol. L’eau utilisée dans les processus de traitement du maïs, d’hydrolyse, de fermentation et de distillation de l’éthanol ne compte que pour 3 % dans la consommation totale en eau analysée par Chiu, Walseth et Suh dans leur article « La contribution de l’eau dans le bioéthanol aux Etats Unis ».Ils ont aussi noté des écarts considérables du ratio de la consommation totale en eau (irrigation et processus) par unité d’éthanol produit par état : ainsi, inférieur à 10 pour 1 dans l’Iowa, le Kentucky et l’Ohio, il est supérieur à 1.000 pour 1 en Californie, dans le Colorado, le Nouveau Mexique et le Wyoming !Heureusement, ces derniers n’ont contribué qu’à 3 % de la production d’éthanol en 2007 comptabilisée dans l’étude, ce qui donne une moyenne nationale de 36 litres pour 1 litre d’éthanol. Cependant, deux états gros producteurs d’éthanol, le Kansas et le Nébraska, comptent pour 14 % de la production d’éthanol et plus de la moitié de la consommation d’eau des Etats Unis pour l’éthanol, avec des ratios supérieurs à 500 pour 1. Un tableau sur le site Technology Review du MIT illustre ces variations état par état.Ces découvertes s’ajoutent à une liste déjà intimidante de préoccupations concernant la viabilité à long-terme d’une politique énergétique alternative qui reposait principalement jusqu’à maintenant sur des récoltes nécessitant un apport en eau extrêmement élevé, et des engrais dérivés du gaz naturel.

Le progrès ne se fait pas à la demande
La dépendance à l’eau de l’éthanol de maïs paraît encore moins durable sous divers scénarios de changement climatique, que ce carburant devait ironiquement aider à atténuer. Pour dire les choses simplement, si les réserves d’eau devaient être encore plus restreintes dans l’ouest et le sud-ouest dans le futur, la dernière chose à faire serait de les détourner pour l’usage d’un substitut au pétrole à la consommation aussi intensive.Il y a urgence pour passer à une logique de matières première à base de cellulose demandant peu ou pas d’irrigation, du moins pour ces états où le ratio eau/éthanol est supérieur à la moyenne nationale. Mais malheureusement, augmenter le budget de la recherche et en faire un objectif prioritaire ne garantit pas que les technologies actuelles de l’éthanol de cellulose, au stade expérimental, soient économiquement viable à grande échelle. Le progrès ne se fait pas à la demande.Les résultats obtenus par Chiu, Walseth et Suh fournissent un support supplémentaire pour une réévaluation approfondie des politiques américaines liées aux biocarburants. Faire passer encore plus d’éthanol dans l’essence aurait des conséquences incertaines pour les automobilistes. De plus, étendre nos ressources agricoles en développant des cultures non durables de biocarburants, dont la contribution à la lutte pour réduire les gaz à effet de serre est remise en question, le gouvernement devrait demander au Congrès de geler la part de l’éthanol conventionnel du Renewable Fuel Standard (une obligation d’incorporation de biocarburants) à son niveau actuel de 40 milliards de litres d’éthanol pour 2009.C’est une augmentation de 9 % par rapport à la consommation de 2008, qui était de 36 milliards de litres, nécessitant plus de 3,78 trillions de litres d’eau pour leur production. Les augmentations futures devraient attendre soit la mise sur le marché d’un éthanol de cellulose, soit l’application de restrictions concernant la part d’eau et d’énergie fossile de ce carburant. Cela n’aidera pas l’industrie actuelle de l’éthanol surconstruite, mais ainsi, on s’assurera que nos descendants profiteront d’un futur plus durable. 

Source :
Chiu et al. Water Embodied in Bioethanol in the United States. (Feb. 2009). Environmental Science & Technology, 2009; 43Geoffrey Styles est gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook

Justice et probabilité – « Le risque nul n’existe pas »

Le risque nul n’existe pas ! Cette affirmation est citée à tout propos sur les ondes et dans la presse chaque fois que se pose un problème de sécurité.Que voici une amélioration par rapport à l’opinion unanimement répandue il y a encore vingt ans. A cette époque certains spécialistes de la sécurité des transports ferroviaires, entre autres, avaient mis en avant le concept de « sécurité intrinsèque » permettant de « démontrer » l’absence totale de risque, ce qui était bien agréable pour les usagers ainsi assurés de faire un voyage sans aucun accident. Ces mêmes spécialistes me menaçaient alors des foudres de leur corporation si je persistais à mettre en doute la validité de leur concept. En pratique ce « principe » imposait des procédures judicieuses de conception conduisant à une probabilité d’incident très faible (malheureusement non chiffrée), si faible même qu’assimilant « très faible » à « négligeable » et « négligeable » à « nul », on en déduisait l’impossibilité d’apparition de l’incident redouté. Par contre l’absence de chiffrage conduisait parfois à ignorer a priori des événements non négligeables en réalité.Or ce n’est pas parce qu’un événement est hautement improbable qu’il ne se produit pas. Pour s’en convaincre il suffit de calculer la probabilité de gagner le gros lot au Loto, c’est-à-dire de prévoir six numéros gagnants sur quarante-neuf. Il y a environ une chance sur quatorze millions de gagner, événement par conséquent hautement improbable. Or presque à chaque tirage, il y a un gagnant, ce qui ne signifie pas que le calcul de la probabilité soit faux, mais que le nombre de joueurs est grand ! En effet la probabilité pour qu’il y ait au moins un gagnant, si vingt millions de grilles ont été joués, est de 76 %. Elle monte même à 98,6 % pour trois tirages de vingt millions de grilles.Cet état d’esprit vis-à-vis du risque nul ou de ses formes « scientifiques », la sécurité intrinsèque ou la sécurité absolue, se retrouve dans le jugement de l’accident de la Gare de l’Est, du 6 août 1988 dont voici un extrait des attendus (les mots en gras figurent sous cette forme dans le document en notre possession ; c’est nous qui avons mis en italique quelques mots).« Toutefois, les améliorations qui pourraient être apportées dans ce domaine [la formation] n’excluent pas la présence humaine indispensable dans la conduite du train et donc, la prise de conscience par le conducteur qu’il doit faire un diagnostic exact de la situation et y apporter une solution appropriée ce qui n’a pas été le cas de L*** V***; ainsi, ne peut, en matière de transport en commun, être admise, compte tenu des enjeux liés à la sauvegarde des passagers, la possibilité de l’erreur humaine alors que le conducteur a à sa disposition des éléments de sécurité nombreux et perfectionnés. L’évolution des techniques, les moyens financiers accrus, la prise de conscience d’atteindre l’objectif de sécurité absolue, ne sauraient faire oublier qu’en tout état de cause, l’homme jouera toujours un rôle indispensable en complément de la machine et qu’il doit, en conséquence, ne pas commettre de fautes de la nature de celles qui viennent d’être mises en évidence ci-dessus. »« En conséquence, le délit reproché au prévenu ayant été établi, L*** V*** sera retenu dans les liens de la prévention. »Nous ne sommes que techniciens de la sécurité. Il n’est donc pas question pour nous de remettre en cause la chose jugée et d’émettre une opinion sur la valeur juridique de ce texte, mais nous sommes en droit de nous poser la question de sa valeur sur le plan scientifique.Revenons à la situation actuelle.L’opinion ayant évolué dans le sens du rationnel, il est maintenant admis que le risque nul n’existe pas, mais à l’occasion de chaque accident grave défrayant la chronique, chacun s’écrie : « Plus jamais, plus jamais une telle catastrophe ! Il faut prendre des mesures pour éviter qu’un tel événement ne se reproduise et prendre des sanctions envers les acteurs du drame. »Cette opinion impose deux remarques :Le « plus jamais » est impossible. C’est d’ailleurs le seul événement dont la probabilité soit effectivement nulle ! Mais devant une catastrophe nous oublions le raisonnement scientifique pour faire place au « raisonnement sentimental », ce qui est humain et bien naturel mais hélas irrationnel et en aucun cas « raisonnable ». En d’autres termes, nous acceptons qu’il existe une parcelle d’incertitude, sauf lorsque l’accident survient, auquel cas, il faut un coupable.Nous sommes donc bien face à deux logiques. Comment concilier ces deux visions, celle du techniciens dont l’objectif est de minimiser les risques par une démarche probabiliste et celle du juriste qui recherche les liens de causalité ? Quels enseignements tirer de la confrontation de ces deux démarches ? Petit tour d’horizon en situation.Par Jean-Claude Wanner, Académie de l’air et de l’espace  

Les autres articles du dossier
  • Atouts et faiblesse de la démarche probabiliste face au juge
  • L’approche juridique, ou le jeu de l’intime conviction
  • Les atouts du retour d’expérience

Le secteur du bâtiment doit changer s’il veut atteindre ses objectifs en matière d’éfficacité énergétique

L’étude conduite par le Conseil Mondial des entreprises pour le Développement Durable (World Business Council for Sustainable Develoment ou WBCSD) est porteuse d’espoir. En effet, on y apprend la consommation d’énergie peut être réduite dans les immeubles d’au moins 60 % d’ici à 2050. Cette réduction est non seulement souhaitable, mais elle s’avère indispensable, par rapport au respect des objectifs mondiaux en matière de changement climatique.Le rapport, intitulé « Transformer le marché : efficacité énergétique des bâtiments », se base sur un modèle de simulation unique, qui a permis d’établir une feuille de route qui destinée à accompagner les acteurs du secteur du bâtiment vers les objectifs souhaités en matière d’efficacité énergétique.C’est le président de WBCSD, Björn Stigson, qui résume le mieux les enjeux liés au secteur du bâtiment : « sans mesures immédiates, des milliers de nouveaux bâtiments seront construits sans aucune considération pour l’efficacité énergétique et des millions de bâtiments existants consommant plus d’énergie que nécessaire seront toujours présents en 2050. Agir maintenant implique de réduire leur consommation énergétique et de faire de réels progrès en faveur de la lutte contre le changement climatique.

L’étude la plus rigoureuse jamais réalisée sur ce sujet
Björn Stigson en appelle à la responsabilité du secteur, qui ne doit pas se reposer sur la volonté seule des propriétaires et occupants de bâtiments : « La plupart des propriétaires et occupants de bâtiments ne sont pas assez informés sur la consommation d’énergie et ne s’en soucient pas suffisamment. Cette inertie est renforcée par les affirmations selon lesquelles les coûts sont trop élevés et les économies trop faibles. C’est pourquoi tout le monde doit fournir un effort important ».Pour établir une liste des recommandations, l’équipe chargée de l’enquête a d’abord établi, grâce à une approche micro-économique, la liste des barrières à la réduction de la consommation d’énergie. Ensuite, grâce à des simulations combinant différents facteurs (financiers, techniques, comportementales et règlementaires principalement), les chercheurs ont pu mettre en avant les changements à opérer sur le marché, pour accompagner au mieux cette réduction de la consommation d’énergie. Six recommandations se dégagent dans cette liste de recommandations :
  • Renforcer la réglementation thermique et les labels afin de permettre une meilleure information
  • Inciter les investissements en efficacité énergétique
  • Encourager les approches globales et les innovations
  • Développer et utiliser des technologies de pointe qui pour faciliter les comportements économes en énergie
  • Développer une main d’œuvre pour les économies d’énergie
  • Mobiliser en faveur d’une culture consciente des enjeux énergétiques
L’application de ces recommandations devrait, selon le modèle de simulation mis en place, faciliter la transition énergétique des nouveaux bâtiments à l’horizon 2050. Un virage nécessaire, qui doit être pris dès aujourd’hui, selon le président de du WBSCD : « l’efficacité énergétique est rapidement devenue l’un des grands enjeux de notre époque et les bâtiments en sont l’une des composantes majeures. Ils consomment plus d’énergie que tout autre secteur et contribuent donc dans une large mesure au changement climatique ». Reste à savoir si l’application de ces recommandations permettra d’atteindre un objectif ambitieux : réduire de 60 % la consommation d’énergie dans les bâtiments d’ici à 2050.

La baisse des prix dans le solaire : quelles explications ?

La loi de Moore repose sur l’amélioration constante des performances technologiques, entraînant une baisse des prix. Hors, la baisse des prix dans le photovoltaïque est plus complexe que cela. En réalité, une véritable équivalence à la loi de Moore pour le solaire serait de dire que l’efficacité des cellules ou une mesure similaire double toutes les x années.La plupart des gens ont tenté d’appliquer la Loi de Moore directement à la courbe des prix, et non à la courbe du progrès technologique. Le plus simple semblait de dire que chaque doublement de taille de l’industrie solaire entraînait une réduction des coûts de 10 %. A la différence près que ceci n’est pas une Loi de Moore, mais simplement une description de la courbe de l’offre.J’ai fait des recherches sur le sujet pendant quelque temps en essayant de développer un concept simple pour comprendre la courbe descendante des coûts du solaire. Je me suis appuyé pour cela sur les données de nombreuses sociétés du secteur de l’énergie, des développeurs et des intégrateurs solaires, ainsi que des fabricants de modules. Je pense avoir maintenant trouvé un modèle simple et économiquement viable, qui donne quelques éclaircissements sur le pourquoi et le comment de la courbe descendante des coûts.

L’importance des subventions et de la demande
Nous l’appellerons le Modèle Dikeman du coût du solaire (en anglais, Dikeman Solar Cost Model – DiSoCo). Ces deux dernières années, j’ai soutenu que la baisse du coût du solaire résultait en gros pour moitié du développement massif des installations (en répartissant les frais non répétitifs de développement et d’installation sur des projets de plus grande ampleur, et en négociant de meilleures économies d’échelle au niveau de la fabrication). Et pour une autre moitié de la baisse du coût technologique.La distinction est importante. Cela signifie que si en 2003, avec la technologie de l’époque, on avait disposé des subventions et de la demande suffisantes pour construire toute une série de fermes photovoltaïques de 10 MW, on aurait pu atteindre un coût proche de ceux d’aujourd’hui (par opposition à la Loi de Moore d’après laquelle la courbe de performance de la technologie fondamentale aurait été améliorée 8 fois, avec une réduction drastique des coûts à la clé).Le coût technologique n’a pas baissé autant qu’on se l’imagine, alors que le changement d’échelle donne l’impression que les coûts ont considérablement baissé.Nous devons également faire attention à ne pas généraliser la baisse du coût technologique. Celle-ci provient en majeure partie d’une seule société, First Solar, parmi les centaines qui existent. Si on la sort de l’équation, la courbe des coûts n’a plus l’air si mirifique.

Les subventions empêchent la réduction
A partir de ce constat, je me suis efforcé d’établir une loi qui détermine le coût du solaire selon les fluctuations des subventions publiques (recherche, prix soutenus du kwh…) et le coût réel de la technologie. Nous partons du principe que le marché veut payer pour le solaire un taux fixe par kwh qui reste relativement constant à travers le temps. Le Modèle DiSoCo est sous-tendu par le principe suivant :
  • Taux fixe du marché pour le solaire + Coût du capital + Subvention par unité = Coût du système solaire + Marge intégrée.
Dans la réalité, quand les programmes de subvention intègrent des réductions au cours du temps ou en fonction du volume, ainsi que de nombreux feed-in tariffs (prix préférentiels garantis pour les énergies renouvelables), l’industrie doit trouver une solution pour réduire d’autant les coûts.Et cela même si elle risque de voir sa marge se réduire comme peau de chagrin. Cela signifie que la réduction du coût ne sera pas répercutée sur le marché tant qu’il y aura des subventions, sauf dans le cas où la réduction des coûts industriels excède la baisse des subventions en un temps donné.

Chercher de nouveaux marchés pour combler les baisses de subventions
Si on poursuit ce raisonnement, on réalise que la fluctuation correspond à la marge du fabricant à l’échelle du module, de la cellule et du lingot, et non au coût, qui a été en général plus fixe ou stable que nous le pensions. En période de faiblesse de l’offre, comme cela fut le cas avec la pénurie dans le domaine de l’affinage du silicium, les marges augmentent.En période de hausse de l’offre, ce vers quoi nous nous dirigeons, les marges diminuent, dans la mesure où les autres composants principaux (y compris, à la différence du corollaire de la Loi de Moore, le coût technologique) sont relativement fixes ou stables sur de courtes périodes. De ce fait, on peut affirmer que le véritable lien de cause à effet est entre la réduction des subventions et la réduction du coût, ajustée en fonction des marges.Ceci permettrait d’expliquer le développement d’un réseau lié au marché industriel en Californie et en Allemagne, sous forme d’un partenariat entre les politiques publiques et les fabricants qui ont besoin d’économies d’échelles pour compenser les faibles perspectives dans le court terme de réduction du coût technologique.Pour aller plus loin, on pourrait finalement proposer d’appliquer ce dernier point niche par niche, pays par pays. Pour mieux comprendre le marché, il faut voir que les fabricants, à commencer par les firmes japonaises il y a 5 ans, et aujourd’hui First Solar et Suntech qui prennent une nouvelle direction avec le développement des centrales électriques, ont effectivement appliqué une approche par pays et par niche. Pour se faire, ces entreprises ont cherché de nouveaux marchés au fur et à mesure qu’elles perdaient des subventions pour tenter de conserver leur marge alors que les coûts étaient stables.En savoir plusNeal Dikeman est le PDG de Carbonflow, Inc. Il est également associé à Jane Capital Partners LLC et Président de Cleantech.org. Lire son blog sur CleantechBlog.com. 

Nanomatériaux : les députés européens appellent à la prudence

Début avril, un rapport publié par l’Agence Européenne pour la Santé et la Sécurité au travail (EU-OSHA) mettait en exergue les doutes des experts européens quant à l’innocuité, dans l’avenir, des nanoparticules pour la santé (lire l’article Les nanoparticules en tête de liste des risques chimiques émergents au travail). Quelques semaines plus tard, c’est au tour des députés européens d’appeler à la prudence dans leur rapport d’initiative sur les aspects réglementaires des nanotechnologies.Le rapport de Carl Schlyter, député suédois du groupe Verts/Alliance libre européenne, vient en effet d’être massivement adopté par hémicycle (362 voix pour, 4 voix contre et 5 abstentions). Ce faisant, les députés contestent directement les déclarations de la Commission européenne affirmant que la législation en vigeur couvre les risques liés aux nanomatériaux. Au contraire, sans faire directement référence à l’étude de l’Agence européenne pour la santé et la sécurité au travail, ceux-ci font valoir que « du fait de leur petite taille, les nanomatériaux ont une grande mobilité et une grande réactivité et qu’ils pourraient altérer le fonctionnement de l’organisme humain ou animal. »De fait, les députés réclament trois types de mesures :

  • Réviser toute la législation européenne afin « de garantir la sécurité de toutes les applications de nanomatériaux sur la base du principe « pas de données, pas de marché ».» Ce qui implique de réviser la directive Reach ainsi que la législation en matière de déchets et de protection des travailleurs, mais aussi, de fournir une définition compréhensible et scientifique du terme nanotechnologie.
  • Mettre en place un étiquetage spécifique pour les produits contenant des nanomatériaux afin d’informer le consommateur.
  • Développer des méthodes fiable pour évaluer les risques des différents nanomatériaux durant toute leur durée de vie.
  • Une législation à caractère éthique en particulier pour les usages médicaux des nanotechnologies.
  • Créer un inventaire européen des différents types de nanomatériaux d’ici 2011.
  • Impliquer les fabricants pour qu’ils adhèrent à un code de bonne conduite pour une recherche responsable en nanotechnologies et en nanosciences.

Un ensemble de mesures certes dicté par la prudence mais qui pourrait freiner considérablement le développement de ce secteur. A suivre.

Les cellules solaires organiques ouvrent de nouveaux champs d’applications

Les cellules solaires commercialisées sont composées de matériaux inorganiques, comme le silicium. Elles permettent de transformer une partie du rayonnement solaire afin de produire de l’électricité. Depuis quelques années, la recherche tente de produire des cellules solaires composées de semi-conducteurs organiques.Bien que leurs performances soient encore très inférieures à celles des cellules à base de silicium cristallin (environ 5 % de rendement contre 15 % pour les cellules en silicium), elles offrent de multiples avantages. Tout d’abord, au niveau des conditions de fabrication et du coût financier. Contrairement au silicium cristallin dont la production nécessite de très hautes températures, leur fabrication implique un faible coût énergétique et un faible impact environnemental, arguments non négligeables quand on parle d’énergie renouvelable.

Des applications pour les emballages, les vêtements, l’électronique…
Ensuite, le véritable potentiel des cellules solaires organiques se situe dans leur mise en forme, à l’aide de procédés en solution. Ce procédé permet tout d’abord de couvrir de grandes surfaces, mais aussi des substrats flexibles, comme les textiles par exemple. Ces propriétés ouvrent un nouveau champ d’applications pour le solaire.En effet, les cellules solaires organiques ne sont pas destinées à concurrencer le silicium, mais à être utilisées pour des applications particulières : emballages, vêtements, écrans flexibles, recharge de téléphones cellulaires ou d’ordinateurs portables.

Des rendements de plus en plus performants
Par la suite, les cellules organiques pourraient contribuer de manière significative à la conversion photovoltaïque de l’énergie solaire, à condition d’investir massivement dans la recherche de matériaux nouveaux plus performants et plus stables.Les recherches avancent vite sur ce type de matériaux. En 2005, une équipe de chercheurs présentait les premiers prototypes qui offraient un rendement de l’ordre de 0,20 %. Récemment, dans le cadre d’une collaboration de cette même équipe avec le CNRS et l’université de Strasbourg, les résultats obtenus se sont beaucoup améliorés. Avec un rendement atteignant 1,70 %, les résultats sont probants, parmi les plus élevés obtenus jusqu’à présent sur ce type de cellule.Seul problème, la synthèse des polymères, chargés d’absorber la lumière, s’avère compliquée. La purification, le contrôle de la structure et des masses moléculaires des polymères sont également des problématiques de recherche actuelles, et doivent faire l’objet d’améliorations.

L’île de La Réunion devient un pôle d’excellence des ERM

L’île de La Réunion joue déjà, depuis 2007, un grand rôle dans la recherche et le développement en matière d’Energies Renouvelables Marines. C’est même la région française la plus active et la plus enthousiaste dans ce domaine. Elle souhaite aujourd’hui passer aux actes en concrétisant les études de faisabilité dans presque tous les domaines des ERM à savoir : énergie des courants, énergie des vagues et ETM, mais aussi énergie osmotique et énergie tirée des micro-algues. C’est un fait suffisamment rare pour être souligné et largement salué.Voici un territoire insulaire, qui se trouve être une région française, et qui semble avoir pris toute la mesure des immenses gisements énergétiques naturels qui sont à portée de ses côtes et qui pourraient permettre de créer localement des centaines voire des milliers d’emplois. Dans le cadre de la fiche « Energies de la mer » du PRERURE (Plan Régional des Energies Renouvelables et de l’Utilisation Rationnelle de l’Energie), l‘ARER rédige le Schéma Régional des Energies de la Mer (SREMER). Il sera annexé au SAR (Schéma d’Aménagement Régional) et au Schéma de Mise en Valeur de la Mer (SMVM) pour permettre le développement des énergies marines sur l’ensemble du territoire de La Réunion.En 2003, une étude de l’ARER (Agence Régionale de l’Energie de la Réunion) sur l’énergie des vagues a mené à l’identification d’un site idéal pour la mise en place de systèmes d’exploitation d’énergie des vagues. Cette étude, confirmée par celle d’un bureau d’études, a suscité l’intérêt d’un consortium d’industriels, au point de réaliser une étude de faisabilité pour l’implantation de systèmes Pelamis en face de Saint-Pierre.

Profiter des immenses réserves énergétiques disponibles
L’étude de faisabilité se terminerait vers la fin 2010. Si les résultats tiennent leurs promesses, l’implantation des premières machines se ferait vers la fin 2011. D’autres équipementiers que Pelamis, qui vient de subir de sérieux revers au Portugal, sont aussi intéressés par le développement de leurs technologies des vagues à La Réunion et sont d’ores et déjà en piste (l’Australien CETO, entre autres). En 2015, l’énergie des vagues pourrait produire environ 5 % de l’énergie réunionnaise.Le résultat de l’étude menée en 2008 et 2009 par l’ARER en partenariat avec l’ARVAM (Agence pour la Recherche et la Valorisation Marines), la mairie du Port, le TCO et la mairie de Sainte Rose, a permis de réaliser des prélèvements d’eau froide profonde jusqu’à 1.000 m (eau à 5,1°C) au Port et 1.600 m à Sainte Rose (eau à 2,9°C venue de l’Antarctique). Résultat, la mise en place d’un démonstrateur ETM (Energie Thermique des Mers) est sérieusement envisagée, l’ETM constituant à terme, un pilier du mix énergétique futur avec environ 20 % de la production énergétique réunionnaise totale.Au début de l’année 2009, la mairie de Saint-Paul et l’ARER ont commencé à mener des études sur les courants en Baie de Saint Paul où il semble qu’un effet d’entonnoir se produise, au fond de la vallée sous-marine de la baie, créant de forts courants de profondeur. Après la pose d’un courantomètre en 3 points de la Baie de Saint-Paul, une note d’opportunités sur l’exploitation de l’énergie de ces courants sera réalisée et agirait comme un feu vert ou rouge pour le lancement d’une étude de faisabilité d’implantation d’hydroliennes.

Devenir la première île ERM du monde
Mais La Réunion a décidé de ne pas s’arrêter en si bon chemin. L’énergie osmotique est aussi étudiée à Sainte-Rose.Cette technologie consiste à récupérer l’énergie créée par la différence de salinité entre l’eau douce, rejetée par la centrale hydroélectrique de Sainte Rose, et l’eau de mer salée. Cette technologie n’est à l’heure actuelle expérimentée en grandeur réelle que dans un seul endroit du monde, en Norvège, par l’entreprise Statkraft.Enfin à La Réunion toujours, un stage de recherche et développement évaluera le potentiel de développement des micro-algues dans plusieurs domaines : celui de la production de biocarburants, de la reconversion (dite remédiation) du CO2 émis par les centrales thermiques, et celui de la production d’aliments pour le bétail ou pour l’aquaculture.Avec ce mix énergétique, unique au monde, qui va faire de La Réunion la première véritable île ERM au monde, cette région française rayonnera à travers l’Océan Indien et au niveau mondial. Par Francis Rousseau, auteur du blog Les énergies de la mer

Atouts et faiblesse de la démarche probabiliste face au juge

Confrontés aux incertitudes et aux aléas technologiques lors de l’étude des projets, les concepteurs ont recours, pour limiter les risques d’accidents, à des méthodes d’analyse à caractère déterministe complétées par des méthodes probabilistes. Mais le juge est-il tenu de prendre en compte dans ses jugements, les risques résiduels spécifiés ou encore les probabilités d’occurrence prévues par les choix réalisés avant la création d’un ouvrage ou d’un service ? Ce n’est pas certain.Prenons l’exemple de la mise en place de systèmes redondants pour illustrer nos propos.

La démarche probabiliste du technicien
Pour éviter que la seule panne d’un système ne conduise à une catastrophe, on peut en améliorer la fiabilité en lui adjoignant des systèmes redondants. C’est pour cette raison que les systèmes de commandes hydrauliques sont triplés sur les avions de ligne et rendus physiquement indépendants (autrement dit la panne de l’un des systèmes est sans effet sur le bon fonctionnement des autres systèmes). Ce triplement des circuits conduit à une probabilité de perte totale des commandes de l’ordre de un sur un milliard par heure de vol, la perte d’un seul système ayant une probabilité de l’ordre de un sur mille par heure. Des essais en laboratoire et l’expérience en utilisation justifient cette dernière valeur. Nous reviendrons plus loin sur ce point.Faut-il pousser plus loin le souci de sécurité et installer quatre systèmes redondants ? Tous les techniciens interrogés répondront non à cette question et admettront que le triplement des systèmes hydrauliques est la solution raisonnable. Tout le monde admet donc qu’une probabilité de un sur un milliard par heure de vol pour la panne totale d’hydraulique est « raisonnable ». Bien entendu, cela signifie que chaque concepteur doit s’assurer que les systèmes hydrauliques répondent bien aux règles de l’art et passent avec succès les épreuves sévères de qualification permettant d’affirmer que le niveau de un sur un milliard est raisonnablement assuré.Il n’en reste pas moins qu’il reste une chance (ou plutôt une malchance) sur un milliard par heure de vol pour qu’une panne totale des circuits hydrauliques ne conduise un jour à la catastrophe. Or ce n’est parce qu’un phénomène est hautement improbable qu’il ne se produit pas, nous l’avons déjà dit.Considérons une flotte de 2.000 avions. Si l’on admet que chaque avion effectue en moyenne 14 heures de vol par jour (chiffre certainement sous-estimé), cela représente 2000 x 14 x 365 = 10 millions d’heures par an et 100 millions d’heures en 10 ans. Ainsi la probabilité d’observer une panne totale d’hydraulique de probabilité élémentaire de un sur un milliard par heure de vol, sur 10 ans d’utilisation de cette flotte est-elle de l’ordre de dix pour cent !Les valeurs que nous venons d’utiliser sont loin d’être fantaisistes. En juillet 2005, 2.500 Airbus de la seule famille A320 (A318, A319, A320 et A321) ont été mis en service et cette flotte a franchi le cap des 40 millions d’heures de vol (Air & Cosmos du 26 août 2005).Rassurons-nous, la probabilité de défaillance d’un système hydraulique unique est certainement surestimée, mais il est impossible de le démontrer expérimentalement. Aussi devons-nous nous contenter de l’estimation, actuellement démontrée, à un sur un milliard par heure de vol pour le système triplé. Par ailleurs ce n’est pas parce qu’aucun accident de ce type n’est pas survenu jusqu’à aujourd’hui que la probabilité d’avoir un accident au cours de notre prochain vol en est augmentée. Nous avons, à chaque vol, plus de chance de gagner au Loto que de périr dans un accident.Que fera alors la justice si se produit un tel événement malheureux, panne totale des systèmes hydrauliques, conduisant presque certainement à la perte de l’avion ?

La démarche déterministe du juriste
Cherchera-t-elle un « coupable » ? Bien entendu il lui faudra s’assurer que toutes les règles de sécurité en matière de fabrication, maintenance, conditions d’emploi, formation du personnel ont été respectées et par le constructeur et par la compagnie utilisatrice. Si une faute a été commise dans l’un de ces domaines, il lui faudra certainement condamner le coupable. Une telle situation pourrait se rencontrer par exemple dans une compagnie dont les responsables, peu scrupuleux ou ignorants, sacrifieraient la sécurité, en minimisant les opérations de maintenance, au profit d’une rentabilité à court terme. Ce comportement anormal doit évidemment être sanctionné sévèrement.Mais il est parfaitement possible que l’accident ne provienne que de la conjonction malheureuse de la panne « normale et prévue » de chacun des trois circuits.Et si à l’occasion de cet accident avec pertes de vies humaines, la justice venait à mettre son nez dans les dossiers d’incidents ? Cette fois ce sont les responsables de la sécurité qui se sentent mal à l’aise. Que répondre au juge d’instruction s’étonnant que des incidents analogues se soient déjà produits et que l’on n’ait pas encore réagi ? « Comment ? Vous avez déjà observé en service plusieurs pannes élémentaires analogues à celles ayant conduit à la catastrophe et vous n’avez pas jugé utile d’améliorer la situation ! » Vous aurez beau répondre que ces pannes entraient dans le cadre de la statistique attendue, on vous reprochera de ne pas avoir pris des mesures d’amélioration.Plutôt que de risquer une mise en examen et une condamnation ne vaudrait-il pas mieux ne jamais signaler les incidents et mettre l’accident sur le compte de la fatalité ? Cette dernière attitude peut sembler étonnante, mais nous avons connu des responsables d’une grande industrie refuser de faire des études de sécurité de peur de voir la justice se retourner contre eux dans le cas d’un accident survenant dans des conditions estimées hautement improbables au cours de l’étude et donc écartées à juste titre.A l’occasion d’un accident aérien, nous avons vu en effet des magistrats, d’une nation étrangère et néanmoins amie, faire le raisonnement faux mais très convaincant suivant : « Vous me dites que cet événement est hautement improbable, soit, mais il s’est produit. Par conséquent ou bien vous avez commis une faute d’estimation ou bien vous avez négligé volontairement de traiter ce cas. Vous êtes donc coupable ! »Il est évident, pour tous les spécialistes des probabilités, que « hautement improbable » ne signifie pas impossible. Ce n’est pas au technicien de trancher. Nous nous contenterons de poser le problème qui est loin d’être un cas d’école fabriqué pour la cause.Par Jean-Claude Wanner, Académie de l’air et de l’espace 

Les autres articles du dossier
  • Justice et probabilité – « Le risque nul n’existe pas » 
  • L’approche juridique, ou le jeu de l’intime conviction
  • Les atouts du retour d’expérience 

L’approche juridique, ou le jeu de l’intime conviction

Nous venons de le voir, les techniciens intéressés par la sécurité ne travaillent que sur des événements futurs et doivent s’appuyer sur le calcul des probabilités pour prévoir le comportement des systèmes dont ils ont la charge. Cette approche n’est pas un aveu d’ignorance comme certains voudraient le faire croire, mais une approche scientifique visant à guider les décisions dans le choix des solutions de sécurité.De son côté, la justice, s’appuyant sur le droit, ne travaille que sur des faits passés, a posteriori déterministes, et par là même ignore, jusqu’à présent, les probabilités. Mais ce refus de considérer la méthode probabiliste comme un outil de décision justifié, est-il valable dans toutes les situations ? Peut-on même affirmer que l’on connaît parfaitement tous les faits ?C’est-là que nous allons dégager une deuxième forme de probabilité tournée non vers l’avenir difficilement prévisible mais vers un passé imprécis.

La notion de probabilité utilisée par la justice
Lors de l’analyse d’un accident, nous ne disposons que de visions partielles des faits. Nous connaissons la situation avant l’accident (et encore !) à l’instant T0. Nous connaissons la situation après l’accident à l’instant T1. L’expertise nous renseigne en général sur l’état du système après l’accident mais les preuves et les indices peuvent se diluer ou disparaître avec le temps.Les experts doivent alors « imaginer » la succession des événements permettant de passer de l’état au temps T0 à l’état au temps T1, en s’appuyant sur la connaissance disponible et partielle de certains états intermédiaires (enregistrements, témoignages, etc.) et en faisant « coller » ces scénarii avec ces faits.On ne peut, en général, affirmer que la suite des événements ainsi envisagée est unique et certaine. Souvent plusieurs scénarii sont possibles, les uns plus probables que les autres, sans que l’on puisse chiffrer formellement ces probabilités.L’expert est donc amené à rendre compte de son travail sous la forme « Tout porte à croire que l’accident est dû à telle suite d’événements, mettant en cause tels et tels acteurs ou les défaillances de tels et tels systèmes, mais il n’est pas impossible que d’autres scénarii se soient déroulés impliquant tels autres acteurs ou tels autres systèmes ».Les experts sont parfois en mesure d’estimer, plus ou moins grossièrement, les probabilités de chacun des scénarii envisagés en se reposant sur l’analyse des incidents en service. Par exemple on sait que tel événement (une erreur humaine) intervenant dans l’un des scénarii, se rencontre plus fréquemment que tel autre événement (panne d’un système) intervenant dans un autre scénario. L’expert est alors amené à donner plus de poids au premier scénario qu’au second. Mais il n’est pas question de chiffrage exact des probabilités, tout au plus d’estimation. Que doit faire la justice dans une telle situation où plusieurs scénarii sont possibles, impliquant des responsabilités différentes ?

L’intime conviction
La solution de facilité consiste à retenir le scénario considéré comme le plus probable. Cette démarche n’est pas loin de la notion d’intime conviction, que la justice se refuse toutefois d’évoquer dans le cas d’un procès en correctionnel. Or ce n’est pas parce qu’un scénario est moins probable qu’un autre qu’il faut l’éliminer.Voici un exemple d’incident qu’aucun expert n’aurait osé imaginer parce que vraiment trop improbable mais dont on connaît le déroulement grâce à l’équipage indemne.La tour demande à l’équipage d’un biréacteur de transport de passagers de hâter le décollage en raison d’une grève imminente qui va provoquer l’occupation de la piste. Les procédures sont imparfaitement appliquées pour raccourcir les délais et le train n’est pas rentré après le décollage. Des vibrations anormales pendant la prise de vitesse alertent le copilote qui annonce au commandant de bord « le train n’est pas rentré ». Or au lieu de réduire la vitesse et rentrer le train, le commandant éteint les deux moteurs ! Il ne peut s’agir d’une erreur de manipulation. Un tel geste ne peut s’expliquer que par un comportement mental aberrant. Le copilote réussit à rallumer un moteur qui est immédiatement coupé par le commandant, ce qui renforce l’idée d’aberration mentale. Enfin le copilote reprend l’avion en main, rallume les deux moteurs et ramène l’avion au sol sans autres incidents.Si l’avion avait été détruit, quel aurait pu être le scénario inventé par les enquêteurs pour expliquer l’accident ? On aurait sûrement invoqué une défaillance « exotique » du système de propulsion rejetant l’idée d’extinctions volontaires jugées comme hautement improbable. Bien que s’en défendant, le juge est ainsi amenée à raisonner en terme de probabilités : « je choisi le scénario qui semble le plus probable. »Nous voici donc, au cours du dialogue entre techniciens et magistrats, en présence de deux types de probabilités,
  • les probabilités d’apparition de situations à risque que l’on peut évaluer par des études exhaustives (opérations scientifiquement valables, longues et difficiles, mais indispensables à des choix techniques rationnels). Ce sont les probabilités de prédiction du futur reposant sur des lois de comportement des systèmes en cause mises en évidence par le retour d’expérience, c’est-à-dire l’analyse du passé.
  • les probabilités de vraisemblance des divers scénarii possibles expliquant la suite des événements ayant conduit à une catastrophe.
Pourtant, depuis le 30 juillet 2003, la notion de probabilité a été intégrée par la loi.

La notion de probabilité selon la loi
Voici le passage qui nous intéresse. Après le deuxième alinéa de l’article L.512-1 du code de l’environnement, sont insérés trois alinéas ainsi rédigés :« Le demandeur fournit une étude de dangers qui précise les risques auxquels l’installation peut exposer, directement ou indirectement, les intérêts visés à l’article L.511-1 en cas d’accident, que la cause soit interne ou externe à l’installation. Cette étude donne lieu à une analyse de risques qui prend en compte la probabilité d’occurrence, la cinétique et la gravité des accidents potentiels selon une méthodologie qu’elle explicite. Elle définit et justifie les mesures propres à réduire la probabilité et les effets de ces accidents. »Un grand pas a été franchi, puisque la notion de probabilité est maintenant reconnue par le Droit. Mais rien n’est dit en ce qui concerne la notion, hautement délicate, de risque acceptable avant l’accident mais non accepté après l’accident.Que vont faire dès lors les magistrats qui auront la lourde tâche de dire le droit dans les affaires d’accidents du type de ceux que nous venons de décrire ? La loi du 30 Juillet 2003 sera-t-elle d’un grand secours ?Les victimes d’un accident ou l’opinion publique accepteront-elles un jugement du type « Vous avez subi un préjudice résultant de l’apparition d’un événement dont la probabilité avait été jugée, à juste titre, suffisamment faible pour être négligée. Il n’y a donc pas lieu de désigner un coupable. » Pas sûr. Prudence donc. Par Jean-Claude Wanner, Académie de l’air et de l’espace 

Les autres articles du dossier
  • Justice et probabilité – « Le risque nul n’existe pas »
  • Atouts et faiblesse de la démarche probabiliste face au juge
  • Les atouts du retour d’expérience 

Les atouts du retour d’expérience

Pour limiter les risques d’accident, les techniciens sont parfois conduits à tripler les systèmes pour éviter la défaillance de l’un d’entre eux. Cette démarche est toutefois souvent critiquée. Reposant sur des essais d’endurance et sur les résultats observés en service réel sur les systèmes analogues, on lui reproche de faire des hypothèses peu fondées sur la fiabilité de chacun des systèmes et donc de se leurrer sur la fiabilité globale du système avec ses redondances.Il y a d’ailleurs mieux : la surveillance du comportement des systèmes au cours de l’exploitation réelle. Si l’on observe des taux de défaillance supérieurs à ceux prévus, il est possible d’en trouver les causes et d’y porter remède avant qu’une catastrophe ne se produise, pour ramener la fiabilité au niveau souhaité. A titre d’exemple on peut constater qu’une rupture de canalisation est due à un niveau vibratoire insoupçonné dans la zone et y installer des protections adéquates. Cette démarche est connue sous le nom de retour d’expérience. Elle consiste à tirer partie des incidents en service sans attendre la catastrophe pour réagir. Mais comment utiliser efficacement ces retours d’expérience ? Que permettent-ils vraiment de faire ? Quelles sont leurs limites ?

Faire attention aux incidents
Parmi les événements qui risquent de réduire la sécurité, il faut citer tous ceux que l’on ne peut imaginer au moment de la conception et qui ne se révèlent qu’au cours de l’utilisation. Prenons un exemple.Les trois moteurs du DC10 sont équipés de bouchons magnétiques qui peuvent capturer, dans le circuit de graissage, des débris métalliques pouvant provenir d’une usure intempestive des roulements. L’examen périodique de ces bouchons permet ainsi de détecter à temps une anomalie et d’y porter remède.Que voici une disposition judicieuse, utilisée sur la plupart des moteurs, mais à l’origine d’un incident très grave se soldant par la panne en vol des trois moteurs. Heureusement, l’avion après un vol plané depuis l’altitude de croisière jusqu’à 1.000 mètres environ réussit à se poser sans encombre sur un terrain après remise en route de l’un des trois moteurs.Au cours de la nuit précédant ce vol critique, les trois moteurs furent révisés et, suivant la procédure, les trois bouchons furent démontés pour expertise par le service compétent et remplacés par trois bouchons neufs. Or le magasin habituel n’ayant pas les bouchons de rechange, les mécaniciens durent s’approvisionner à un magasin auxiliaire qui leur fournit des bouchons non équipés, contrairement à l’usage, de joints assurant l’étanchéité du circuit de graissage. Ce montage défectueux sans joint se traduisit par une fuite provoquant la panne des trois moteurs en croisière, une fois épuisées les réserves d’huile de graissage.Qui aurait pu envisager un tel scénario ?Bien entendu, une fois l’incident connu, des procédures furent mises en place pour éviter son renouvellement et la sécurité en fut renforcée, en attendant l’apparition d’un autre scénario tout aussi inimaginable a priori. C’est là que le retour d’expérience montre sa nécessité pour détecter les événements imprévisibles au moment de la conception et de la première mise en service.Notre expérience des accidents aériens nous a montré que les accidents et les incidents sont de même nature, les accidents n’étant dus qu’à une succession d’incidents bien connus et qui ont « mal tourné ». Le retour d’expérience consiste ainsi à analyser les incidents pour en tirer profit et non à se contenter d’analyser les accidents qui sont peut-être très instructifs mais heureusement peu nombreux ce qui en rend l’étude peu fructueuse et par ailleurs trop tardive.Dans le cas de l’incident très grave que nous venons de décrire, il faut reconnaître que les utilisateurs du DC10 n’ont pas su tirer partie des précurseurs. En effet plusieurs incidents avaient montré que des montages de bouchons sans joints s’étaient déjà produits, sans autres conséquences que l’arrêt du moteur révisé par panne de graissage, les autres moteurs, non révisés, assurant la sécurité. Mais il n’en avait pas été tenu compte pour modifier les procédures de stockage des bouchons munis de joints ainsi que les procédures de montage comportant une vérification de la présence des joints et les procédures de vérification de l’étanchéité des circuits de graissage. Les montages erronés sans joints s’étaient révélés comme trop fréquents pour que ce type d’événement puisse être considéré comme négligeableLe scénario de l’accident lui-même était imprévisible, mais la réduction de probabilité de panne de graissage était possible.Assurer la sécurité c’est réduire la probabilité d’apparition d’événements qui combinés à d’autres événements peuvent conduire à la catastrophe. Ce n’est pas éviter les incidents (ce qui est impossible), mais faire en sorte que ces incidents ne conduisent à la catastrophe que dans des cas de très faible probabilité.

Faut-il toujours réagir ?
Mais que l’on ne s’y trompe pas. Une fois observée, par retour d’expérience, une défaillance attendue ou non prévue du système, on se retrouve devant le même problème que lors de la conception. La probabilité de l’événement observé est elle suffisamment élevée pour qu’il soit nécessaire de réagir ? Rentre-t-elle dans la statistique prévue ? Faut-il attendre d’autres événements pour agir ? C’est là qu’intervient l’analyse statistique raisonnée. Un événement de probabilité anormalement faible mais de conséquence catastrophique doit-il être néanmoins couvert ? Pour donner un exemple caricatural, une météorite ayant traversé le cockpit d’un avion de ligne et tué le pilote, faut-il installer un blindage adéquat sur tous les avions en service ? Une panne attendue se produisant avec la fréquence prévue doit-elle néanmoins faire l’objet d’une modification réduisant cette fréquence ?Ce n’est pas parce que l’on a observé des événements potentiellement ou effectivement dangereux en service qu’il faut obligatoirement envisager l’application de remèdes toujours faciles à imaginer après coup. Ainsi le retour d’expérience permet de détecter :
  • des événements potentiellement dangereux, non prévus lors de la conception et de probabilité suffisamment élevée pour que soient prises des mesures réduisant leur probabilité d’occurrence ou leurs conséquences ;
  • des événements tout aussi potentiellement dangereux et identifiés, mais dont la probabilité d’occurrence avait été jugée, à tort, suffisamment faible pour qu’ils ne fassent pas l’objet de mesure supplémentaire.
Des facteurs économiques peuvent également différer, voire empêcher la mise en oeuvre d’une solution. Prenons l’exemple de la tempête de décembre 1999. Les mises hors service d’un grand nombre de centraux téléphoniques par manque d’alimentation pouvaient être évitées par l’installation, dans chaque centre, d’un groupe électrogène et même, pour plus de sécurité, de deux groupes électrogènes. Cette solution, évidente, a été bien des fois avancée dans les médias. Il est sûr que la perte des moyens de communication peut avoir des conséquences graves et qu’il faut faire quelque chose ! Cette solution ne résout toutefois pas le problème de la destruction des lignes téléphoniques. Qu’à cela ne tienne, installons des groupes électrogènes dans tous les relais de transmission pour la téléphonie portable ! Par ailleurs équipons chaque relais d’antennes rétractables pour en éviter la destruction en cas de vents trop élevés. Bien sûr la rentrée de ces antennes et la mise en route des groupes électrogènes se fera par des automatismes (redondants), alimentés par plusieurs batteries.C’est alors qu’il faut se poser le problème du coût de cette solution. Pour se prémunir contre un événement exceptionnel comme celui que nous avons subi, est-on prêt à payer cinq ou dix fois plus cher nos communications ?Par Jean-Claude Wanner, Académie de l’air et de l’espace Photo © air-safety-security.com 

Les autres articles du dossier
  • Justice et probabilité – « Le risque nul n’existe pas »
  • Atouts et faiblesse de la démarche probabiliste face au juge
  • L’approche juridique, ou le jeu de l’intime conviction 

Comment bien utiliser les statistiques pour aider la décision

Une aide à la décision, par exemple en matière d’investissement ou de sécurité, repose généralement sur l’exploitation de données disponibles. Elle fait donc appel aux statistiques. Des exemples typiques sont :

  • le déploiement d’un réseau de transport ou d’un réseau d’énergie dans une zone ;
  • l’analyse des effets des pollutions, des rayonnements ionisants, etc.
Les décisions prises sont souvent lourdes de conséquences et représentent des coûts importants. Aussi est-il souhaitable de les asseoir sur des études solides. Deux conditions sont absolument nécessaires et elles devraient être exigées de tous les décideurs :
  • l’étude doit être vérifiable ;
  • l’étude doit être réutilisable.
 » Vérifiable  » signifie que, si on donne tous les éléments à un autre expert, il doit être capable de dire si le travail réalisé est correct ou non. » Réutilisable  » veut dire que l’on peut réemployer des morceaux (par exemple des éléments de code) pour d’autres études, mais aussi que, cinq ans après, on doit pouvoir comparer ce que prédisait l’étude à ce qui s’est produit, et voir si les raisonnement étaient ou non corrects.Si ces deux conditions s’appuient sur le bon sens, force est de constater que la plus grande partie des études que l’on nous demande d’expertiser ne sont ni vérifiables ni réutilisables. On ne sait pas quelles données ont été employées, ni quels raisonnements ont été faits.

Recommandations techniques pour une présentation de l’étude
Dans la grande majorité des études que l’on nous demande d’expertiser, les auteurs utilisent des outils statistiques de manière factice. Par exemple, ils supposent que tel phénomène suit une loi de Gauss, dont ils cherchent à calculer les paramètres dans les cas A et B. Ils veulent montrer que ces paramètres sont différents d’un cas à l’autre. Mais cela ne prouve absolument rien, car rien ne dit que le phénomène en question suive effectivement une loi de Gauss. De même, ils font souvent des hypothèses d’indépendance, qui ne sont pas satisfaites en pratique. Voici quelques règles simples de mise en œuvre d’une étude statistique. La règle de base (c’est une évidence !) est qu’il ne faut faire aucune hypothèse arbitraire. Il faut traiter les données comme elles viennent ! Nous prendrons le cas où le logiciel Excel est utilisé, car dans la majeure partie des situations, il suffit très largement.

1. Privilégier les données brutes
La première feuille (sheets (1)) doit contenir les données brutes sur lesquelles l’étude s’appuie. La présence des données brutes est une nécessité absolue pour que l’on puisse vérifier le travail. Elle est également nécessaire pour que l’on puisse comparer cinq ans après et voir ce qui a changé.

2. Distinguer données brutes et données de travail
Sur la seconde feuille (sheets (2)), on mettra les données de travail. Ce peut être les données brutes, mais pas nécessairement. Par exemple, il nous arrive de normaliser les données (les faire toutes varier entre 0 et 1), ou bien encore de considérer des taux d’accroissement (par exemple : la différence entre une année et la précédente), etc. Toutes ces transformations sont licites, à condition d’être reconnues comme telles. Il ne s’agit plus de données brutes, mais de données ayant suivi un premier traitement. Ce traitement doit être justifié. Il ne faut pas confondre données de travail avec données brutes.

3. Le déroulement de l’étude : faire simple
Une étude statistique a souvent pour objectif d’établir un lien entre une quantité « objectif » que l’on cherche à contrôler et un certain nombre de paramètres « explicatifs » dont on cherche à savoir s’ils influent ou non sur l’objectif. Par exemple :
  • On cherche à analyser l’objectif « taux de cancers dans une région » au travers des paramètres explicatifs : « présence de rayonnements ionisants », « nombre de fumeurs », etc.
  • On cherche à analyser l’objectif « importance des stocks de gaz » au travers des paramètres explicatifs « importance des importations », « importance de la consommation », etc.
Le premier travail à réaliser est de constituer l’histogramme de la quantité « objectif », c’est-à-dire sa loi de probabilité. Ceci est très facile à réaliser sous Excel, de la manière suivante :
  • On divise l’ensemble des valeurs possibles en intervalles de même largeur ;
  • On compte, parmi les points de l’échantillon, combien tombent dans chaque intervalle.
Par exemple, si les intervalles ont pour largeur 10 et si les données sont dans la première colonne, sheets(1), on aura un code VBA du type suivant :for k=1 to nbfinalj=int( sheets(1).cells(k,1)/10)sheets(3).cells(j,2)=sheets(3).cells(j,2)+1next ket la colonne 2 de la feuille 3 contient cet histogramme.La colonne 1 contient les intervalles de construction ; dans notre exemple : Sheet(3).celles(k,1)=10(k-1)Voici un exemple d’histogramme :
Il s’agit des durées d’arrêt de travail, pour des salariés ; on compte quelle proportion est entre 0 et 10 jours, entre 10 et 20 jours, etc.La comparaison de deux histogrammes n’est pas facile, car ce qui compte est l’aire sous la courbe. On préfèrera donc travailler avec les cumuls, c’est-à-dire la fonction de répartition. Pour des raisons pratiques, on représente, pour chaque seuil, le nombre au dessus de ce seuil (et non pas au dessous).
Dans la colonne 3, dans la cellule k, on mettra donc la somme de toutes les cellules de la colonne 2, de k à la fin :for k=1 to nbfinalfor j=k to nbfinalsum=sum+sheets(3).cells(j,2)next jsheets(3).cells(k,3)=sumsum=0next kBien entendu, en première ligne de la colonne 3, on retrouve le total du nombre des points de l’échantillon, ce qui est une manière facile de vérifier que l’on n’a rien oublié.Enfin, en colonne 4, on met les pourcentages cumulés. On obtient une courbe commençant à 100 et finissant à 0 de ce type (Graphe 2 : la fonction G) :
Au dessus de chaque abscisse, dans notre exemple, on indique le nombre de salariés dont la durée d’arrêt de travail est supérieure ou égale à l’abscisse. Cette présentation commençant toujours à 100 et finissant à 0, elle rend les comparaisons très faciles.  
 
Voyons un exemple. Ici, nous avons deux catégories de salariés : une en bleu et l’autre en rouge. Nous voyons que la fonction G pour les bleus est au dessous de la fonction G pour les rouges.
Cela veut dire que, quelle que soit la durée (par exemple 200 jours), le nombre de salariés rouges qui excèdent cette durée est plus important que le nombre de salariés bleus. Il en résulte clairement que les rouges ont des absences plus longues que les bleus. La comparaison est immédiate, et repose intégralement sur des données factuelles.

4. Comment bien prendre en compte les paramètres explicatifs
Pour prendre en compte les paramètres explicatifs, on réalise des lois de probabilité « conditionnelles », de la manière suivante. Prenons le premier paramètre explicatif, et disons que la moitié de ces valeurs sont au dessous de 45 et la moitié au dessus. On recommence l’opération ci-dessus dans le cas où le paramètre est ≤ 45 :for k=1 to nbfinalfor j=k to nbfinalif param1 <= 45 thensum=sum+sheets(3).cells(j,2)end if next jsheets(3).cells(k,3)=sumsum=0next kOn obtient alors, comme précédemment, une courbe que l’on peut juxtaposer sur le même graphique à celle obtenue lorsque le paramètre est > 45. Si, de manière systématique, on voit que la courbe 1 est au-dessous de la courbe 2, on en déduit que, pour chaque seuil, la probabilité d’être au-dessus de ce seuil est plus faible dans le cas 1 que dans le cas 2 (Graphique 4 : distinction selon l’âge) :
On constate ici que la courbe rouge est systématiquement au-dessus de la bleue : pour une durée fixée d’arrêt de travail, il y aura plus de salariés âgés que de salariés jeunes dont l’arrêt de travail excède cette durée : les AT des vieux sont plus longs que ceux des jeunes.Cette manière de procéder – en exploitant des probabilités conditionnelles – est très satisfaisante en ce sens qu’elle ne fait aucune hypothèse a priori et n’utilise aucune « boîte noire ». On ne fait aucun test statistique, dont les conditions de validité sont discutables.
Si l’objectif est un seuil défini en termes de propreté (par exemple une concentration de polluants), on obtient une manière simple et indiscutable de comparer différents cas. Voici un exemple. Il s’agit de la concentration d’un polluant, mesurée par différentes stations (Graphique 5 : concentration de polluants en fonction de la densité de population).
La série 1, en bleu, concerne les zones où la densité de population est inférieure à 80 habitants au km². La série 2 (en rouge), celle où la densité est entre 80 et 170 et la série 3 (en vert), les zones où la densité est supérieure à 170. On constate clairement que la courbe « forte densité » est au-dessus des deux autres. La proportion de stations, dans les zones de forte densité, ayant une pollution au-dessus d’un seuil donné, est plus élevée que dans les zones de moyenne ou faible densité.
Par exemple, 40 % des stations « forte densité » ont une pollution d’au moins 1,60 (gramme par litre) alors qu’aucune ne l’a pour les stations des zones « moyenne densité » ou « faible densité ». Il est complètement légitime de dire, sans aucune équivoque, que dans la zone considérée et pour ce polluant-là, les zones de forte densité de population sont plus polluées que les autres.

5. Attention aux exemples mixtes
Voyons maintenant comment interpréter un exemple « mixte ». L’une des courbes n’est pas toujours au dessus de l’autre. Elles se croisent (Graphique 6 : situation mixte).
Dans l’exemple ci-contre (totalement factice), les deux courbes se croisent à la concentration 10 g/l. La valeur commune des deux fonctions est 50 % en ce point. Nous aurons donc 50 % des stations de type 1 (bleu) et 50 % des stations de type 2 (rouge) avec une concentration supérieure ou égale à 10 g/l.
Si nous prenons une concentration supérieure, mettons 15 g/l, nous avons 25 % des bleus et 14,6 % des rouges au dessus de cette valeur. Nous en déduisons que les rouges sont moins sujets aux fortes pollutions.Si nous prenons une concentration inférieure, mettons 5 g/l, nous avons 75 % des bleus et 85,3 % des rouges au dessus de cette valeur. Nous en déduisons que les rouges sont plus sujets aux faibles pollutions.Par différence, dans l’intervalle 5 – 10, nous avons 25 % des bleus et 35,3 % des rouges. Là encore, la conclusion est donc très simple : il y a plus de bleus que de rouges dans l’intervalle 10 – 15 ; plus de rouges que de bleus dans l’intervalle 5 – 10.Insistons bien sur le fait que tous ces nombres sont des proportions dans chaque classe, et non des proportions globales. Pour illustrer ceci, disons qu’il y a 1.000 stations bleues et 5.000 rouges. Alors, dans l’intervalle 5 – 10, le nombre de stations bleues est 25 % de 1.000, soit 250, et le nombre de rouges est 35,3 % de 5.000, soit 1.765. Utiliser le nombre global de 6.000 stations serait une erreur, puisque les rouges sont 5 fois plus représentées que les bleues. Dans tous les cas, la position relative des différentes courbes, sur n’importe quel intervalle, renseigne sur l’importance relative du phénomène.Par Bernard Beauzamy, PDG de la Société de Calcul Mathématique S.A (SCM SA), membre du CNRI

Mesure à très haute cadence : l’exemple des lignes TGV

Engagée depuis plusieurs années par l’Union Européenne, la déréglementation du réseau ferroviaire va prochainement devenir une réalité. Dans ce contexte, le pantographe au contact de sa ligne caténaire constitue la nouvelle interface entre les opérateurs et le gestionnaire de l’infrastructure. La surveillance de cette interface devient donc critique pour assurer une meilleure interopérabilité entre compagnies ferroviaires, puisque les taux moyens de défaillance attribués au pantographe sont de 4 à 5 pannes/(100 km.an) [1].

De facto, la prise en compte de la saturation progressive de l’infrastructure des transports est devenue, au fil des ans, l’une des priorités des Programmes Cadres européens de R&D (PCRD). Ainsi, lors du 5ème PCRD, le projet SMITS (Smart Monitoring In Train Systems) (1) s’est intéressé à la problématique des perturbations de trafic dues aux pannes de pantographes entraînant l’arrêt du train, par la mise en place d’un outil de contrôle des paramètres d’interface avec la ligne de contact (force, température) afin de pouvoir in fine mettre en place une maintenance prédictive.

En effet, les technologies traditionnelles reposant sur des méthodes d’équilibre de forces et de moments, et mettant en oeuvre des jauges électriques de déformation et des accéléromètres positionnés aux points d’appuis du pantographe, souffrent de problèmes liés à la proximité de la haute tension (jusqu’à 25 kV). L’isolation galvanique intrinsèque apportée par la fibre optique a ainsi permis de positionner des jauges à réseaux de Bragg (2) au plus près de la ligne de contact, dans la tête de pantographe, transformant chacune de ses bandes en des capteurs de flexion 3 points totalement insensibles aux perturbations électromagnétiques.Un des objectifs étant la mesure à haute cadence pour les besoins de la très grande vitesse (320 km/h pour les TGV), le CEA LIST a développé un système de mesure multivoies innovant pour Capteurs à Fibres Optiques (CFO) à réseaux de Bragg, fondé en particulier sur une source accordable permettant simultanément l’acquisition des longueurs d’onde des transducteurs optiques et leur conversion en grandeurs physiques pour les essais de qualification.Un modèle fourni par le partenaire IPHT, mis en oeuvre dans le système, a permis de déterminer, après calibrage, les efforts verticaux via une relation faisant intervenir les déformations au milieu et aux extrémités de la bande, de même pour les températures de contact grâce aux mesures fournies par des réseaux de Bragg dédiés, après étalonnage en enceinte thermique.

Fig. 1. Position des capteurs à réseaux de Bragg dans la tête de pantographe Faiveley CX25 de TGV(vue de dessous) ; {S pour ‘déformations’ (Strain) et T pour ‘Température’}

Le système d’interrogation mis au point par le CEA LIST a ainsi permis d’interroger les 4 lignes de CFO de Bragg intégrées dans la tête de pantographe du TGV. Du point de vue optique, ce système repose sur une source laser [3] dont la longueur d’onde est accordable sur environ 30 nm à la fréquence de balayage pleine échelle de 500 Hz (3) ; la référence spectrale absolue se fait en temps réel à l’aide d’un étalon interne qualifié par le NIST (4), assurant une précision et une dérive meilleures que 0,6 pm à 500 Hz (sans moyennage).

Fig. 2. Configuration du pantographe pour les essais TGV Duplex entre Paris et Vendôme

Cette instrumentation constituée d’un système serveur (contenant l’optoélectronique), dédié au calcul des longueurs d’onde de Bragg de chacune des 4 lignes de capteurs, a eu pour rôle de distribuer en temps réel l’ensemble des longueurs d’onde sur un réseau LAN privé à un PC lient dont le rôle était de générer, à partir des modèles physiques, les températures, forces et positions, sous une forme numérique pour leur enregistrement, et analogique (0-10 V) pour leur acquisition en parallèle par le système de l’AEF (Agence d’Essai Ferroviaire, Vitry-sur-Seine) de la SNCF (Fig. 3).

Fig. 3. Système optoélectronique agissant en tant que serveur et son poste client en supervision

Cette chaîne de mesure a été testée pendant une semaine, sur plus de 5.000 km, entre Paris etVendôme à bord d’un TGV Duplex spécialement affrété. Ont ainsi pu être mesurés, à 500 Hz et sur 16 points de mesure simultanés, les efforts de contact verticaux, la position du fil de contact, les températures et leurs gradients au sein des bandes de contact. La résolution spectrale du système, meilleure que le picomètre, a permis d’évaluer les variations de la force de contact à quelques Newton près. Ces essais en ligne menés avec la SNCF-AEF ont permis :

  • de réaliser des mesures de température démontrant la présence de gradients thermiques élevés dans les bandes de contact, pouvant atteindre 160°C/m ;
  • de démontrer que la position du point de contact était observable en temps réel, avec la mise en évidence du mouvement de zigzag relatif du fil sur la tête de pantographe ;
  • que la mesure de la force verticale de contact est réalisable en temps réel, mais nécessiterait une compensation en température améliorée du fait des forts gradients thermiques;
  • et de démontrer que la technologie adoptée pour le système de mesure du CEA LIST était fiable, aucune panne ou défaillance n’ayant été constatée lors des essais.

Pour en savoir plus, le lecteur pourra se référer à la publication du Colloque CMOI 2007, ainsi qu’à la publication [4].Les capteurs à réseaux de Bragg ont à nouveau su démontrer leur potentiel pour la mesure de paramètres physiques, cette fois en environnement ferroviaire contraignant. L’instrumentation développée ouvre désormais la voie à l’utilisation d’une nouvelle technologie pour la surveillance de l’interface pantographe-caténaire. Les travaux menés dans ce projet SMITS se sont poursuivis, et continuent à l’heure actuelle avec le développement d’un système encore plus performant et plus compact, en particulier dans le cadre du projet européen CATIEMON qui s’intéresse cette fois à la problématique de l’instrumentation des lignes de contact de l’infrastructure ferroviaire. Ce sujet fera l’objet d’un autre article.

Par Pierre Ferdinand, Laurent Maurin, Guillaume Laffont, Nicolas Roussel, Jonathan Boussoir et Stéphane Rougeault, CEA, LIST, Laboratoire de Mesures Optiques

Notes
1 – Projet piloté par Siemens [D], ayant regroupé : la SNCF-AEF [Fr] et BLS [CH] deux opérateurs ferroviaires, l’IPHT [D] et le CEA LIST [Fr] deux instituts de recherche, et Morganite Electrical Carbon Ltd [UK] fabriquant des patins de carbone.
2 – La longueur d’onde caractéristique λB d’un réseau de Bragg est sensible aux variations de déformations _ε et detempérature _T (l’effet de la pression est négligée) selon : _λB = a. _T + b. _ε avec a ~ 12 pm/°C, b ~ 1,2 pm/(μm/m), [2].
3 – L’intérêt d’une telle cadence de mesure provient de fait qu’à 300 km/h, un TGV parcourt chaque 2 ms environ 20 cm;en cas de détection d’un défaut, le couplage avec un GPS permet de localiser le secteur défectueux correspondant.
4 – NIST: National Institute of Standards and Technology – http://www.nist.gov/.

Références
1. Livre blanc : “La politique européenne des transports à l’horizon 2010 : l’heure des choix”
http://ec.europa.eu/transport/white_paper/documents/doc/lb_texte_complet_fr.pdf, Commission Européenne,20012. P. Ferdinand, Capteurs à fibres optiques à réseaux de Bragg, Techniques de l’Ingénieur, R 6735, pp. 1-24,déc. 19993. G. Laffont, N. Roussel, L. Maurin, J. Boussoir, B. Clogenson, L. Auger, S. Magne et P. Ferdinand,
“Wavelength tunable fiber ring laser for high-speed interrogation of fiber Bragg grating sensors”, 17th Int. Conf.on Optical Fibre Sensors, 23-27 mai 2005, Bruges, Belgique4. L. Maurin, P. Ferdinand, G. Laffont, N. Roussel, J. Boussoir et S. Rougeault,
“High speed real-time contactmeasurements between a smart train pantograph with embedded fibre Bragg grating sensors and its overheadcontact line”, Structural Health Monitoring 2007, Vol. 2, pp. 1808-1815, édité par Fu-Kuo Chang, DESTechpublication, http://www.destechpub.com/, ISBN 978-1-932078-71-8.

Nouvelle centrale hybride en Allemagne : produire de l’hydrogène pour stocker de l’électricité éolienne

En cas de vent fort, les éoliennes conventionnelles, que l’entreprise brandebourgeoise Enertrag produit par centaines, génèrent souvent plus d’électricité que la capacité d’intégration du réseau. En effet, l’électricité d’origine éolienne ne peut pas être stockée et les centrales électriques de base, nuisibles à l’environnement, en particulier les centrales à charbon, ne sont pas faciles à arrêter.Ainsi l’électricité éolienne, même si plus propre, doit être vendue à un prix sacrifié, voire même donnée. Les détracteurs de l’énergie éolienne avancent même que cette source d’énergie intermittente ne peut pas être nommée propre car son expansion a signifié en pratique l’expansion concomitante de l’utilisation d’énergies fossiles.Une partie de ce problème peut être résolue grâce à l’utilisation de la biomasse (ou biogaz). Cependant, Enertrag va encore plus loin : son installation produira également de l’hydrogène (H2), qui, jusqu’à présent, n’était fabriqué qu’avec l’intervention d’énergies conventionnelles. Ainsi, à Prenzlau, c’est de l’hydrogène éolien qui sera produit et qui stockera l’énergie du vent.

Une véritable solution d’avenir
Par la suite, il sera mélangé avec du biogaz et utilisé comme source de chaleur ou d’électricité, lorsque le vent sera insuffisant pour fournir l’électricité suffisante. L’entreprise pétrolière Total achètera également une partie du gaz pour ses stations services à hydrogène.Klaus Bonhoff, porte-parole de l’organisation nationale des technologies de l’hydrogène et des piles à combustible, se réfère à une étude selon laquelle le besoin d’hydrogène devrait à l’avenir être couvert en grande partie par l’énergie éolienne. La production d’hydrogène à partir de gaz naturel, pratiquée jusqu’à présent, ne pourra pas suffire, selon une autre prévision : d’ici 2050, 70% de la flotte automobile allemande pourrait être alimentée avec de l’hydrogène, selon Bonhoff. Il s’attend à un boom d’ici 2020, dans la mesure où les fournisseurs automobiles investiront dans la technique comme prévu. Pour le moment, seuls quelques véhicules de test sont sur les routes.La centrale hybride, qui devrait être mise en fonctionnement l’année prochaine, devrait coûter environ 21 millions d’euros. Ses dimensions sont plutôt modestes : trois génératrices éoliennes à 2 MW l’approvisionneront. La centrale intégrera ainsi une installation éolienne déjà existante et une usine de biomasse, qui auront une capacité combinée de 120 MW. L’unité de production d’hydrogène, de capacité 500 kW, sera alimentée par l’électricité excédentaire de l’usine hybride. A long terme, les réservoirs de gaz pourraient, selon Enertrag, constituer un dépôt approprié pour stocker l’hydrogène.

De l’électricité pour un million de personnes
Le mardi 21 avril 2009, Bonhoff a rencontré à Prenzlau la Chancelière Angela Merkel, en compagnie du Ministre-Président de Brandebourg, Matthias Platzeck (SPD), du Ministre brandebourgeois de l’économie, Ulrich Junghanns (CDU), et du Ministre-Président adjoint de Mecklenburg-Poméranie occidentale, Jürgen Seidel (CDU).La présence de nombreuses personnalités du monde politique à Prenzlau pour l’inauguration témoigne de la signification des énergies renouvelables pour Brandebourg. Selon le Ministère de l’environnement de Postdam, environ 3.000 personnes travaillent dans la branche éolienne dans le Brandebourg. Par ailleurs, selon les données de l’entreprise, les quelque 400 éoliennes d’Enertrag concentrées en Europe produisent plus d’un milliard de kWh d’électricité par an, couvrant ainsi les besoins d’un million de personnes. 

Sources :
  • Tagesspiegel « Mehr als heiße Luft : Prenzlau erhält ein Hybridkraftwerk » – 13/04/2009
  • Site Internet d’Enertrag – présentation du projet de centrale hybride: http://redirectix.bulletins-electroniques.com/wqNo7 – 10/2007
Origine :
  • BE Allemagne numéro 433 (22/04/2009) – Ambassadede France en Allemagne / ADIT –http://www.bulletins-electroniques.com/actualites/58746.htm

Un pas de plus sur la voie des transistors « Instant on »

Pouvoir accéder, dès le début d’une cession, presque immédiatement aux informations de son ordinateur sans attendre que ce dernier démarre… telle est la promesse ouverte par les travaux des chercheurs des universités américaines de Cornell, Penn State et Northwestern. Financée par la National Science Foundation (NSF), cette équipe a publié dans le numéro du 17 avril 2009 de la revue Science (voir l’article de Science) un article sur la fabrication de transistors aux propriétés ferroélectriques.Certes, « un certain nombre de transistors hybrides ont déjà été proposés avec l’idée d’utiliser les propriétés des matériaux ferroélectriques, » déclare Darrell Schlom, chercheur spécialiste des matériaux à l’université de Cornell. Mais chose nouvelle, le procédé utilisé par son équipe permet d’espérer une mise en oeuvre relativement rapide, cette nouvelle technologie permettant, en théorie, de produire assez simplement des composants de ce type. Mais de quoi s’agit-il au juste ? Le principe consiste à prendre un oxyde bien connu mais qui n’est pas en temps normal ferroélectrique, le titane de strontium (SrTiO3), et de déposer un film de quelques atomes d’épaisseur de cet oxyde sur du silicium de telle sorte que le silicium va faire pression sur le titane de strontium le faisant passer ainsi à un état ferroélectrique. Une opération qui permet dès lors d’obtenir des transistors ferroélectriques qui pourront donner naissance à une nouvelle génération de mémoires électroniques dites « Instant on » (opérationnelle immédiatement) alliant faible consommation et haute efficacité.Dors et déjà, certaines cartes intelligentes utilisées dans les métros ou encore sur certains domaines skiables se servent des propriétés des matériaux ferroélectriques pour remettre à jour instantanément les informations stockées. Mais elles n’utilisent pas de titane de strontium , mais du titane de zirconium ou encore le tantalate strontium bismuth. Mais les travaux de l’université de Cornell ouvrent de nouvelles perspectives notamment en informatique. Des recherches supplémentaires seront toutefois nécessaires pour parvenir au stade de l’industrialisation.

Le pétrole va-t-il manquer et les biocarburants peuvent-ils le suppléer ?

A la suite de l’intervention du Secrétaire à l’énergie américain Stephen Chu, le professeur William Nordhausde Yale a donné une conférence intitulée « Energie et macroéconomie ». D’après lui, un embargo sur le pétrole décrété par un pays s’avèrerait totalement inutile dans la mesure où le pétrole est fongible. Si le Vénézuela décidait de ne plus vendre de pétrole aux Etats-Unis, il lui faudrait tout de même trouver au final un acheteur de remplacement.Ce nouveau client libèrerait à son tour quelque part un vendeur qui ferait à un moment ou à un autre affaire avec les Etats-Unis. Gail Tverberg, de The Oil Drum, a ajouté : « Dans ce cas, il devient inutile de protéger plus longtemps l’industrie pétrolière et gazière américaine. Il suffit d’acheter ce dont nous avons besoin ailleurs. »

Les biocarburants : un problème d’échelle
La conférence suivante traitait de l’avenir de la demande en matière de transports, notamment automobile, avec Lew Fulton de l’IEA, David Greene de l’ l’Oak Ridge National Laboratory, et Lee Schipper de Stanford.Fulton a dit que l’IEA s’attendait à ce que la demande pétrolière atteigne les 105 millions de barils par jours (bpj) en 2030. Un consensus s’est dégagé sur le fait que la production hors OPEP avait atteint son pic et qu’à l’avenir la production viendrait de l’OPEP.L’intervention de David Greene fut peut-être celle qui a le plus refroidi son audience. En effet, se référant aux propos de Fulton sur l’OPEP qui comblerait la demande, il a déclaré : « Avec tout mon respect, cela n’arrivera pas. »Il a également abordé la question des biocarburants. Pour lui, l’éthanol de cellulose n’a aucun sens et l’IEA prend ses désirs pour la réalité. Greene m’a laissé l’impression favorable de quelqu’un qui prend toute la mesure de la gravité du problème.J’ai souvent répété que l’on ne semblait pas comprendre les différences d’échelles entre notre consommation d’énergie et la contribution que l’on peut raisonnablement attendre des biocarburants. Lee Schipper est du même avis et l’a dit avec humour : « Notre problème est que nous ne savons pas compter. » Il a ajouté que même si la Chine comptait un pourcentage très faible de véhicules, les villes chinoises commençaient déjà à être paralysées par le trafic.

La « success story du Brésil »
La session suivante était animée par Eduardo González-Pier de PEMEX, une entreprise publique mexicaine chargée de l’extraction du pétrole. Etaient aussi présents David Knapp de l’Energy Intelligence Group et Fareed Mohamedi de PFC Energy. Ce panel a passé en revue différents endroits du globe selon le potentiel de croissance de la production. David Knapp s’est montré très pessimiste sur le Vénézuela, au contraire du Brésil qui a été décrit comme une « success story ». Fareed a également prédit un avenir à Petrobras, un important producteur pétrolier brésilien.Deux des commentaires les plus curieux sont venus de González-Pier, qui a d’abord prédit que PEMEX pouvait stabiliser sa production à 3 millions bpj pendant plusieurs années. Il a ensuite affirmé que le Mexique ne deviendra pas un pays importateur net de pétrole avant 20 ans. Ces deux allégations ont tendance à me laisser songeur.Un dernier fait marquant dans ce panel fut une diapositive avec les projections des coûts de production de différentes technologies. Le GTL (gas-to-liquids, ou la conversion du gaz naturel en hydrocarbures liquides) était estimé à être commercialisé autour de $40-$110 le baril et le CTL (coal-to-liquids, ou charbon liquéfié) à $60-$110 le baril.La production des schistes bitumineux devait quant à elle être vendue à $50-$110 le baril. Permettez-moi une fois de plus d’être sceptique, notamment à l’égard de la tranche inférieure de ces projections. Ces dernières laissent apparaître un certain nombre de problèmes. D’une part, dans la mesure où toutes ces technologies dépendent fortement du prix de l’énergie, elles fonctionneront selon une échelle mobile (ce que l’on appelle le problème d’estimation à horizon glissant).

L’éthanol de cellulose : pas une solution d’avenir ?
D’autre part, très peu de données sont disponibles sur ce que sera l’économie des équipements à long-terme, car très peu d’équipements existent aujourd’hui (à ma connaissance, il n’en existe aucun pour les schistes bitumineux). Ainsi, ces projections souffrent du même défaut que j’avais dénoncé concernant l’économie de l’éthanol de cellulose : elles sont basées sur des données d’exploitation qui sont très peu réévaluées à la hausse.Nous retiendrons ici l’intervention de David Humbird, du NERL (National Renewable Energy Laboratory). Bien qu’Humbird semble bien comprendre les défis que représente la production commerciale d’éthanol de cellulose (il a précisément parlé de la question logistique qui sonnera à mon sens le glas de l’éthanol de cellulose conventionnel), il nous a montré une diapositive suggérant des coûts de production pour l’éthanol de cellulose de $2.61/gal (soit $0,67/L), et pour la gazéification de $2.40/gal ($0,63/L).Tandis que j’abonde en son sens dans le débat cellulose versus gazéification (à long-terme, je pense que la gazéification peut être commercialement viable), je ne vois pas comment une usine commerciale d’éthanol de cellulose pourrait approcher les $2.61/gal ($0,67/L) pour l’éthanol de cellulose. Peut-être capitalise-t-il sur un crédit d’impôt de $1,01/gal ($0,27/L) à cet effet, alors les coûts de production avoisineraient ceux que je connais, à savoir $4/gal ($1,09/L).

Attention aux projections fantaisistes
Ce dont on ne parle en général pas dans ce type d’analyse est l’hypothèse de départ. Part-on du principe de trouver la biomasse dans le voisinage immédiat ? Est-ce que la vapeur de processus industriel provient d’un gaz naturel à 3 dollars (voire même du charbon moins cher) ? Il est facile de faire des projections exagérément optimistes qui sous-estiment grossièrement les coûts de production. J’en ai été le témoin à de nombreuses reprises, et ces projections fantaisistes ont conduit dans le monde réel de nombreuses usines de toutes sortes à leur perte.Humbird a aussi déclaré qu’il vaudrait mieux trouver des microbes et des levures capables de produire de l’essence et du diesel au lieu de l’éthanol. Dans la mesure où les hydrocarbures éliminent l’eau, ont une densité énergétique supérieure et sont compatibles avec nos gazoducs, cette solution est potentiellement plus pratique. Ainsi que l’a souligné Humbird, il existe de nombreux projets de recherche en cours, tant dans le public que dans le privé. Il a notamment cité LS9, Amyris, Virent, et Coskata. 

Source :
Adapté d’un article de Robert Rapier. Lire l’article complet ici.Robert Rapier est directeur ingénierie chez Accsys Technologies PLC et anime le blog R-Squared Energy Blog.

La forêt chinoise : un atout en danger ?

Entre 28 et 37 % des émissions industrielles chinoises ont été absorbées par les végétaux entre 1980 et 1990. Tel est le résultat de l’étude menée par l’université Peking, la première du genre. Les explications de ces résultats, plutôt encourageants, sont multiples. Ainsi, l’augmentation des précipitations l’été, les efforts réalisés pour planter des forêts, l’expansion de la superficie couverte par la garrigue, les changements d’utilisation des cultures et l’augmentation de la quantité de bambou sont autant de facteurs à l’origine de ces résultats.La Chine, qui vient de dépasser les Etats-Unis en termes d’émissions de gaz à effet de serre, est aujourd’hui le premier émetteur de CO2. Ces résultats sont donc positifs pour le pays, à un détail près.En effet, d’après un scientifique américain, le pourcentage d’émissions absorbées par les végétaux est en baisse, et cette diminution est directement liée à la croissance économique que connaît la Chine depuis quelques années. Concrètement, la croissance des émissions industrielles nationales est plus rapide que celle de la végétation.

14 % du territoire chinois est constitué de forêt
Kevin Robert Gurney est expert en dioxyde de carbone dans une université américaine, et tient à mettre en perspective les résultats de cette enquête chinoise, qui a été publiée par la revue américaine Nature. Pour lui, en 2007, la végétation n’aurait pas absorbé plus de 15 % des émissions de gaz à effet de serre de la Chine. Une croissance industrielle effrénée en serait la raison, elle diminuerait l’absorption des émissions polluantes des plantes.Par exemple, la Chine inaugure chaque semaine une centrale au charbon. Aussi, les prévisions à moyen terme, tablant sur une poursuite de la croissance industrielle chinoise, ne sont pas rassurantes. D’ici à 2030, la consommation d’énergie de la Chine devrait augmenter à un tel point que les végétaux n’absorberaient que 6 %, au maximum, des émissions.

L’absorption des polluants par les végétaux a diminué de moitié
Quoi qu’il en soit, si Kevin Robert Gurney apporte un éclairage qui relativise les résultats de cette enquête, il en valide cependant le contenu, précisant que « nous n’avions pas d’estimation très réaliste des émissions chinoises jusqu’à présent. »C’est donc chose faite, et si l’analyse des résultats montre le potentiel des forêts chinoises en termes de dépollution, l’augmentation de l’activité industrielle plombe ces mêmes résultats depuis une décennie. L’absorption par les végétaux des émissions polluantes a ainsi diminué de moitié en moins de vingt ans.

L’Europe veut doubler ses investissements dans les TIC d’ici 2020

Décidément, les technologies de l’information et de la communication (TIC) focalisent toutes les attentions en ce début d’année. Cette fois-ci, c’est la Commission européenne qui prend l’initiative en proposant, au cours de la première conférence européenne sur les technologies du futur qui s’est déroulée mardi 21 avril à Prague, d’augmenter sensiblement le budget qu’elle alloue chaque années aux TIC.

Des investissements massifs
Concrètement, celui-ci devrait passer de 1,1 milliard d’euros en 2010, à 1,7 milliard en 2013, soit près du double. Objectif : faire face à la concurrence de plus en plus acerbe avec la Chine, le Japon et les Etats-Unis, mais aussi soutenir l’innovation dans ce secteur afin de préparer la sortie de crise et prendre dès aujourd’hui position sur des technologies dont le développement est jugé à la fois positif pour l’environnement et pour l’ensemble de l’économie (lire l’article L’Europe mobilise les TIC pour réduire sa facture énergétique et l’article Les industries à valeur ajoutée technologique proposent un plan de relance).Parmi ces segments à fort potentiel figurent :
  • l’Internet du futur, c’est-à-dire les architectures et les protocoles réseau comme IPv6 qui remplaceront graduellement les réseaux Web, fixe et mobile d’aujourd’hui et permettront le développement de nouvelles applications ;
  • les réseaux sociaux, le peer to peer ainsi que le contributif (User Genereted Content) ;
  • les nouveaux composants et les systèmes qui permettront d’ouvrir de nouvelles opportunités en nanoélectronique, photonique, à savoir l’étude de composants permettant la génération, la transmission, le traitement (modulation, amplification) ou la conversion de signaux optiques, ou encore la bio-informatique ;
  • les systèmes intelligents pour les marchés de l’automobile et de la santé ;
  • les systèmes intelligents et de contrôle permettant d’optimiser l’efficacité énergétique et la sécurité dans les bâtiments et les transports.
Défragmenter le marcher et faciliter les débouchés commerciaux
Mais soutenir la recherche par des investissements n’est pas suffisant estime Viviane Reding, la Commissaire européenne chargée de la société de l’information et des médias. D’après la récente enquête diligentée par l’Europe, si la France accuse un retard sur ces concurrents en matière de recherche et de conception de produits et services issus des TIC, elle le doit certes à des investissements plus faibles que ceux des Etats-Unis (environ deux fois moins), mais aussi à une fragmentation du marché. Pour y remédier, Viviane Reding propose plusieurs types d’actions. Tout d’abord, elle exhorte les  » Etats membres de l’Union et les entreprises du secteur à mettre leurs ressources en commun et à intensifier leur collaboration dans le domaine de la recherche et de l’innovation en matière de TIC.  » Par ailleurs, elle invite les Etats à faciliter l’émergence de marchés publics ou privés pour ces innovations afin que ces dernières puissent rapidement trouver des applications concrètes et des débouchés commerciaux.Le cadre est fixé. Reste aux Etats et aux entreprises de concrétiser. L’Europe et les TIC en chiffresSelon un récent rapport commandé par la Commission européenne, la part de l’Europe sur le marché mondial des TIC est de 34 %, soit une progression de 4 % sur un an. Pourtant, la valeur ajoutée de ce secteur au sein de l’Union (12 millions d’emplois et 6 % du PIB) ne représente que de 23 % du total.

Des capitaux européens pour le Wave Hub anglais

Plusieurs équipementiers représentant plusieurs technologies (dont l’incontournable Pelamis Wave Power) ont été tour à tour pressentis et/ou associés au projet. Récemment, en mars 2009, c’est le discret équipementier des Cornouailles ORECon qui a été choisi pour remplacer l’australien Oceanlinx qui s’était retiré du projet britannique pour se concentrer sur ses activités en Australie. Les récupérateurs de vagues d’ORECon devraient entrer en service au Wave Hub dès août prochain. Les volumineux serpents métalliques rouges de Pelamis Wave Power restent eux aussi toujours associés au Wave Hub. L’idée de raccorder plusieurs technologies différentes au réseau est donc plus que jamais le défi majeur de ce projet. Selon certaines sources (le quotidien en ligne this is cornwall), « des millions de livres sterling étaient sur le point d’être déversées sur les Cornouailles pour booster le développement des énergies renouvelables de la mer ». 
Le plus grand parc d’énergie des vagues jamais conçu ?
Cela n’a pas tardé ! L’Agence de Développement du Sud Ouest de l’Angleterre (South West RDA) annonçait le 14 avril un investissement de 10 millions de livres sterling « pour permettre au Royaume-Uni d’avoir une longueur d’avance dans le développement des prochaines générations des technologies offshore. »Certains observateurs pensent qu’une grande partie de cette manne ira au projet Wave Hub. Ces 10 millions de livres ont été apportés par West RDA, par le Fond Européen pour le Développement Régional et par le programme gouvernemental britannique. Il est à noter que c’est la première fois que des fonds en provenance de la Communauté européenne sont injectés dans cette proportion et dans de tels types de projets d’ERM en Angleterre.Enhardi par cet apport de capitaux continentaux, le Wave Hub Project va pouvoir enfin devenir le plus grand parc d’énergie des vagues jamais conçu.Mais de quoi s’agit-il au juste ? Dans le détail, il y a d’abord l’installation d’un parc qui cumulera le fonctionnement de plusieurs types de technologies d’énergie des vagues (serpents bouées, plate-forme entre autres). Mais l’intérêt majeur du projet est la mise en place d’un hub sous-marin où viendront se concentrer les apports d’énergie électrique issus des différentes technologies de récupération des vagues. Par la suite, l’électricité produite sera envoyée par câble sous-marin vers le réseau national britannique.

Mise en route prévue pour 2011
Avec une capacité maximale attendue de 20 MW, le Wave Hub permettra de se livrer à une préfiguration commerciale tout à fait inédite des possibilités de l’énergie des vagues, avec des dispositifs et sur une échelle jamais imaginés jusque-là. C’est d’ailleurs tout ce qui fait l’intérêt de ce projet.Selon Nick Harrison, responsable des énergies marines à South West RDA, la construction du Wave Hub qui n’est pour l’heure qu’au stade de projet, « commencera en mai 2010 pour être terminée en août 2010 et entrer en service en 2011. L’ensemble du Projet Wave Hub pourrait créer quelque 1.800 emplois et injecter 560 millions de livres sur 25 ans dans l’économie britannique. » Au moins 1.000 de ces emplois profiteraient directement à la région du sud-ouest de l’Angleterre.Par Francis Rousseau, auteur du site Les énergies de la mer

Chiffre clé : réduire de 70 % les émissions de gaz à effet de serre sauvera la banquise

Le 3 avril dernier, l’Agence Spatiale Européenne publiait des clichés de la péninsule Antarctique, sur lesquels on pouvait voir le début du processus de dislocation de la plate-forme Wilkins. Le lendemain, la plaque en question n’était plus reliée au continent. Le réchauffement des glaces polaires n’est pas nouveau, mais sa rapidité est telle qu’aucun modèle valable n’a encore pu être établi en termes de prévisions.La semaine prochaine sera rendue publique une étude financée par le ministère américain de l’énergie, portant sur le réchauffement climatique et sur ses effets. Selon Warren Washington, « si le monde parvenait à réduire les émissions de gaz à effet de serre dans une proportion de 70 %, alors nous pourrions stabiliser la menace présentée par le changement climatique ».Chercheur au NCAR (National Centre for Atmospheric Research), Warren Washington est en effet persuadé qu’une baisse dans ces proportions permettrait à la terre d’éviter les pires effets du changement climatique. Le plus important étant que les baisses d’émissions de carbone soient drastiques et continues.

1 °C de marge de manœuvre
Cette diminution des émissions, de 70 %, permettrait d’éviter la disparition des glaces dans la région arctique, et ainsi de stabiliser cette menace, seule façon d’éviter une catastrophe environnementale.Toutefois, Warren Washington ajoute que ces résultats, quoi qu’il arrive, sont la preuve qu’un réchauffement climatique de la terre au 21 ème siècle est quelque chose d’inévitable.Autre donnée intéressante qui ressort de cette étude, et qui illustre le fragile équilibre environnemental qui règne aujourd’hui : une augmentation globale de la température au dessus d’un degré Celsius, sur terre, conduirait à un point de rupture pour le climat de la terre. Une donnée alarmante, quand on connaît les prévisions déjà pessimistes des scientifiques en termes d’augmentation de température.

Le sommet de Copenhague sera capital
En se basant sur l’hypothèse selon laquelle les niveaux de dioxyde de carbone dans l’atmosphère seront tenus à des niveaux de 450 ppm d’ici à la fin du siècle, les chercheurs tablent sur une augmentation de température de 0,6 °C dans une centaine d’années. Ce résultat tient compte d’une baisse drastique des émissions de CO2, et aboutit à une montée des eaux de 14 cm. Une autre prévision, tablant sur des émissions de gaz à effet de serre suivant leur cours actuel, conclut à une augmentation de température de 2,2 °C, soit une montée des eaux de près de 22 cm.Ainsi, quelques mois avant le très attendu sommet de Copenhague, les résultats de cette enquête sont doubles. D’un côté, l’espoir demeure, puisque une réduction drastique des émissions permettrait d’éviter les pires impacts des changements climatiques. D’un autre côté, et comme l’espère Warren Washington, la baisse des émissions implique des décisions drastiques et strictes. Il est donc très important que le sommet de Copenhague soit l’endroit où ces mesures seront adoptées.

Un projet britannique veut reverdir le Sahara

Sahara Forest est le nom ambitieux donné à une proposition britannique dont le but est de produire de l’énergie propre, de la nourriture et de l’eau dans les régions côtières désertiques telles que l’Afrique du Nord ou le Moyen Orient, tout en aidant à reverdir le désert.L’idée est d’exploiter les synergies entre deux technologies. La première est la serre à eau de mer inventée par Charlie Paton (membre de l’équipe du Sahara Forest Project) qui permet d’évaporer et de distiller l’eau de mer tout en créant un environnement frais et humide pour les plantes. La seconde se base sur la concentration de l’énergie solaire (CSP, Concentrating Solar Power).« Les deux fonctionnent bien dans des conditions chaudes et ensoleillées », explique Michael Pawlyn, directeur de Exploration architecture et membre du Sahara Forest Project, qui ajoute : « la CSP nécessite un approvisionnement en eau douce déminéralisée pour garder les miroirs propres et c’est ce que la serre à eau de mer produit. »

Evaporer l’eau de mer pour en faire de l’eau douce
« La CSP produit beaucoup de chaleur perdue, que nous pourrions utiliser pour chauffer l’eau de mer dans les évaporateurs et qui peut produire davantage d’eau douce », continue Michael Pawlyn. Il ajoute que si on construisait une centrale à CSP sur le versant abrité des serres, moins de poussière s’accumulerait sur les miroirs et la production d’énergie n’en serait que plus efficace. Pawlyn a refusé de chiffrer potentiellement le projet mais selon lui, celui-ci pourrait prendre de huit mois à un an pour devenir opérationnel, avec un retour sur investissement entre six et douze ans. Son équipe serait en discussion avec deux clients au sujet d’une centrale de démonstration.Quant à la manière de délivrer l’énergie, Pawlyn déclare qu’une centrale à petite échelle serait probablement construite à proximité d’un foyer de population. Il avance également qu’un projet à plus grande échelle pourrait être couplé à un super-réseau à haute tension en courant continu, si on en construisait un.Reese Tisdale, expert des énergies solaire et renouvelables à Emerging Energy Research, trouve le projet « innovant » mais met en garde contre le contexte financier actuel qui risque de refroidir les investisseurs. Même des projets plus simples de CSP pourraient avoir du mal à trouver à court terme les financements suffisants.

Construire des centrales de petite échelle
Entretemps a été entreprise en Israël la construction de la première turbine hybride solaire/gaz au monde, développée par Aora Solar à Kibbutz Samar. La centrale de 100 kW (qui brûle aussi du biocarburant la nuit) chauffera l’air à 1.000°C pour faire fonctionner ses turbines. La société, qui espère s’agrandir dans le futur, dit que son modèle commercial « décentralisé » et modulaire permet de construire des centrales de petite échelle en quelques semaines.Pour Tisdale, le principe de chauffer l’air mis en pratique à Kibbutz Samar arrive en troisième position dans la courbe de développement de la concentration de l’énergie solaire, derrière les méthodes les plus établies, le chauffage de l’eau pour produire de la vapeur et une autre innovation, le chauffage du sel. A Séville en Espagne, Torresol Energy a obtenu 171 millions d’euros pour construire une centrale à CSP de 17 MW, qui utilisera des sels fondus pour stocker la chaleur et devrait être opérationnelle en 2011.Par Chris Alden, journaliste freelance. Il écrit entre autres dans Green Futures, un magazine indépendant publié par Forum for the future.

La Suède envisage de construire la plus grand parc houlomoteur du monde

Deux compagnies suédoises sont à l’origine de ce projet très ambitieux : la compagnie d’électricité Fortum, troisième fournisseur national, et Seabased AB, une start-up créée à Uppsala en collaboration avec un laboratoire universitaire. Tous deux entendent construire un parc de 500 générateurs houlomoteurs.Ce qui représenterait une première mondiale. L’ensemble, d’une puissance de 10 MW environ, coûterait environ 25 millions d’euros. C’est pourquoi Fortum et Seabased AB espèrent obtenir une aide de l’agence suédoise de l’énergie, dont on dit qu’elle pourrait financer à moitié la construction de ce parc.Quoi qu’il en soit, le système actuellement développé à l’université d’Uppsala par l’équipe du professeur Leijon devrait être produit de manière industrielle prochainement par la compagnie Seabased AB. En effet, l’entreprise a mis au point un système complet qui permet de convertir l’énergie mécanique des vagues et de transmettre la production des générateurs au réseau électrique.

Les vagues plus efficace que l’éolien ou le solaire
Dans le détail, chaque générateur est constitué d’une unité de quatre mètres de haut, située au fond de l’eau, et reliée par un câble à une bouée flottante à la surface. Ainsi, la bouée ronde, qui mesure trois mètres de diamètre, entraine un piston en oscillant avec le mouvement des vagues. Un point très important du dispositif est la fiabilité. C’est pourquoi le développement de ce concept a abouti à la mise en place d’un alternateur unique à aimant permanent, mécanisme adapté à des mouvements lents.Pour le professeur Leijon, l’énergie produite par les vagues au large de la Suède a un potentiel plus grand que l’éolien ou le solaire, dans cette région en tout cas. « L’énergie, c’est l’intégrale de la puissance en fonction du temps. En clair, c’est important d’avoir une certaine puissance, mais le plus important, c’est de l’avoir pendant longtemps », explique Leijon.

4.000 heures de vagues par an
Or, si l’énergie solaire est disponible un millier d’heures par an et l’énergie éolienne environ 2.200 heures par an, l’énergie des vagues, elle, est disponible jusqu’à 4.000 heures par an. Cela en tenant compte du nombre d’heures d’ensoleillement et de la force du vent, ainsi que de l’agitation de la mer autour de la Suède. Et pour les côtes ouvertes du Royaume-Uni et de Norvège, cela peut aller jusqu’à 6.000 heures par an.La technologie d’Uppsala utilise l’énergie des vagues et la convertit directement en énergie électrique. Elle ne produit pas d’émissions, ne laisse pas de déchets nocifs et tout ce qu’on voit à la surface est quelque chose qui ressemble à un amas de jaunes d’œuf géants qui se balancent au gré de la houle. Des jaunes d’œufs, qui seront peut-être bientôt plus de 500 au large de la ville de Göteborg.

Chiffre clé : le mobile entre définitivement dans l’ère de l’image

Amorcée en 2007, la tendance s’est confirmée en 2008. L’utilisation des fonctions photo et vidéo des téléphones mobiles n’est plus une pratique confidentielle révèle la 4ème édition de l’observatoire sociétal du téléphone mobile réalisée par TNS Sofres pour le compte de l’Association Française des Opérateurs Mobiles (AFOM). Alors qu’en 2005, 31 % des propriétaires de mobile âgés de 15 ans et plus déclaraient faire des photos avec leur portable, ils sont désormais 61 % (âgés de 12 ans et plus) à se servir de leur téléphone comme d’un appareil photo, soit 8 points de plus qu’en 2007 et 16 points de plus qu’en 2006. Même chose pour la vidéo. En 2008, 37 % d’entre eux déclarent faire de la vidéo avec leur mobile, soit 10 points de plus qu’en 2007 et 18 points de plus qu’en 2006. Enfin, 40 % disent envoyer ces images par téléphone mobile, soit une progression de 11 points en un an et de 13 points en deux ans.Les fonctions permettant d’écouter de la musique connaissent également une forte progression. 33 % des propriétaires de portable écoutent de la musique avec leur terminal, soit 11 points de plus qu’en 2007 et 18 points de plus qu’en 2006. Autre pratique à la hausse après avoir connu un fléchissement en 2007 : le jeu. 30 % des personnes de 12 ans et plus équipées de mobile indiquent qu’elles jouent avec leur téléphone, contre 24 % en 2007.A noter également, le retour en force du SMS. Après avoir stagné entre 2006 et 2007, celui-ci gagne 7 points en un an. Même chose pour l’e-mailing dont l’usage sur mobile progresse de 4 points. Mais l’Internet mobile a encore des progrès à faire. Consulter des sites en général ou sur le portail de son opérateur, ou encore envoyer et recevoir des e-mails sont autant de fonctions qui ne sont utilisées que par 22 % des propriétaires de portable. Mais ce chiffre devrait rapidement progresser dans les années à venir sous l’impulsion des jeunes générations qui sur ce terrain sont souvent considérés comme des précurseurs. 34 % des 12-24 ans déclarent en effet utiliser l’Internet mobile, contre 23 % des 25-39 ans. Méthodologie de l’étudeCette quatrième édition de l’Observatoire sociétal a été réalisée entre le 22 et le 26 août 2008 auprès d’un échantillon de 1.200 personnes représentatives de l’ensemble de la population française âgée de 12 ans et plus. Les personnes ont été interrogées en face à face à leur domicile par le réseau d’enquêteurs de TNS Sofres.