Pesticides : une avancée majeure dans l’évaluation des risques cumulés

Les résultats de ces évaluations seront publiés d’ici la fin de l’année et seront pris en compte par l’EFSA lorsqu’elle développera les deux rapports scientifiques sur l’évaluation des risques cumulés pour la thyroïde et le système nerveux programmés pour 2017.

À plus long terme, l’EFSA espère commencer à intégrer progressivement des évaluations de risques cumulés dans son analyse annuelle des risques chroniques et aigus posés par les pesticides pour les consommateurs. Cette analyse se base sur des données recueillies par les États membres.

Le logiciel – connu sous le nom d’« outil d’évaluation des risques Monte Carlo » (MCRA) – a initialement été développé grâce à un projet financé par la Commission européenne impliquant des chercheurs, des scientifiques et des régulateurs de 14 pays supervisés par l’Institut national de la santé publique et de l’environnement des Pays-Bas (RIVM).

En 2015, l’EFSA a financé le développement ultérieur de l’outil MCRA dans le but de permettre le traitement de groupes d’évaluation cumulative de pesticides contenant jusqu’à 100 substances actives, conseillée en cette matière par le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus. Cette année encore, l’EFSA soutiendra financièrement d’autres améliorations à cet outil pour des aspects liés à l’accessibilité par les utilisateurs externes ainsi qu’à l’organisation et au formatage des données.

L’expérience acquise dans les évaluations initiales sera utilisée pour optimiser le logiciel afin d’assurer son utilisabilité dans le contexte des décisions réglementaires portant sur des demandes liées aux limites maximales de résidus (LMR) de pesticides dans l’alimentation. Ce volet du projet est étroitement coordonné avec la Commission européenne, qui a mis en place un groupe de travail pour garantir que le projet réponde bien aux besoins des gestionnaires de risques.

Luc Mohimont, de l’unité Pesticides de l’EFSA, a déclaré : « C’est un jalon passionnant et important dans nos travaux. On a fait des progrès dans le développement d’une approche permettant de réaliser des évaluations fiables de l’exposition à de multiples pesticides, ce qui nous rapproche d’un pas de notre but ultime : évaluer de façon complète les effets combinés des pesticides sur l’homme, plutôt que les effets de substances chimiques individuelles. »

Les substances sélectionnées pour les évaluations  pilotes ont été identifiées par les experts en pesticides de l’EFSA, qui ont utilisé une méthodologie spécialement conçue pour classifier les pesticides en « groupes d’évaluation cumulative » (GEC, voir ci-dessous). Au cours des années à venir, des GEC seront définis pour d’autres organes, tissus et systèmes. Des données sont actuellement déjà recueillies pour définir des groupes de pesticides susceptibles d’affecter le foie, les reins, les yeux ainsi que les systèmes reproductif et développemental.

Contexte

Le règlement de l’UE sur les LMR dans les aliments stipule que les décisions sur les LMR doivent tenir compte des effets cumulés des pesticides lorsque des méthodes permettant d’évaluer ces effets sont disponibles. En outre, le règlement relatif à la mise en place de pesticides sur le marché stipule que les pesticides ne devraient pas avoir d’effet nocif – y compris les effets cumulés – sur l’homme.

Groupes d’évaluation cumulative

En juillet 2013, le groupe scientifique de l’EFSA sur les produits phytopharmaceutiques et leurs résidus a publié une méthodologie générale pour classifier les pesticides en  groupes d’évaluation cumulative (GEC). Cette méthodologie repose sur l’hypothèse que les pesticides qui engendrent les mêmes effets phénoménologiques spécifiques, bien définis en termes d’emplacement et de nature, peuvent produire une toxicité cumulée conjointe, même s’ils n’ont pas les mêmes modes d’action.

Source : efsa

Une galaxie « propre et bien ordonnée » voisine de la Voie Lactée

IC 1613 est une galaxie naine située dans la constellation de la Baleine. Cette image acquise par le VST [1] révèle l’extraordinaire beauté de cette galaxie dans ses moindres détails – aussi bien les étoiles dispersées que le gaz d’un rose étincelant.

L’astronome allemand Max Wolf captura la faible lueur en provenance d’IC 1613 en 1906. En 1928, son compatriote Walter Baade parvint à isoler chacune des étoiles qui la constituent au moyen du plus puissant télescope de 2,5 mètres de l’Observatoire du Mont Wilson en Californie. Ces observations ont conduit les astronomes à supposer que cette galaxie devait se situer à grande proximité de la Voie Lactée. En effet, seules des étoiles appartenant à une galaxie très proche de la nôtre peuvent être observées individuellement.

eso1603b

Depuis lors, les astronomes ont confirmé l’appartenance d’IC 1613 au Groupe Local, un ensemble constitué de plus de 50 galaxies dont la nôtre, la Voie Lactée. IC 1613 se situe à 2,3 millions d’années-lumière de nous. Sa proximité en a fait un objet d’étude privilégié. Il est ainsi apparu qu’elle présente l’aspect d’une naine irrégulière, dépourvue toutefois de quelques caractéristiques communes aux galaxies de petite taille, tel le disque étoilé.

Ce qu’IC 1613 perd en terme de forme, elle le gagne en terme de propreté. La grande précision avec laquelle nous connaissons la distance d’IC 1613 s’explique en partie par la faible quantité de poussière contenue à l’intérieur de la galaxie ainsi que le long de la ligne de visée – ce qui permet d’effectuer des observations bien plus claires [2].

Le fait que cette galaxie abrite un certain nombre d’étoiles particulières – des variables Céphéides et des variables RR Lyrae [3] dont la taille et la luminosité augmentent périodiquement, à intervalles donnés, (eso1311), explique également la précision avec laquelle nous connaissons la distance d’IC 1613.

Des objets brillants tels que des ampoules ou des flammes de bougies nous apparaissent d’autant plus faibles qu’ils se situent à distance élevée. De la même façon, les astronomes peuvent déduire de la luminosité intrinsèque des objets célestes, lorsqu’ils la connaissent, leur éloignement exact.

Les variables de types Céphéides et RR Lyrae présentent la particularité suivante : leurs variations périodiques de luminosité sont directement liées à leur luminosité intrinsèque. En mesurant leurs périodicités, les astronomes peuvent donc déterminer leurs luminosités propres. Il leur suffit ensuite de comparer les valeurs ainsi obtenues aux mesures de leurs brillances apparentes pour connaître la distance à laquelle elles nous apparaissent les plus faiblement lumineuses.

En astronomie, les étoiles dont la luminosité propre est connue sont classées parmi les chandelles standards. Elles se comportent à l’image d’une bougie dotée d’une luminosité donnée et dont le scintillement de la flamme indiquerait la distance à laquelle elle se trouve.

Grâce aux chandelles standards – parmi lesquelles figurent les étoiles variables d’IC 1613 ainsi que les explosions de supernovae de type IA plus rares mais visibles sur de plus grandes échelles de distance, les astronomes ont constitué une échelle des distances cosmiques s’étendant sur des régions toujours plus profondes de l’Univers.

Voici des décennies, IC 1613, au travers des étoiles variables qui la constituent, a aidé les astronomes à mesurer l’étendue de l’Univers. Pas mal pour une galaxie informe et de taille réduite.

Notes

  1. OmegaCAM est une caméra CCD constituée de 256 millions de pixels installée sur le télescope de sondage de 2,6 mètres du VLT à l’Observatoire Paranal au Chili. Plus d’images prises par OmegaCAM accessibles via ce lien.
  2. La poussière cosmique est composée d’éléments lourds tels le carbone et le fer, ainsi que de molécules plus larges. La poussière ne bloque pas seulement la lumière, compliquant l’observation des objets qu’elle encercle, elle diffuse de préférence également une lumière plus bleue. De sorte qu’au travers des télescopes, les objets apparaissent davantage rouges qu’ils ne le sont en réalité. Les astronomes peuvent tenir compte de ce rougissement affectant les objets qu’ils étudient. Toutefois, plus ce rougissement est faible, plus les observations sont supposées fiables.
  3. Nettement différente des deux Nuages de Magellan, IC 1613 est la seule galaxie naine irrégulière du Groupe Local au sein de laquelle des étoiles variables de type RR Lyrae ont été identifiées.

Source : eso

Un bilan électrique 2015 mitigé !

Fin 2015, la production nette d’électricité atteint 546 térawattheures (TWh), soit une hausse de 1,1 % par rapport à 2014. La consommation française repart également à la hausse (+ 2,2 %), passant à 475,4 TWh. Corrigée de l’effet météorologique, la consommation augmente plus faiblement, + 0,5 % pour atteindre 476,3  TWh, soit le niveau de 2013.  Dans un contexte économique plus favorable, cette  hausse est attribuée aux industries telles que l’automobile et la métallurgie, mais aussi à la canicule de juillet qui a fait tourner les climatiseurs. Au cours de l’année, les importations et exportations avec les pays voisins ont atteint 120,9 TWh d’électricité.

Avec un solde d’exportation de 61,7 TWh, la France demeure le premier pays exportateur d’électricité en Europe.

Par ailleurs, l’effacement gagne du terrain : RTE dispose désormais d’une puissance d’effacement mobilisable d’un maximum de 1,9 gigawatts (GW), contre 1,2 GW en 2014.

Un autre fait est marquant : les émissions françaises de CO2 liées à la production d’électricité ont augmenté en 2015 de 21,7 % par rapport à 2014, atteignant 23,1 millions de tonnes (contre 19 millions l’année précédente). La majeure partie de ces émissions est due à l’augmentation de la production thermique à gaz (+ 3,5 millions de tonnes). Rappelons qu’en 2014, les émissions avaient connu une chute historique de 40 %.

Portrait du parc électrique français : capacités et production

Fin 2015, la puissance installée des centrales électriques françaises s’élève à 129,3 GW, en hausse de 0,5 % par rapport à 2014.  Les 58 réacteurs nucléaires représentent toujours 63,1 GW de puissance installée, soit, 48,8 % de la puissance du parc électrique français. Il constitue toujours la source de production numéro 1, avec 76,3 % de l’électricité produite (416,8 TWh).

L’hydroélectricité demeure en deuxième position grâce à ses 25,4 GW, soit 19,7 % du parc installé. Elle permet d’assurer 12,6 % de la production (58,7 Twh), malgré une baisse de 13,7 % de  production due à une pluviométrie inférieure à 2014.

En troisième position, on retrouve les centrales thermiques utilisant des combustibles fossiles (charbon, fioul et gaz). Leurs capacités sélèvent à 22,6 GW pour une production de 34,1 TWh fin 2015 (22,1 TWh de gaz, 8,6 TWh de charbon et 3,4 TWh de fioul. Ces centrales représentent 17,4 % du parc installé, mais seulement 6,2 % de la production. Malgré la fermeture de 1,5 GW de centrales à charbon, et une baisse globale de 5,9 % des capacités de centrales thermiques à combusibles fossiles, la production d’origine fossile croît de 9,7 TWh par rapport à 201 (+ 31,9 %). Cette année, c’est la production de gaz qui a le plus augmenté ( + 54,8 %), en raison des besoins en chauffage lors des premiers mois de l »année.

On retrouve ensuite l’éolien et le solaire. Pour ces énergies renouvelables intermittentes, les écarts entre puissance installée et production se creusent.  Entre 2014 et 2015, le parc éolien a gagné 999 MW et le parc solaire 895 MW. Avec des facteurs de charges supérieurs à 2014, le parc éolien a produit en moyenne à 24,3 % de sa capacité contre 22,6 % fin 2013 et le parc solaire à 15 % contre 14 % en 2014, ce qui a engendré d’importantes hausses de production. Fin 2015, si l’éolien représente 8 % de la puissance installée avec ses 10,3 GW, le parc produit 3,9 % de l’électricité française (21,1 TWh, en progression de 23,3% par rapport à 2014). Avec 4,8 % de la puissance installée (6,2 GW), le parc solaire représente 1,4 % de la production française (7,4 TWh, en hausse de 25,1 % par rapport à 2014).

Enfin, le parc de la filière bioénergies électriques est de 1,7 GW, soit 1,3 % du parc français pour une production de 7,9 TWh (1,4% de la production). Il se compose d’installations fonctionnant à partir de déchets ménagers, de biogaz, de bois-énergie et autres biocombustibles renouvelables, ainsi que de déchets de papeterie. Fin 2015, la production renouvelable de cette filière s’élève à 5,9 TWh, soit 1,1 % de la production totale. Une hausse de 8 % par rapport à l’année précédente.

Au final, si l’on combine la production de la part renouvelable de l’hydraulique et des bioénergies, les renouvelables ont produit 88,4 TWh, soit 16,2 % de la production électrique française.

Selon la méthodologie de calcul reprise de la directive européenne 2009/28/CE, la part annuelle de la production issue des sources d’énergies renouvelables par rapport à la consommation d’électricité atteint 18,7%, contre 19,6% en 2014.

Pour préparer le réseau aux objectifs de la transition énergétique, qui visent à porter à 40 % la part des énergies renouvelables dans le mix électrique en 2030, RTE a investi 1,4 milliard d’euros dans l’adaptation, le renforcement et l’entretien du réseau. C’est 28 millions d’euros de plus que l’année précédente.  De quoi intégrer notamment une part croissante d’éolien et de solaire.

Par Matthieu Combe, journaliste scientifique

Plus on est compétent, plus on est responsable

Il s’agit d’une conséquence du principe selon lequel chacun est responsable des accidents causés par les appareils dont il a la garde en qualité d’utilisateur ou de propriétaire.

La Cour a jugé qu’un architecte était censé avoir connaissance du mauvais fonctionnement de sa pompe à chaleur puisqu’il était un professionnel de la construction. Le dysfonctionnement, qui créait un danger, était pour lui un « défaut apparent », a dit la Cour. En revanche, le même défaut sur la pompe à chaleur du voisin, kinésithérapeute, n’a pas été jugé « apparent », son propriétaire n’ayant aucune compétence en la matière.

La pompe à chaleur laissait couler de l’eau de condensation qui formait une plaque de verglas sur le sol et avait provoqué un accident. La victime devait être indemnisée. Ayant glissé sur la glace, les juges ont exclu toute faute de sa part puisqu’elle n’avait fait qu’accomplir un geste de la vie quotidienne qui ne nécessite pas de précautions particulières.

Condamnés, les deux propriétaires de l’appareil ont donc connu un sort différent. L’architecte condamné ne s’est vu reconnaître aucun recours contre le fabricant ou l’installateur de la pompe à chaleur alors que le kinésithérapeute a pu faire valoir qu’on lui avait installé un appareil défectueux et se retourner contre ses fournisseurs.

Pour la justice, même si le dysfonctionnement provenait d’une mécanique interne automatique, il devait être connu d’un propriétaire ou utilisateur reconnu compétent, et ce dernier devait le faire réparer.

(Cass. Civ 3, 21.1.2016, P 14-20.308).

« Tous droits de reproduction et de représentation réservés. © 2016 Agence France-Presse. »

DEEE : une collecte record en 2015

La collecte avait stagné entre 2011 et 2013 autour de 7 kg, avant d’atteindre 7,4 kg en 2014. Mais en 2015, avec l’équivalent de 9 kg par habitant, le taux de collecte atteint 43,8 %, un taux supérieur à l’objectif  réglementaire de 40 %. La progression de 2015 est donc un record, correspondant à une croissance de près de 25%, soit 90 000 tonnes de DEEE collectés supplémentaires.

« Cette progression se répartit à hauteur de 33 000 tonnes émanant de collectivités nouvellement desservies par Eco-systèmes et 57 000 tonnes issues des actions annoncées en 2014 : création de nouveaux canaux de collecte, développement des collectes de proximité en zones urbaines denses et investissements en communication », fait savoir Eco-systèmes.  Les collectes en zones urbaines denses ont notamment montré leur efficacité. « Etendues à 13 nouveaux arrondissements de Paris et à 2 départements d’Ile de France, elles ont également démarré dans les 9 arrondissements de Lyon et à Bron, ainsi qu’en centre-ville de Toulouse, rappelle Eco-systèmes. Ces opérations (4 h le samedi matin) ont permis de collecter […] en moyenne 9 kg/apporteur. Ce résultat est à comparer à la performance nationale en zone urbaine de 2,4 kg/hab en 2014. » Ces actions seront poursuivies en 2016 avec une nouvelle priorité : accompagner les producteurs dans leurs démarches d’éco-conception (grâce au nouvel outil ReeeCyc’Lab lancé en mars 2016) et encourager leurs initiatives en matière d’économie circulaire.

Dans le détail, la collecte des petits appareils électriques est en hausse de 8 % (contre une hausse de 20,2% en 2014). Malgré une communication accrue, la hausse de l’apport des petits appareils électriques en magasins dans les meubles de collecte libre-service diminue donc. La plus forte augmentation de la collecte vient cette année des appareils de gros électroménager hors froid, grâce à une contractualisation rapide des entreprises de recyclage métaux et les opérateurs de broyage : + 30 %, contre + 8 % en 2014. Par ailleurs, la collecte des gros appareils froids augmente de 9 %, contre 4,7 % en 2014. Seule ombre noire au tableau : la collecte des écrans est en baisse de 4 %.

Conformément à la Directive Européenne DEEE 2, les objectifs sont d’atteindre une collecte d’environ 14 kg de DEEE en France en 2019. Cela représente 65 % du poids moyen d’appareils mis sur le marché chaque année. Il faudra alors collecter 6 kg de DEEE supplémentaires par habitant.

Par Matthieu Combe, journaliste scientifique

L’US Navy se met au biocarburant

De la graisse de bœuf. C’est la matière première utilisée pour produire le biocarburant qui servira à propulser quatre bâtiments de l’US Navy. Une première saluée par le secrétaire d’Etat à la Marine, Ray Mabus et à l’Agriculture Tom Vilsack, présents à San Diego (Californie) pour l’occasion.

Great Green Fleet

Cette expérience s’inscrit dans une stratégie plus globale résumée par l’expression : « Great Green Float ». Elle consiste à substituer la moitié de la consommation de pétrole et dérivés de la marine américaine par des carburants de substitution. Et ce, afin de diminuer son empreinte carbone certes, mais surtout réduire sa dépendance envers un produit importé, et dont les cours peuvent affecter la conduite de la guerre.

160120-N-SU278-024 SAN DIEGO (Jan. 20, 2016) – SAN DIEGO -- The Arleigh Burke-class guided-missile destroyer USS Stockdale (DDG 106), departs Naval Base San Diego as part of the Great Green Fleet, for a scheduled deployment. The Great Green Fleet is an initiative optimizing energy use to increase optimal range, endurance and payload, turning energy into a force multiplier. (U.S. Navy photo by Mass Communication Specialist 2nd Class Will Gaskill/RELEASED)

Cette stratégie a été élaborée alors que les Etats-Unis déployaient de nombreuses troupes au Moyen-Orient et que les cours du baril de pétrole dépassaient allégrement les 100$. Elle doit également participer à augmenter l’autonomie des troupes. Une doctrine résumée par le secrétaire d’Etat à la Marine : « La Grande Flotte Verte montre comment nous sommes en train de transformer notre utilisation de l’énergie pour faire de nous de meilleurs combattants, pour aller plus loin et délivrer davantage de puissance de feu. En bref, cela nous permet de remplir notre mission, à savoir une présence globale ».

Réalisable mais coûteux

Les quatre navires bénéficient d’une technologie développée par la société américaine AltAir Fuels, qui raffine les déchets issus des plusieurs fermes bovines de Californie. Ces carburants alternatifs sont compatibles avec les moteurs actuels et ne nécessitent pas d’adaptation. Le procédé reste néanmoins coûteux ce qui explique pourquoi l’armée s’est résolue à n’intégrer ce combustible alternatif qu’à hauteur de 10% dans le mix total, contre 50% initialement envisagé. La diminution des coûts est donc l’objectif principal du secteur des biocarburants, qui a bénéficié de quelque 500 millions de dollars de la part du gouvernement fédéral pour y parvenir. D’aucuns émettent de sérieux doutes sur l’intérêt réel des biocarburants. Outre le risque de concurrence sur les terres agricoles, ces carburants alternatifs ne donneront pas une meilleure autonomie aux navires américains, et ne résolvent en rien la problématique logistique de son acheminement jusqu’aux théâtres d’opération. C’est le principal inconvénient du recours aux carburants fossiles.

C’est pourquoi, l’US Navy travaille sur d’autres pistes que les biocarburants. Son laboratoire dédié, le Naval Research Labaratory, avait fait sensation en 2014 en annonçant avoir réussi à faire voler un avion télécommandé grâce à un carburant fabriqué à base… d’eau de mer ! Le procédé, qui consiste à extraire simultanément le CO2 et l’hydrogène de l’eau de mer pour en faire du kerosène, est en cours de développement à plus grande échelle. L’océan en guise de station-service, un rêve pour tout marin.

Romain Chicheportiche

Nucléaire : Test de refroidissement réussi pour l’EPR

La Chine avance à grands pas vers la mise en service de ses deux EPR. Elle a franchi une nouvelle étape avec ses tests de refroidissement. Leurs objectifs étaient d’obtenir une première série de données sur les équipements, d’assurer la compatibilité de l’opération avec l’interface système et de vérifier la performance de l’ensemble.  « Il s’agit des premiers tests de refroidissement réalisés sur un EPR », s’est félicité la compagnie chinoise. En effet, bien qu’ayant été mis chantier en 2009, soit deux ans après Flamanville, le premier réacteur de Taïshan devrait entrer en service au premier trimestre de l’année prochaine, suivi d’une deuxième EPR en fin de cette même année.

TaïshanPour rappel, il existe deux autres EPR actuellement en construction dans le monde. L’EPR de Flamanville a multiplié les retards et surcoûts. Il a été l’objet d’un nouveau calendrier, présenté par Jean-Bernard Lévy, pdg d’EDF, qui prévoit désormais sa connexion au réseau, au plus tôt, fin 2018.

Le chantier finlandais d’Olkiluoto est un peu particulier. Démarré en 2005, il a lui aussi multiplié les retards en raison d’un conflit entre Areva et l’électricien finlandais TVO qui a commandé le réacteur. Des incompréhensions avec l’autorité de sûreté finlandaise auraient également enlisé les opérations. Il pourrait finalement être opérationnel en 2018. Les EPR chinois seront donc, sans aucun doute, les premiers à entrer en fonctionnement.

Romain Chicheportiche

Grandes manœuvres dans le nucléaire français

Il y a un an, François Hollande, après l’annonce de la perte record d’Areva sur l’exercice 2014 (4,8 Md € tout de même et 6000 suppressions de poste en conséquence), prophétisait qu’il y aurait une nouvelle stratégie industrielle pour la filière nucléaire française. Une filière qui ne compte pas pour du beurre : 2500 entreprises et 220 000 salariés et dans laquelle l’Etat joue un rôle crucial d’orientation bien sûr mais surtout de financement. Mais la crise est profonde et touche tous les chaînons : de l’extraction de l’uranium à la gestion des déchets, en passant par la sûreté.

En amont, Areva minée par l’uranium

Présente sur presque tous les continents Areva n’en reste pas moins une entreprise très ancrée en France : les deux tiers de ses 45000 salariés y travaillent. Mais la recapitalisation en cours aujourd’hui est l’aboutissement de choix stratégiques et d’investissements hasardeux. Tel que l’affaire Uramin, un rachat de gisements d’uranium en Afrique qui se sont révélés complètement sur-évalués et ont fait perdre 2,6 Md € au groupe tout en exposant au grand public les pratiques douteuses des responsables d’Areva (voir la nouvelle enquête publiée par Mediapart).

Sur un autre plan, les travailleurs locaux d’Areva commencent aussi à se faire connaître, tel ce groupement d’anciens ouvriers des mines au Gabon qui ont exigé le 23 janvier dernier une indemnisation au titre des fortes radiations reçues lors de l’exploitation des mines. (voir cet article du journal gabonais info241). Le tout dans un marché de l’uranium excédentaire depuis la catastrophe de Fukushima en mars 2011.

Areva démantelée, EDF récupère les réacteurs

C’est mercredi 27 janvier que la nouvelle filière française du nucléaire a été décidée officiellement : EDF rachète pour 2,5 Md € la branche réacteurs et services d’Areva (Areva NP) et l’Etat recapitalise Areva à hauteur de 5 MD€. Aussitôt la bourse applaudit, le titre grimpe de plus de 30%. Mais rien n’est encore gagné. Il faut trouver d’autres investisseurs – sinon, l’opération risque d’être recalée par la Commission européenne – les deux pistes principales évoquées pour l’instant sont koweitienne et chinoise.

Enfin, une autre difficulté reste à régler : celle de l’EPR finlandais dont EDF refuse d’assumer la charge. En effet, cet EPR a déjà 9 ans de retard et a coûté 3 fois son prix de départ atteignant les 8 Md€. Fin janvier, les gouvernements français et finlandais ont donné 1 mois à Areva et TVO (l’industriel finlandais) pour régler leur litige financier. EDF a déjà suffisamment à faire avec ses propres projets d’EPR.

EDF peut-il tenir encore ?

En ce mois de janvier, EDF a confirmé 3350 suppressions de postes. Mais cela ne représente qu’une goutte d’eau au vu de l’argent nécessaire pour renflouer le groupe : 37 Md € de dette et des besoins d’investissements faramineux : 55 Md € pour les travaux de maintenance et de mise à niveau des centrales nucléaires d’ici à 2030 (si l’ASN vote pour les prolongations), 16 Md€ pour le projet d’EPR britannique d’Hinkley Point et la demande en augmentation constante pour mettre en place la gestion des déchets. On peut comprendre les craintes des syndicats qui ne veulent plus prendre le risque Outre-Manche. D’autant que l’EPR français de Flamanville est lui aussi menacé de ne jamais voir le jour : les anomalies trouvées sur la cuve pourraient obliger à tout détruire et reconstruire : Impensable !

Le nucléaire scientifique patine aussi

Les EPR, ITER ne sont pas les seuls projets qui prennent l’eau. Le réacteur de recherche du CEA, le RJH (réacteur Jules Horowitz) a aussi plombé les comptes de la DCNS : 100 millions de perte sur 2015 pour le groupe naval. Il faut dire que la facture globale de ce réacteur est passé de 630 M€ à près d’1,4 Md€ entre 2007 et 2015. Quant à la mise en service prévue pour 2016, ce sera plutôt 2022…

Et si la sûreté passait à l’as ?

M.-Pierre-Franck-Chevet-presente-ses-vaeux-a-la-presse-le-20-janvier-2016_large
Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN)

C’est la plus grande crainte de Pierre-Franck Chevet, président de l’autorité de sûreté nucléaire (ASN). Tout d’abord car les autorités de contrôle et de surveillance que sont l’ASN et l’IRSN estiment de pas avoir les moyens de leur mission : le gouvernement a débloqué 30 postes là où l’ASN en réclame 200. Et devant la charge de travail, les contrôles ne pourront porter que sur les installations en fonctionnement et pas sur les nouvelles. Une situation qui ne serait pas forcément pour déplaire à EDF qui, comme le suggérait Mediapart en juin 2015, aurait mis comme condition du rachat d’Areva un assouplissement des exigences de l’ASN vis-à-vis des anomalies trouvées à Flamanville.

Sans oublier le trou de la gestion des déchets

bureEn début d’année, Ségolène Royal, ministre de l’énergie annonçait le coût estimé de Cigeo, le projet de stockage profond des déchets de moyenne activité à vie longue, à 25 Md€. Plus que l’estimation faite par les industriels  – 20 Md€ – mais beaucoup moins que celle faite par l’Agence nationale des déchets radioactifs (Andra) – presque 33 Md €. Un débat financier qui s’accompagne d’une relance du bien-fondé et de la sécurité de cette solution en raison d’un accident mortel sur le site laboratoire d’enfouissement de Bure actuellement en construction.

Les citoyens, oubliés du nucléaire ?

A l’heure de la démocratie participative, des espaces de discussion au travail, la filière du nucléaire, pour laquelle le contribuable va encore payer (via des hausses de tarifs, d’impôts ou des coupes claires dans d’autres secteurs), reste assez hermétique à la participation du public. Une position que voudrait faire évoluer l’ASN. L’autorité a ainsi ouvert aux citoyens les commentaires sur ces projets de décisions et Pierre-Franck Chevet a clairement évoqué l’idée de faire participer les Français à la décision ou non de poursuivre la durée de vie de certaines installations en 2018.

Sophie Hoguin

Les changements magnétiques solaires de 2011 à 2015

Les forces magnétiques produites par le soleil, invisibles à l’œil nu, déclenchent d’incroyables éruptions solaires dont la puissance est telle qu’elles seraient capables de pulvériser tous nos systèmes électriques.

La compréhension de la structure magnétique du soleil est cruciale pour les scientifiques afin  de comprendre et prévoir ces événements. Les chercheurs utilisent notamment un magnétographe, qui mesure la force et la direction des champs magnétiques.

La vidéo ci-dessous, produite par Goddard Space Flight Center de la NASA, montre les changements du champ magnétique du soleil au cours des quatre dernières années.

Par Iris Trahin

Des machines qui se souviennent, le défi des intelligences artificielles à venir

La satisfaction de l’équipe Google est compréhensible, ses réalisations anticipent de dix ans les prédictions des spécialistes.

La centaine de chercheurs réunis à Londres a montré son efficacité depuis l’absorption de DeepMind en 2014, en prenant le meilleur sur le programme Darkforest de Facebook, lui aussi chargé de s’ouvrir la voie du succès au jeu de go.

Les spécialistes du secteur sont sur la brèche. Les résultats et codes révélés sont vite assimilés par les laboratoires en pointe qui les mettent à leur tour en œuvre.

hippocampe_coraline

Les techniciens ambitionnent désormais de construire un système d’intelligence artificielle « généralisé », qui tire de ses apprentissages établis dans des environnements préalables des moyens transmissibles à d’autres tâches. C’est aussi la capacité humaine à décomposer les problèmes en problèmes plus petits et à envisager les conséquences d’actions distantes.

Les chercheurs s’intéressent ainsi au fonctionnement de l’hippocampe, siège de la mémoire, pour reproduire les mécanismes de transfert d’expérience et ainsi créer des automates d’un nouveau genre.

Leur couplage avec d’autres technologies informatiques, telle l’ordinateur quantique élaborée par la société D-Wave au Canada pour résoudre des problèmes mathématiques, elle aussi passée dans le giron de Google.

Par Etienne Monin

Les performances derrière la victoire d’AlphaGo

Des pierres de handicap (coups d’avance) leur sont encore attribuées dans les parties contre des professionnels.
AlphaGo explore aussi les données de cette manière, en comparant la partie en cours à des échantillons de trente ans millions de positions de parties professionnelles inventoriées.

AlphaGo a en outre été entraîné en jouant virtuellement avec 50 autres ordinateurs, améliorant son système d’interprétation et de prédiction par l’apprentissage renforcé.

Fan Hui, son adversaire, a reconnu qu’il aurait pu croire affronter un humain au jeu parfois « étrange » mais « très fort ». Il a adopté un style plus agressif après la première partie, sans déstabiliser la machine au style plus défensif, « territorial ». Il abandonne dans la cinquième partie, ayant accumulé un retard de dix points.

Un commentateur professionnel coréen sur un portail de go juge qu’AlphaGo a surpassé son adversaire par des coups « solides et souples », sans commettre de graves erreurs.

L’enthousiasme de l’équipe de Google est d’autant plus grand que personne ne s’attendait à ce qu’un ordinateur parvienne aussi rapidement à ce niveau de jeu.

Pour son artisan Demis Hassabis, AlphaGo a acquis la capacité d’inventer par lui-même des choses nouvelles, qui repoussent ce que les meilleurs humains avaient pu concevoir.

Le prochain affrontement avec le coréen Lee Sedol s’annonce ainsi ébouriffant. La communauté du go soutient son champion mais la balle est dans le camp de l’intelligence artificielle qui poursuit sa préparation depuis sa victoire d’octobre 2015.

Lee Sedol a annoncé « considérer ce match comme un moment important de l’histoire du go » mais demeurer « confiant dans le fait de pouvoir gagner. » Un programmateur de Deep Mind se demande quelles ruses il trouvera à opposer à l’algorithme, « qui ressemble à un mur ».

Par Etienne Monin

Des programmes informatiques qui apprennent à jouer

L’algorithme, dit de « minimisation rétrospective du regret », construit un arbre de décision à partir des résultats de chaque partie, associés à un degré de « regret ». Il réévalue également les décisions prises dans les tours précédents.

Le bluff est généré par fréquences statistiques calculées à partir des observations. Ces technologies font envisager des applications pour l’aide à la décision dans les domaines médicaux, biologiques ou financiers.

L’innovation de l’algorithme DeepMind est de pouvoir évoluer dans des environnements différents et d’y former chaque fois par apprentissage un schéma d’action. Il apprend formellement à reconnaître les configurations favorables de pixels.

Les ingénieurs l’ont d’abord entraîné à jouer à 49 jeux d’arcades, tels Pong, Space invaders et Breakout. Dans chacun d’eux, l’algorithme a décidé d’un comportement jusqu’à jusqu’à totalement « maîtriser » le jeu. Demis Hassabis, co-fondateur de DeepMind, en fait la démonstration avec le jeu Breakout (une plaque mobile renvoie une balle verticalement pour casser des briques.

L’algorithme après 300 parties gagne à tous les coups. Au bout de 500 parties, il a identifié une stratégie optimale, renvoyant la balle de manière à creuser dans les briques par le dessus.

Par Etienne Monin

Les machines à apprendre : réseaux neuronaux et apprentissages en profondeur

Son algorithme décompose l’analyse d’un ensemble de données complexes couche après couche pour extraire de cette information brute un schéma structuré, « créer des règles à partir de rien ».

Le programme initial mis en place au Google X Lab en Californie en 2011 consistait en un réseau d’un million de neurones simulés, dotés d’un milliard de connexions, répartis entre 1000 ordinateurs. Il a montré la performance des réseaux neuronaux dans l’identification d’images et la reconnaissance vocale, suivant la méthode de « l’apprentissage en profondeur ».

Cette approche, initiée dans les années 1980, vise à renforcer les interconnexions pertinentes entre couches neuronales simulées. Yann LeCun, aujourd’hui directeur de la recherche en intelligence artificielle à Facebook, produit à cette époque un programme d’identification des chèques bancaires.

La révolution numérique des années 2000 ouvre à de nouvelles expériences par la masse des données disponibles et la puissance de calcul accrue. Les projets menés autour de la reconnaissance vocale améliorent de 25 % la qualité dans le cas du logiciel Siri intégré à la plateforme IOS d’Apple.

L’algorithme d’identification d’images remporte en 2012 la compétition ImageNet : les programmes « apprennent » à partir d’un stock d’un million d’images étiquetées en catégories. Un test les soumet à une série d’images inconnues dont ils doivent dire l’étiquette.

Le taux d’erreur passe avec ce nouvel algorithme de 25 % à 15 %. Pour cela, les « filets neuronaux profonds » – deep neural nets – exploitent une deuxième stratégie, l’apprentissage par renforcement, qui institue un système de décision, par des mécanismes de récompense et de validation, comme un score, à chaque expérience.

L’algorithme apprend par essai-erreur quelles actions maximisent sa récompense à n’importe quel moment en environnement complexe. Plus la quantité d’information traitée est importante, plus algorithme s’améliore.

Par Etienne Monin

Google DeepMind : la machine surpasse une nouvelle fois l’intelligence humaine

Le jeu de go, jeu millénaire dont les origines légendaires se confondent avec les fondements de la civilisation chinoise, gardait la réputation d’être irréductible au calcul informatique, même si des programmes récents approchaient d’un niveau respectable.

Au long d’une divulgation médiatique soigneusement préparée par la publication d’un article dans la revue Nature[1], l’équipe de développement de DeepMind, le programme d’intelligence artificielle de Google, a annoncé la victoire de son programme AlphaGo contre le joueur professionnel et champion d’Europe de go en titre, Fan Hui, dans un match en cinq manches disputé au mois d’octobre, où le champion a chaque fois été dominé.

Google-humilie-le-champion-d-Europe-du-jeu-de-go_article_landscape_pm_v8

Ce résultat, inespéré autant que spectaculaire, prend appui sur la technologie des réseaux neuronaux, inspirée du fonctionnement cognitif du cerveau humain. Elle vise spécifiquement à fonder le fonctionnement de la machine sur un processus d’apprentissage, inscrit dans un « entraînement », pour répondre à un objectif donné.

Cette nouvelle prouesse issue des laboratoires du géant californien laisse présager d’applications numériques nombreuses.

En arrière-plan se joue une bataille qui promet d’être homérique avec Facebook, attelé au développement d’une technologie similaire et pour l’heure distancé.

Fort de son avance, Google impose son calendrier : prochaine étape, son programme AlphaGo affrontera Lee Sedol, joueur de go coréen au sommet de la hiérarchie mondiale, dans une nouvelle série de rencontres prévues au mois de mars.

[1] Silver D. et al., 2016, « Mastering the game of Go with deep neural networks and tree search », Nature, vol. 529, 28 janvier 2016, p. 484-489.

Par Etienne Monin

Le laser s’installe dans les communications par satellite

EDRS (European Data Relay System) ou encore de son petit nom SpaceDataHighway (« autoroute des données spatiales »), est un programme de télécommunication entrepris par l’Agence spatiale européenne (ESA) qui vise à fournir un accès en temps réel aux données satellitaires – notamment d’observation de la terre. EDRS repose sur un partenariat public-privé entre l’ESA et Airbus Defence and Space. Sa mise en service devrait permettre d’améliorer le temps de réaction nécessaire pour réaliser de nombreuses opérations de sécurité et de sauvetage, particulièrement dans le domaine maritime et fournira à l’Europe une meilleure indépendance vis-à-vis des stations au sol hors de son territoire.

Un relais pour les satellites en orbite basse

Lancement de EDRS-A, charge utilse du satellite Eutelsat-9B, le 29 janvier à 22h20 TU par une fusée Proton depuis Baïkonour, au Kazakhstan
Lancement de EDRS-A, charge utilse du satellite Eutelsat-9B, le 29 janvier à 22h20 TU par une fusée Proton depuis Baïkonour, au Kazakhstan

Le principe du système EDRS est de relayer les données des satellites en orbites basses vers la terre en temps quasi-réel. En effet, l’inconvénient des satellites en orbite basse est qu’ils doivent être visibles depuis le sol pour pouvoir envoyer leurs informations. Sur 100 minutes nécessaires à leur orbite, les satellites ne peuvent communiquer que 10 minutes.

L’ensemble des satellites EDRS, grâce à des positions géostationnaires, pourront recevoir ces informations presque en continu et les relayer directement au sol. La mise en place de ce relais devrait en outre participer à la décongestion des radiofréquences traditionnelles des satellites qui commencent à être encombrées.

Une technologie laser de pointe

Les liaisons optiques semblent être le futur des communications par satellites : capables de connecter des systèmes sur de très longues distances, de manière plus fiable que les ondes radio et avec une quantité de données bien plus importantes.

c295wLes satellites EDRS pourront communiquer avec les satellites d’observations de la Terre, mais aussi des avions ou drones de surveillance soit par laser soit par radiofréquence (bande Ka – 400 MHz jusqu’à 300MBit/s) et par laser avec des stations au sol installées en Allemagne, en Belgique et au Royaume-Uni avec un débit de 1,8GBit/s. Le laser a été fabriqué par l’entreprise allemande TESAT et financé par l’agence spatiale allemande (DLR). Il peut verrouiller une cible de 135 mm de diamètre jusqu’à 45 000 km de distance en moins de 1 minute. La capacité de transmission est évolutive et peut être augmentée jusqu’à 7,2 Gbit/s. Ce premier réseau de transmission de données laser inter-orbital relaiera à terme quelque 50TBit de données par jour.

Quelle est la suite du programme ?

Dans les semaines qui viennent, les premiers essais de liaisons seront effectués avec les premiers clients d’EDRS : les satellites Sentinelles du programme Copernicus de la Commission européenne. Le démarrage de l’exploitation réelle est prévu pour l’été 2016. Il est déjà prévu que la Station spatiale internationale bénéficie du service de relais de données à partir de 2018. Le système sera complété l’année prochaine par la mise en orbite du deuxième nœud, un satellite dédié baptisé EDRS-C qui sera lui-aussi géostationnaire au-dessus de l’Europe. Un troisième nœud devrait compléter le système en 2020, doublant la couverture grâce à sa situation au-dessus de la région Asie-Pacifique.

Sophie Hoguin

La libéralisation profite des prix bas de l’énergie

Depuis le 1er janvier 2016, des centaines de milliers de sites professionnels ont dû quitter les tarifs réglementés de l’électricité et de gaz pour une offre de marché. Une obligation inscrite dans la loi Nome (Nouvelle Organisation du Marché de l’Electricité), votée en 2010, visant à libéraliser un marché énergétique dominé par les acteurs historiques que sont EDF et Engie (ex-GDFSuez).

Nome

La loi Nome répond à une exigence de Bruxelles de libéraliser le marché français de l’énergie. Un sujet sensible dans l’Hexagone et qui a abouti à protéger encore sous le parapluie des tarifs réglementés les particuliers. Tous les clients non-domestiques dont la puissance souscrite est supérieure à 36 kVA, devaient basculer, le 31 décembre 2015 au plus tard, sur une offre de marché. Selon la Commission de régulation de l’énergie (CRE), au 21 décembre 2015, environ 145 000 sites sur un total de 468 000 étaient encore aux tarifs réglementés d’électricité. Pour le gaz, environ 33 600 sites n’avaient pas encore souscrit d’offre de marché sur un total de 108 000. Le régulateur du secteur rappelle que, depuis le 1er janvier 2016, les contrats de fourniture de ces récalcitrants sont passés en « offres transitoires », dont les tarifs sont en moyenne supérieurs de 5 % aux tarifs réglementés de vente d’électricité. Une aberration au regard des économies réalisées par certains consommateurs.

Rabais de 15%

C’est le cas des 3 000 personnes publiques qui ont bénéficié de l’énorme appel d’offres (3 300 GWh) organisé en 2015 par l’UGAP, une centrale d’achat public. Les résultats ont été annoncés fin janvier et les lots ont été attribués. L’écart par rapport aux derniers tarifs réglementés est d’environ 43 millions d’euros par an pour la totalité des marchés, soit un gain moyen de 15%. Par ailleurs, les offres devaient favoriser le développement d’énergies propres en contenant des garanties selon le choix de chaque bénéficiaire (mix énergétique standard, 50%, 75% et 100% d’électricité renouvelable).

Le même jour, le groupe gestionnaire de copropriétés Foncia, annonçait avoir choisi Engie pour la fourniture des 120 GWh/an d’électricité destinés à ses 950 copropriétés en France, elles aussi concernées par la loi Nome. « Grâce à ce contrat de fourniture d’électricité, les immeubles concernés par cet appel d’offres vont bénéficier, en moyenne, d’une économie potentielle de l’ordre de 13% par rapport aux tarifs réglementés de vente », s’est félicité Foncia.

Libéralisation en demi-teinte

La libéralisation de ce pan du marché français de l’énergie ne s’est pas traduite par une hausse des prix, ce qui est assez rare pour être souligné. Au contraire, les clients ont bénéficié assez largement de l’ouverture du marché. D’aucuns pourraient penser qu’il s’agit de la saine concurrence qui s’est instauré dans l’Hexagone et qui a tiré les tarifs vers le bas, mais il n’en n’est rien. Les vainqueurs de l’appel d’offres de l’UGAP sont en effet les leaders historiques du secteur EDF et ENGIE, accompagnés d’Energies Strasbourg et Gaz Electricité de Grenoble, dont ils sont respectivement actionnaires… Aucun nouvel entrant. Ces offres compétitives résultent davantage d’un contexte de prix mondiaux de l’énergie (électricité, pétrole, gaz, charbon) très bas. Reste à savoir combien de temps les prix demeureront à ce niveau, et comment impactera leur inéluctable remontée sur la facture des professionnels.

Romain Chicheportiche

Danemark : Record éolien battu !

Avant-gardiste sur les énergies renouvelables, le Danemark va une nouvelle fois faire parler de lui. Le pays est parvenu à produire 42% de son électricité grâce à l’énergie éolienne, un record mondial sur une année. Cette montée en puissance des énergies vertes a permis au pays de réduire fortement l’usage des centrales thermiques alimentées par des énergies fossiles. Ainsi, le 2 septembre dernier, l’électricité consommée par les Danois provenait à 100% de l’énergie du vent, pas une seule centrale thermique n’ayant fonctionné ce jour là. Un autre jour du juillet, la production était telle que 40% des électrons ont été exportés dans les pays voisins (Norvège, Suède, Allemagne). Plus précisément, sur les 8 760 heures que compte l’année, la production éolienne a surpassé la consommation totale du pays durant 1 460 heures.

Ces performances s’expliquent par une année particulièrement venteuse, et ce, alors que deux grandes fermes éoliennes (Anholt et Horns Rev 2) étaient à l’arrêt pendant respectivement 1 et 2 mois. Le Danemark est régulièrement désigné comme précurseur dans la transition vers des énergies décarbonées. Des performances également liées aux interconnexions électriques qui permet au pays d’exporter ses surplus vers ses voisins et d’importer l’électricité de ces derniers lorsque les éoliennes ne peuvent subvenir aux besoins du réseau.

Romain Chicheportiche

Politiques d’innovation : un soutien très fort mais illisible

La Commission nationale d’évaluation des politiques d’innovation (CNEPI) installée depuis fin juin 2014 a pour ambition d’émettre des recommandations pour rendre plus efficaces et efficients les efforts publics en matière de soutien à l’innovation. Sa première tâche a consisté à établir un état des lieux des dispositifs existants. Le fruit de ce travail a fait l’objet d’un rapport présenté le 21 janvier 2016.

Plus de 10 milliards d’euros sur la table

Premier constat : après consolidation, l’ensemble des aides à l’innovation représente 10 Md€. « Un montant considérable, supérieur de plus de 25% au budget de la justice par exemple », explique les rapporteurs. L’évolution sur 15 ans montre que le soutien financier à l’innovation a doublé en euros constants. Et que l’effort a été maintenu quelque soit la tendance politique au pouvoir. La nécessité pour les acteurs économiques d’innover pour rester compétitifs fait en effet consensus.

Trop de dispositifs

Malheureusement, le financement par les pouvoirs publics de l’innovation passe par de multiples dispositifs et instruments, trop souvent instables dans le temps ou dans leur forme. Le rapport illustre ce propos par des chiffres effarants : « en 2000, l’Etat et ses opérateurs géraient près de 30 dispositifs nationaux. Aujourd’hui il y en a 62 ! Et ce sans compter ceux qui sont gérés par les collectivités territoriales. » On se doute qu’il y a alors redondance et impossibilité pour la plupart des acteurs publics ou privés de maîtriser les instruments à leur disposition.

Moins d’aides directes, plus d’incitations fiscales

Alors qu’il y a 15 ans, plus de 80% des aides étaient directes, celles-ci représentent maintenant moins de 20% des aides (une division par 2 à peu près en termes de montants réels). A la place, le gros des aides passe par le crédit impôts recherche (CIR) ou d’autres formes d’incitations fiscales : 6,4 Md € soit quelque 60% du soutien total. Il est à noter que ses aides passent désormais par deux grands acteurs financiers : le commissariat général à l’investissement (CGI) qui gère notamment les programmes d’investissement d’avenir (PIA) et la banque publique d’investissement (BpiFrance). Mais les aides viennent aussi des collectivités, notamment des régions (5,4% du total mais surtout 15,2% des aides directes) et de l’Union européenne (4,5% du total et 12,7% des aides directes).

Le soutien va à la R&D et aux entreprises innovantes

Le rapport souligne que les dispositifs poursuivent 5 objectifs principaux. Le plus soutenu d’entre eux est l’augmentation des capacités privées de R&D qui mobilise à lui seul deux tiers des moyens alloués à l’innovation (6 Md €). Loin derrière, le soutien au développement des entreprises innovantes pour 16,4% des soutiens. Les trois autres objectifs (accroître les retombées économiques de la recherche publique ; développer les projets de coopérations entre acteurs ;
promouvoir l’entrepreneuriat innovant) ne profitent que de 13,4% du total des aides mais sont concernés par 32 dispositifs.

Beaucoup de questions en suspens

En conclusion le rapport souligne surtout que cet état des lieux n’est pas suffisant à lui seul pour guider des changements en matière de politique de soutien à l’innovation. Trop de questions restent en suspens quant à l’efficience réelle des dispositifs, la capacité des acteurs à se les approprier ou encore la pertinence d’un système palliatif d’aide quand des actions pourraient être menées plus en amont par des réformes structurelles par exemple.

Par Sophie Hoguin

EYE verrait mieux et plus vite à travers la fumée

Détecter la fumée avant même qu’elle n’atteigne le détecteur ? C’est le principe du EYE, un détecteur autonome avertisseur de fumée (ou DAAF) dont la commercialisation est prévue au printemps.

eyeEYE est un produit de la marque Nodon, elle-même propriété du groupe Altyor, un sous-traitant industriel basé à Orléans. «C’est le fruit d’une collaboration entre le bureau d’étude PDCi (appartenant à Altyor, NDLR), qui a planché sur la technique de détection, les équipes de Nodon, qui ont travaillé sur la connectivité, et aussi des chercheurs américains, détaille Thomas Gauthier, président de Nodon. Onze brevets ont été déposés.»

Deux particularités distinguent EYE de ses concurrents : il est dépourvu de chambre optique, l’espace interne où s’opère la détection de la fumée, et est équipé de deux diodes LED, l’une infrarouge, l’autre bleue. D’ordinaire, une chambre optique est composée d’une LED infrarouge, d’une cellule photoélectrique et d’un écran qui empêchent l’une et l’autre d’être en regard direct. En temps normal, le faisceau infrarouge n’est pas dévié. Quand de la fumée pénètre dans la chambre optique, les particules qu’elle contient dispersent le faisceau dont une partie frappe la cellule photoélectrique, ce qui déclenche l’alarme. Cette technique de détection s’oppose à la détection ionique, interdite partout en France depuis 2011 à cause de la présence d’éléments radioactifs.

EYE est construit de manière différente : les LED et la cellule photoélectrique sont externes et affleurants. «Cette absence de chambre optique annule les habituelles contraintes mécaniques et de design, explique Thomas Gauthier. On pourrait envisager d’encastrer cette technologie ou de l’intégrer à d’autres produits. Autre bénéfice de cette configuration, la LED IR peut scruter l’environnement avec une portée de 30 cm. La détection de fumée est deux fois plus rapide que dans une chambre optique.» La LED bleue sert quant à elle à affiner l’analyse. «Elle permet de déterminer la nature de la fumée et de discriminer les types de feu, en particulier la vapeur d’eau qui émane d’une simple cuisson, ajoute Thomas Gauthier. L’objectif est de réduire le nombre de fausses alarmes, raison pour laquelle certaines personnes finissent par ôter les piles.»

L’innovation se niche dans l’algorithme

Renforcer la détection avec une LED bleue n’est cependant pas si nouveau. La dernière édition du Nest Protect, le DAAF de Nest, incorpore déjà un tel dispositif et la société américaine s’enorgueillit d’être la première à l’employer dans un détecteur à usage domestique. Publié en juin 2015, un document technique publié par Nest Labs précise qu’un feu ne produit pas le même type de particules selon qu’il soit assorti de flammes ou non et selon la nature du matériau. Ce même document décrit les avantages de combiner deux LEDs : les longueurs d’onde vers le bleu (450 à 500 nanomètres, nm) sont plus efficaces pour repérer les petites particules d’environ 50 nm, le phénomène de dispersion étant plus intense. Les longueurs d’ondes supérieures, dans le proche infrarouge au-delà de 800 nm, interagissent avec les plus grosses particules, de l’ordre de 250 nm.

De fait, Thomas Gauthier promeut surtout l’algorithme, qui décide notamment s’il faut déclencher l’alarme ou non : «Celui-ci concentre l’essentiel de l’innovation. Nous avons dû modéliser tous les types de feu puis créer une base de données pour son développement. C’est aussi une solution algorithmique qui nous a permis de réussir le test d’éblouissement réalisé par l’organisme de certification belge ANPI.» Un éclairage trop intense peut en effet fausser la détection, et l’instrumentation externe du EYE y aurait été d’autant plus sensible.

Innover, c’est aussi l’occasion de justifier un prix d’achat supérieur. EYE sera vendu 49 € en version non communicante, avec une pile CR2 lui octroyant 5 ans d’autonomie. Dans la mouvance des objets connectés, une version Z-Wave (avec deux piles CR2), du nom d’un protocole utilisé en domotique, sera aussi commercialisée à 79 €. Enfin, une version Wi-Fi est prévue en fin d’année.

Frédéric Monflier

Route solaire Wattway : une innovation peut à la fois être française et inefficiente

Quand les premières tentatives de remplacement des carburants pétroliers par des biocarburants ont été effectuées, l’enthousiasme a été général. Une fleur de tournesol a même été érigée comme étendard par un parti politique. Puis les premières études indépendantes concernant leur bilan énergétique et leur bilan environnemental sont apparues. Les ONG environnementales sont alors peu à peu parvenues à freiner une dynamique industrielle dévastatrice. Le mot « biocarburant » a alors été remplacé par « agrocarburant ». Al Gore, aux USA, a déclaré regretter d’avoir encouragé dans le passé le développement de l’éthanol de maïs.

Tout ce qui est a priori « bio » et « renouvelable » n’a pas forcément un bon bilan. Pour certains agrocarburants il faut dépenser plus d’énergie pour obtenir un litre que le contenu énergétique de ce litre. Autrement dit leur EROI (taux de retour énergétique, ratio de l’énergie produite sur l’énergie consommée)  est inférieur à 1:1. L’EROI est LE paramètre-clé du développement vraiment durable. Il correspond à la durée de vie d’un système divisé par son Energy Payback Time, c’est-à-dire son temps de retour énergétique.

Il se pose aujourd’hui exactement le même problème dans le domaine du solaire avec l’innovation Wattway. Le solaire est attirant, et même éblouissant. Mais au pays de Descartes, la rationalité s’impose. Si l’EROI du grand PV au sol est aujourd’hui de 7,5 :1 d’après une synthèse de la littérature scientifique effectuée par la Fondation Nicolas Hulot dans son excellent rapport sur le solaire (2015), Wattway, dans sa conception même, pourrait fortement le dégrader (Lire à ce sujet ce dossier : Les routes solaires Wattway consomment-elles davantage d’énergie qu’elles n’en délivrent ?).

A ce stade l’EROI du système Wattway n’a pas été calculé selon l’INES, l’Institut National de l’Energie Solaire. « Une première estimation pourrait être délivrée courant de l’année 2016 » a  révélé Dr Franck Barruel, chef de laboratoire des systèmes PV et référent scientifique INES-CEA du projet Wattway, joint par téléphone. Cette étude sera-t-elle réalisée par des experts totalement indépendants ? L’ingénieur Rodolphe Morlot, coordinateur EnR de l’ADEME, indique de son côté qu’à sa connaissance « aucune analyse de cycle de vie (ACV) n’a été réalisée sur ce produit. »

« Eiffel doit se retourner dans sa tombe »

Pour Mark Jacobson, directeur du département énergie et atmosphère de l’Université Stanford en Californie « Les routes solaires en France sont beaucoup moins efficientes et beaucoup plus coûteuses que le solaire en toiture ou au niveau d’ombrières de parking, et aussi que le grand solaire PV au sol.

Image3Ce projet (de Ségolène Royal NDLR) constitue une façon très inefficiente  de dépenser des fonds peu abondant ».  Mark Jacobson n’est pas un opposant des énergies renouvelables mais au contraire le fondateur de  « The Solutions Project » : comment 139 pays (dont la France) peuvent atteindre 100 % d’énergie renouvelable, y compris transport et chauffage.

Pour Craig Morris, rédacteur en chef du magazine Renewables international basé en Allemagne mais aussi fondateur du site « The German Energiewende » sur la transition énergétique allemande, « les routes solaires doivent être stoppées ». Non sans humour, il ajoute le 29 janvier 2016 : « Apparemment il n’y a pas de toitures disponibles en France », propos dont fait écho le site australien de référence RenewEconomy.

Dans son rapport sur  le 100% renouvelable en France, l’ADEME estime pourtant à 364 GW le potentiel hexagonal du PV en toiture. Soit assez pour produire plus de 400 TWh/an, ce qui n’est pas négligeable dans un pays dont la demande électrique totale est d’environ 500 TWh/an.

Le site de référence américain CleanTechnica a diffusé une vidéo (en anglais) au contenu pédagogique et humoristique permettant de comprendre pourquoi les routes solaires constituent une impasse.  Pour Paul Gipe, analyste de l’industrie des EnR et fondateur de Wind-works.org, avec ce projet de routes solaires « Eiffel doit se retourner dans sa tombe ».

Oui à l’innovation. Non à la dilapidation des fonds publics

Pour Yannick Régnier, responsable Territoires  au sein du CLER et animateur du réseau TEPOS (territoires à énergie positive), ces routes solaires constituent « une mauvaise idée ». Raphaël Claustre, directeur du CLER, estime néanmoins que « toute forme d’innovation mérite sa chance, la recherche et le développement doivent nous aider à mettre en œuvre la transition énergétique. » Mais cet expert en solutions énergétiques vraiment durables souligne aussitôt qu’« il y a un paradoxe à s’emballer pour des projets dont la faisabilité est encore très complexe alors que la filière solaire sur toiture est techniquement mûre et a tant besoin d’être soutenue. » Raphaël Claustre lance cet appel : «  A quand un soutien au solaire sur-imposé (non intégré au bâti ndlr) sur les toitures, il coûte moins cher ? A quand un vrai travail sur les coûts du raccordement électrique, très souvent sur-évalués et qui mettent en péril les projets ? ».

L’analyse d’un ingénieur ayant une solide expérience en tant que chef de projet construction de centrales PV au sol est la suivante: « Que les centrales Wattway consomment plus d’énergie pour la fabrication que les centrales solaires traditionnelles me semble logique : encapsulage beaucoup plus conséquent pour résister aux véhicules, câblage nettement plus important, pose plus complexe. » Et l’expert ajoute : « Évidemment l’EROI doit être largement supérieur à 1 pour qu’une technologie renouvelable ait du sens. Mais dans le cas des routes solaires, ce qui va être le vrai frein, c’est le coût : à 6€/W (alors qu’en solaire au sol on est déjà autour de 0,8-1€/W), je me demande comment notre ministre de l’écologie a pu annoncer vouloir 1000 km de routes solaires d’ici 2021 ! Un tarif garanti hors appel d’offres pour les centrales au sol, de l’ordre de 8 c€/kWh seulement (avec un petit bonus de 10% pour la partie nord de la France), serait un moyen bien plus efficace, et à coût nul pour le consommateur d’électricité, pour que le solaire explose vraiment en France. ».

Bien sur tout ingénieur est favorable à l’idée de progrès, ainsi il ajoute : « je pense néanmoins que l’innovation est toujours positive, qui sait Colas ou d’autres fabricants arriveront peut être à diviser leur coûts par 5 (à l’INES la baisse envisagée est d’un facteur 2 dans le moyen-terme pour le volet CAPEX, voir 3 dans le long-terme ndlr). Et donc que cette innovation soit encouragée modérément par l’Etat (donc le contribuable…) ça serait une bonne chose. Mais pas 1000 km sans même savoir si cette technologie est pérenne, sur un produit en situation de monopole sans concurrence, avec un coût astronomique, qui au final sera toujours supporté par le citoyen. »

Pour Jean-Philippe Brette, ingénieur et membre du conseil d’administration de l’association française Sauvons Le Climat, « prix, usure, salissures, stockage, rendent cette expérimentation peu prometteuse à grande échelle. »

Une annonce à 2700 millions d’euros. « Grands travaux » ou grande gabegie ?

Le dimanche 31 janvier 2016, à 19H31, Ségolène Royal a publié sur son compte Twitter le message suivant : « La route photovoltaïque, innovation française, sera installée sur 1000 km en France. Grands travaux ». La route solaire semble a priori sexy quand on ne s’est pas penché sur les aspects techniques et financiers.

Mais le projet annoncé par Ségolène Royal, sur la base des coûts disponibles depuis le site officiels Wattway et dont la PDG de Colas a fait écho dans le journal Le Monde (14 octobre 2015), soit 6€/W, va coûter 2700 millions d’euros (130 W/m2). Ceci en espérant une largeur de route ne dépassant pas 3,5 mètres. Qui va payer ? Les contribuables français. Cela sera autant d’euros en moins de disponibles pour soutenir les autres projets EnR. Dans le cadre d’une démocratie énergétique participative, il convient de prendre le temps de la consultation et de choisir collectivement.

La centrale PV de Cestas, la plus grande d’Europe (300 MW) a coûté 360 M€ (2014), soit 1,2 €/W. Le grand solaire PV au sol coûte aujourd’hui (2016) entre 0,8 et 1€/W.  Le site Batiactu.com rapporte que cabinet Xerfi vient de publier une note où est indiqué que le MWh du grand PV est à présent entre 70 et 110 €, en fonction de l’ensoleillement du site étudié : « En comparaison, l’accord signé entre EDF et le gouvernement britannique garantit un prix d’achat de 126 €/MWh pour l’électricité produite par la future centrale EPR d’Hinkley Point » affirment les analystes.

Désir d’avenir

Le grand solaire PV est en outre parfaitement compatible avec l’élevage de moutons et l’apiculture comme l’illustre la splendide centrale agrosolaire d’Ortaffa en pays catalan.

Mais aussi avec le maraîchage dans le cadre du Solar Sharing (partager culture de plantes et capture photovoltaïque), dynamique par exemple actuellement en cours sur l’île d’Ukushima au Japon.

Par ailleurs l’entreprise française Ciel & Terre a mis au point une technologie de solaire PV flottant bon marché qui permet de limiter l’évaporation des réserves d’eau douce ainsi que la prolifération des algues vertes. Les brevets sont français.

Pourquoi ne pas faire du solaire flottant un fleuron du génie photovoltaïque français ?  Et peut-on suggérer à Ségolène Royal d’appliquer le principe de précaution en matière de solaire underground ?

Dans Les Echos (14-10-2015), le PDG de Colas envisage  « l’indépendance énergétique de la France » avec la technologie Wattway. La technologie développée par Colas intègre une capacité dégivrante, argument mis en avant dans les médias par le groupe. Or à 0 °C, la chaleur latente de fusion de la glace est de 333 kJ·kg-1. Laissons à Madame La Ministre le soin de calculer la quantité d’énergie qu’il faudrait dépenser pour faire fondre, sur les un million de kilomètres du réseau routier français, un centimètre de pluie verglaçante tombée pendant la nuit, c’est-à-dire quand les panneaux PV ne produisent pas un seul kWh.

Lutter contre l’eau glacée avec une technologie photovoltaïque au bilan énergétique douteux, est-ce vraiment une solution contre le réchauffement climatique ? D’après le site Neowin ce projet de 1000 km de routes solaires pourrait être en parti financé par une nouvelle taxe sur l’essence. Les automobilistes apprécieront.

Olivier Daniélo

Vers une sortie du charbon en Allemagne ?

« Le ministre allemand de l’Economie, Sigmar Gabriel, a repris la première de nos propositions, annonçant la mise en place d’une table-ronde en faveur d’un consensus sur la question du charbon, prévient Dimitri Pescia, du think-thank Agora Energiewende. Nos propositions sont accueillies plutôt favorablement par une grande majorité des acteurs concernés, à l’exception notoire du syndicat représentant les employés de l’industrie minière – IGBCE ».

Concrètement, Agora Energiewende invite les parties prenantes à trouver un consensus en faveur de la sortie du charbon d’ici la fin de l’année. Ce consensus devrait s’articuler autour de trois principes de base : fixer une date d’arrêt de l’utilisation du charbon, déterminer une trajectoire de sortie du charbon et adopter un cadre législatif. Le think-thank propose de fixer une trajectoire de 2018 à 2040, aboutissant à une sortie définitive du charbon à cet horizon. Les centrales les plus polluantes devraient être fermées en premier.

Prendre des mesures économiques fortes

Pour préparer au mieux cette sortie du charbon, Agora Energiewende incite le Gouvernement fédéral à geler les nouveaux projets de construction de centrales à charbon et à ne pas autoriser de nouvelles exploitations minières en Allemagne. Agora Energiewende propose dès lors la création d’une fondation « chargée de prendre en charge les coûts de la renaturation/réhabilitation des mines de lignite ». Elle serait financée par une taxe sur la production électrique du lignite à hauteur de 2,5 euros par mégawattheure. Par ailleurs, le think-thank propose la création d’un fonds fédéral « chargé d’accompagner et de financer les mesures de restructuration socio-économique dans les régions concernées », à hauteur de 250 millions d’euros chaque année.

Pour assurer cette sortie du charbon de 2018 à 2040, 20 GW de nouvelles centrales électriques au gaz devraient être nécessaires pour remplacer les centrales mises à l’arrêt. « Il faudra s’assurer que les conditions de marché permettent la réalisation de ces investissements », prévient Agora Energiewende. Par ailleurs, il faudra renforcer le système d’échange de quotas d’émissions sur le marché ETS (Emission Trading Scheme) et supprimer les « surplus de CO2 liés à la sortie du charbon ».

Cette sortie du charbon devrait entraîner une hausse du prix de l’électricité de 2-3 euros par mégawattheure. Agora Energiewende propose d’adopter des mesures de soutien pour les entreprises électro-intensives, dont la compétitivité est fortement liée au prix de l’électricité.

Par Matthieu Combe, journaliste scientifique

Enerfip : 50 000 € récoltés pour deux centrales solaires

Suite à une première récolte réussie en septembre 2015 avec 60 000 récoltés, la société Hurrisun a réitéré l’expérience pour financer deux centrales photovoltaïques en toiture situées dans le Lot et Garonne (47) et l’Aveyron (12), sur deux fermes laitières. Hurrisun est pour le moment la seule entreprise à avoir tenté l’expérience avec Enerfip, mais a réussi à atteindre rapidement les objectifs de ses deux collectes.

46 contributeurs ont investi sur son dernier projet à partir d’un montant de 100 €. La durée du prêt est de 4 ans avec un taux d’intérêt brut annuel de 4,5%. Grâce aux fonds récoltés, Hurrisun pourra installer deux toitures photovoltaïques dont l’énergie sera consommée localement par les exploitations laitières et le surplus de production injecté sur le réseau.

Enerfip, une nouvelle plateforme pour financer les ENR

Sur Enerfip, tout citoyen ou entreprise peut investir dans l’un des projets d’énergie renouvelable proposé et devenir ainsi acteur de la transition énergétique. Tout le monde est gagnant : pour l’épargnant, les projets sont rémunérés entre 4 et 6 % d’intérêts par an, un taux supérieur aux produits bancaires, et pour le porteur de projet, cela offre une source de financement alternative et complémentaire des solutions classiques. Les investissements se font sur une durée allant de 4 à 12 ans.

La sélection des projets est rigoureuse. Les projets doivent avoir un réel intérêt environnemental, être rentables pour les investisseurs avec un taux d’intérêt intéressant et présenter une viabilité technique et économique pour minimiser le risque pour les investisseurs. Enerfip a obtenu l’agrément «Conseiller en Investissements Participatifs» par l’Autorité des Marchés Financiers en avril 2015, confirmant le sérieux de la plateforme.

Par Matthieu Combe, journaliste scientifique

Total récupère son permis de Montélimar

La ministre de l’Environnement Nathalie Kosciusko-Morizet avait abrogé le permis d’exploration de Total en 2011, au motif de la loi du 13 juillet 2011 qui interdit l’utilisation de la fracturation hydraulique en France. Mais le Tribunal Administratif a décidé de rendre ce permis à Total, au motif que le rapport technique de Total ne comprend aucune mention de la fracturation hydraulique, même si le groupe reste flou sur les moyens qu’il pourrait déployer pour forer.

En clair : « La loi n’interdit que la technique de la fracturation hydraulique », une faille qui est vivement critiquée par les collectifs anti-gaz de schistes, depuis le début. José Bové et Michèle Rivasi, députés européens écologistes, appellent l’Etat à faire appel de cette décision de justice et le Gouvernement à lever les ambiguïtés de la loi du 13 juillet 2011 pour interdire l’exploration quelle que soit la technique utilisée. Par exemple, en faisant voter rapidement la proposition de loi relative au dialogue environnemental de Sabine Buis, députée PS de l’Ardèche déposée à l’Assemblée nationale. Elle propose dans son article 9 d’inscrire dans le code minier le principe de « l’interdiction de toute exploration e exploitation d’hydrocarbures liquides ou gazeux non conventionnels » et ce, « quelle que soit la technique d’extraction utilisée ».

Même si la justice a rendu son permis à Total, il ne s’agit que d’une victoire symbolique. En effet, le permis accordé en mars 2010 pour une durée de 5 ans, s’est périmé en mars 2015.

Si le groupe pétrolier décidait de s’engager dans cette exploration, il devrait demander un renouvellement de ce permis. Mi-janvier, le PDG de Total Patrick Pouyanné avait toutefois affirmé que le groupe ne passerait pas en force contre la volonté du Gouvernement, qui avait abrogé son permis. Devant l’Assemblée nationale, Ségolène Royal a fait savoir le 12 janvier qu’elle n’accorderait plus un seul permis d’exploration, conventionnel ou non, en accord avec la loi de transition énergétique qui prévoit une baisse de la consommation des énergies fossiles. Les opposants et collectifs anti-gaz de schistes appellent déjà à manifester le 28 février à Barjac (Gard).

« Nous nous félicitons de la position courageuse de Ségolène Royal qui a annoncé à l’Assemblée Nationale qu’aucun permis d’extraction ne serait accordé ou reconduit. Après l’Accord de la COP 21 à Paris, les énergies fossiles doivent rester dans le sol et la transition vers des énergies décarbonnées mises en œuvre. » rappellent José Bové et Michèle Rivasi dans un communiqué.

Par Matthieu Combe, journaliste scientifique

Challenger : 30 ans après, un cas d’école pour l’analyse des risques

challenger-téléQuand la navette Challenger explose à peine 1 minute après son décollage ce 28 janvier 1986, c’est un traumatisme vécu en direct par des millions de personnes. Pour la première fois, la Nasa, fleuron de la technologie américaine perd des astronautes en vol. Outre les larmes, c’est la consternation. Comment est-ce arrivé, qu(i) est-ce qui a failli ? Très vite, une commission d’enquête s’attache à répondre à cette question.

De l’origine technique au rôle de l’organisation

Après trois mois de recherches et d’entretiens, la commission d’enquête sur l’accident de Challenger conclut que des managers de la Nasa ont violé des règles de sécurité pour tenir les délais de lancement, ignorant les alertes concernant un joint qui va être l’origine technique de l’explosion.

Décollage de challenger

A l’époque, pour les enquêteurs c’est déjà énorme de s’apercevoir que ce n’est pas qu’un simple problème technique qui est en cause mais que c’est un dysfonctionnement humain ou organisationnel. Cependant, l’enquête officielle s’arrêtera à ces fautes humaines. Personne ne pense à se pencher plus avant sur le problème. Personne, sauf Diane Vaughan, une sociologue américaine qui va finalement passer 10 ans sur le sujet avant d’aboutir à un pavé de quelques 600 pages*. Elle y décortique les processus complexes qui ont abouti à ce drame. Son travail va poser ou conforter les bases de l’analyse d’accident technologique d’aujourd’hui : le rôle des organisations, les déviances et leur normalisation, ou encore la détection et l’analyse des « signaux faibles ».

Normalisation de la déviance et risque acceptable

Très vite dans son enquête, Diane Vaughan s’aperçoit que les managers et ingénieurs de la Nasa n’ont pas réellement enfreint de règles.

challengerx-large
Explosion de Challenger

Il n’y a donc pas faute mais seulement erreur. Mais le problème n’en est alors que plus intrigant. Comment des gens si rationnels ont été amenés à accepter de tels risques ? La sociologue va finalement comprendre qu’il faut regarder l’évolution de l’organisation depuis une dizaine d’années. Dix ans pendant lesquels, certaines anomalies comme des dommages sur les joints des boosters ont été considérées comme mineures ou sans influence sur la sécurité générale et donc finalement acceptées comme normales. Au point que plus aucune alerte les concernant ne peut aboutir à une décision de sécurité majeure. C’est ce que Diane Vaughan a désigné comme une normalisation de la déviance.

Des procédures qui cachent les signes avant-coureurs

L’autre grand paramètre qui a influencé la décision de lancer Challenger en dépit d’une alerte du sous-traitant fabricant les joints à l’origine de l’accident, c’est l’organisation de la Nasa elle-même. La sociologue américaine, au fil de son ouvrage, montre comment la culture de la Nasa est passée de celle d’un groupe d’ingénieurs menant des expériences spatiales à celle d’un organisme assujetti à des impératifs financiers et temporels liés aux contrats noués avec le secteur privé et à des budgets beaucoup plus limités. Les opérateurs techniques deviennent ainsi des bureaucrates qui doivent suivre des procédures pour toutes leurs relations en interne, en externe et pour la prise de décision. Cette codification des actes s’est appliqué aussi à l’évaluation des risques et a amené, de manière insidieuse, à ignorer ou sous-évaluer certains signes avant-coureurs, certains signaux faibles.

30 ans après, a-t-on appris de Challenger ?

Aujourd’hui encore l’étude de Diane Vaughan fait référence. Pour autant les enseignements que l’on peut en tirer sont loin d’être acquis et acceptés par tous. L’erreur humaine continue de servir de bouclier pour éviter la remise en cause profonde des organisations aussi dysfonctionnelles soient-elles. La Nasa va par exemple réitérer les mêmes travers avec Columbia en 2003. Et si des experts comme Michel Llory et René Montmayeul, dans leur ouvrage « L’accident et l’organisation » (Editions Préventique – 2010) développent cette idée du rôle central des organisations et posent les bases d’une analyse organisationnelle des accidents, il faut reconnaître que sur le terrain, cette approche est encore très timide.

La vidéo complète de l’accident de Challenger :

Sophie Hoguin

*The Challenger Launch Decision. Risky Technology, Culture, and Deviance at NASA – Diane Vaughan – University of Chicago Press – 1996

Entrer dans la tête d’une mouche pour décoder son comportement

Point de sorcellerie à tout cela ! L’équipe de neuro-scientifiques, dirigée par le professeur Gallio, ne murmure donc pas à l’oreille des mouches et ne lit pas non plus dans leurs pensées.

En revanche, ils se sont servis de la méthode inventée par le biochimiste Roger Tsien, prix Nobel de chimie en 2008, « pour la découverte et le développement de la protéine fluorescente verte, la GFP », issue de la méduse bioluminescente Aequorea victoria. Tsien fut l’un des premiers à en développer des applications. Cette protéine est depuis employée comme marqueur en biologie.

L’équipe du professeur Gallio a étudié le cerveau de la Drosophila melanogaster, aussi appelée mouche du vinaigre, bien souvent utilisée dans des expériences en génétique. Elle l’a préalablement modifiée génétiquement de sorte que les molécules transmises par les synapses de la drosophile se teintent de différentes couleurs. Cette technique a permis de détecter précisément quelles synapses s’activaient en fonction de l’action des mouches. En cas d’envol par exemple, c’est une synapse en particulier qui s’allume.

La teinte des molécules pouvant tenir jusqu’à une heure, les scientifiques bénéficient, comme ils l’appellent, d’une « fenêtre temporelle » durant laquelle ils peuvent voir « quelle synapse a été utilisée dans la communication entre deux neurones pendant une expérience comportementale ou sensorielle particulière ». La lecture de ces signaux, à la lumière des microscopes à fluorescence, donne suffisamment d’indications pour en déduire le comportement de la mouche.

L’objectif n’est pas de pénétrer l’esprit des mouches bien sûr, mais de suivre l’activité des neurones, et aussi, parvenir in fine, à mieux comprendre le comportement d’un autre animal bien plus complexe : l’être humain, dont le cerveau compte 100 milliards de neurones contre à peine 100 000 pour la mélanogaster drosophila.

Par Sébastien Tribot

Royal veut inscrire les perturbateurs endocriniens à l’agenda européen

Le Tribunal de justice de l’Union européenne a condamné Commmission européenne pour son inaction en matière de définition et d’identification de critères pour les perturbateurs endocriniens le  16 décembre 2015.  « J’ai écrit à la Présidence Néerlandaise de l’Union Européenne il y a très peu de temps pour qu’elle indique ce sujet dans ses priorités », a indiqué la ministre en ouverture du colloque. « Je veille personnellement à ce que ces sujets concernant les perturbateurs endocriniens soient inscrits dans les échéances et dans les priorités européennes », a-t-elle précisé. Notamment, Ségolène Royal cherche à faire étendre l’interdiction du bisphénol A dans les contenants alimentaires au niveau européen, alors qu’il est déjà interdit en France depuis le 1er janvier 2015. Elle souhaite également restreindre l’utilisation du bisphénol A dans les tickets de caisse.

Concernant les néonicotinoïdes, la ministre a fait savoir qu’elle appliquerait les recommandations comprises dans le rapport rendu par l’Anses le 12 janvier 2016. L’Anses y préconise notamment des mesures de restriction de l’enrobage des semences d’hiver, pour tenir compte de la possibilité de floraison tardive en cas d’automne peu rigoureux. « Ces recommandations, je vous le dis, seront appliquées », assure Ségolène Royal. Afin de limiter les effets négatifs des néonicotinoides sur les abeilles et autres pollinisateurs, le projet de loi Biodiversité prévoit un nouvel encadrement de l’utilisation de ces pesticides répondant à ces recommandations. Néanmoins, l’interdiction totale de ces pesticides n’est toujours pas à l’ordre du jour : lors du vote du projet de loi Biodiversité au Sénat, un nouvel amendement visant à interdire les néonicotinoïdes a encore été rejeté.

« Fin février, les experts européens de l’application du Règlement REACH sur l’évaluation, l’enregistrement et l’autorisation des substances chimiques seront réunis au Ministère de l’Ecologie, prévient la ministre. Je souligne d’ailleurs à cette occasion l’engagement de la France dans l’initiative REACH’UP qui a été lancée avec le Danemark, l’Autriche, la belgique, l’Allemagne, les Pays-Bas et la Norvège pour améliorer l’application du règlement REACH dans 5 domaines : d’abord dans le domaine de l’enregistrement qui constitue le cadre du règlement REACH, dans le contrôle des substances les plus préoccupantes, dans le domaine de la prise en compte des perturbateurs endocriniens, dans le domaine des nanomatériaux et dans le domaine des substances préoccupantes dans les produits importés.» La France veut ainsi être une force de propositions en Europe pour limiter l’exposition aux substances suspectées d’être des perturbateurs endocriniens.

Par Matthieu Combe, journaliste scientifique

Les océans regorgent de richesses inexploitées

Sable et graviers

Les bassins océaniques constituent le lieu de dépôt ultime des sédiments érodés de la terre, et les plages représentent les plus grands gisements résiduels de sable. Bien que les plages et les sédiments près des côtes soient extraits localement pour une utilisation dans la construction, ils sont généralement considérés comme trop précieux et les permis d’extraction vont plus généralement être accordés pour la construction d’aires de loisir.

sableNéanmoins, les anciens dépôts de sable de plage sont nombreux sur tous les continents, en particulier dans les plaines côtières, où ils sont largement exploités, pour la production de matériaux de construction, la fabrication du verre, et la préparation de silicium métallique entre autres. Les dépôts de gravier, eux, sont généralement plus hétérogènes mais sont produits de la même manière, et sont traités intensivement, souvent pour la construction.

Calcaire et le gypse

Les roches calcaires se forment dans les zones tropicales et semi-tropicales. Tous les océans existant aujourd’hui sont le résultat de la précipitation d’organismes biologiques marins morts : mollusques, coraux, plantes…

KONICA MINOLTA DIGITAL CAMERA

Le sol calcaire des océans est peu exploité. Celui des continent et îles tropicales l’est de manière importante.

Une grande partie de la pierre calcaire va être utilisée directement en coupe ou sous forme écrasée. On utilise aujourd’hui de plus en plus la forme calcinée, qui présente l’avantage de pouvoir être convertie en ciment facilement. Les gypses (sulfate de calcium hydraté), formés via l’évaporation de l’eau de mer produisent des sels d’évaporites et du calcaire. Les gisements de gypse sont exploités massivement pour la production de plâtre.

Nodules de manganèse

Les fonds océaniques contiennent de grandes quantités de nodules d’un diamètre qui va du centimètre à presque un mètre.

noduleCommunément appelés nodules de manganèse, ils contiennent en réalité plus de fer que de manganèse. Ils représentent à ce jour la plus grande source de manganèse.

Malgré l’abondance et la richesse des métaux contenus dans les nodules de manganèse (fer, manganèse, cuivre, cobalt et nickel), la rentabilité n’est pas encore au rendez-vous. Les dépôts terrestres sont largement exploités et fond de ceux situés sur le plafond océanique une ressource encore vierge.

Phosphorites

phosphoriteDes processus organiques et inorganiques complexes sont à l’origine de la formation de granulés riches en phosphate dans les environnements marins peu profonds. Ils constituent une réserve exploitable gigantesque, puisque seuls les gisements terrestres sont aujourd’hui exploités.

Traduit par S.Luc

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Diminution des récifs coralliens : quelles conséquences ?

Les plantes marines, principalement le phytoplancton, sont des producteurs qui constituent la base de la chaîne alimentaire. On prévoit une diminution progressive de la quantité de ces plantes dans les eaux plus chaudes, ce qui induira une perte des éléments nutritifs le long de la chaîne alimentaire. La température est également un élément critique dans le cycle de vie d’un grand nombre de plantes et d’animaux marins et, souvent, la nutrition, la croissance et la reproduction sont synchronisées. Ces processus étant perturbés, il y a peu de chances que les organismes trouvent les sources de nourriture dont ils ont besoin pour vivre.

L’augmentation anticipée de la température de la mer encouragera probablement la migration des organismes marins en fonction de leur tolérance à la température, les espèces les plus tolérantes migrant vers le nord et les moins tolérantes se retirant. Ce changement de la dynamique des océans aura un effet délétère sur les espèces qui ne peuvent pas migrer et pourrait causer leur disparition. L’acidification océanique ou l’augmentation des niveaux de CO2 qui résulte de la diminution du pH des océans, non seulement réduit l’abondance du phytoplancton, mais diminue aussi la calcification de certains organismes marins, comme les coraux et les coquillages, ce qui aura des conséquences sur la formation de leur squelette et entravera leur croisssance.

L’une des menaces majeures auxquelles font face les coraux est probablement le blanchissement dû à l’augmentation de la température de la surface de l’eau de mer. Ce phénomène survient lorsque l’augmentation prolongée de la température de l’eau des océans provoque une rupture du rapport symbiotique entre les coraux et les algues, appelé zooxanthellae. Le corail rejette les algues, perd sa couleur (blanchissement) et s’affaiblit. Certains coraux peuvent survivre, souvent avec des systèmes immunitaires affaiblis mais, dans de nombreux cas, meurent.

Facteurs d’agression anthropiques

Le vrai problème réside dans le fait que les modifications induites par les effets du changement climatique augmentent la pression sur un environnement marin déjà mis à l’épreuve par les facteurs d’agression anthropiques directs et indirects associés à la surpêche et aux pratiques inadéquates de la pêche, à l’aménagement du littoral, à la sédimentation, aux pollutions dues aux sources terrestres et à la pollution marine. Cette convergence de facteurs d’agression multiples fait subir une pression considérable aux coraux. On estime qu’environ un tiers des coraux constructeurs de récifs est en voie de disparition. Dans le monde entier, la couverture corallienne a baissé de manière importante. Toutefois, la communauté scientifique estime que ce déclin a commencé avant la réalisation d’études scientifiques détaillées. En raison de l’accès difficile des récifs coralliens, les études à leur sujet sont assez récentes par rapport aux autres disciplines. Elles remontent à une cinquantaine d’années, mais même au cours de cette courte période, un déclin important a été observé. Pendant les années 1980 et 1990, la diminution de la couverture corallienne a été encore accentuée par la perte des herbivores qui se nourrissent d’algues (les oursins et les poissons herbivores) ainsi que par le blanchissement et les maladies des coraux. Ce déclin n’a jamais été aussi prononcé que dans les Caraïbes, qui illustrent la mort des récifs coralliens. Les données évaluées depuis les années 1960 ont montré de manière concluante la diminution progressive de la couverture corallienne et la prolifération d’algues qui étouffent les coraux.

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html

L’impact économique et sociologique de l’exploitation des océans

Dans le document final de Rio +20 « L’avenir que nous voulons», l’attention a été attirée sur les océans et les mers. Toutefois, ceux-ci ayant été à peine mentionnés dans les objectifs du Millénaire pour le développement (OMD), lorsque les travaux du GTO (groupe de travail ouvert) ont débuté en 2013, une mobilisation plus forte des États Membres et de la société civile a été nécessaire pour mettre en évidence le rôle central des océans dans le développement durable.

rioCertains considéraient les océans et les mers principalement comme une question environnementale, n’étant pas pleinement conscients de leur importance économique et sociale. Durant l’été 2013, sous l’impulsion des États Membres, avec à leur tête les petits États insulaires en développement du Pacifique et Timor-Leste, et avec le soutien de la société civile, y compris par le Forum mondial sur les océans, il a été établi qu’il était nécessaire de définir un objectif lié aux océans pour assurer la survie de la planète et le bien-être économique et social à l’échelle mondiale et nationale. L’engagement de la société civile sollicité par les co-présidents du GTO des Nations Unies, qui ont mis en place un vrai processus ouvert, a contribué à l’adoption de l’ODD 14 qui a été soutenu par un grand nombre et une grande variété de pays – pays en développement et pays développés, pays côtiers et enclavés, petites îles et pays continentaux.

L’ensemble des questions liées aux océans et aux mers abordées dans l’ODD 14 « Conserver et exploiter de manière durable les océans, les mers et les ressources marines aux fins du développement durable », avec ses sept cibles et ses trois dispositions sur les moyens de mise en œuvre, est très important. L’objectif, ses cibles et les moyens de mise en œuvre renforcent de manière ciblée et avec une urgence accrue les prescriptions internationales issues de la Conférence des Nations Unies sur l’environnement et le développement, le Sommet mondial pour le développement durable de 2002, la Conférence des Nations Unies de 2012 sur le développement durable (Rio +20) et la Convention des Nations Unies sur le droit de la mer, qui sont entrées en vigueur en 1994.

On retiendra la cible 14.7 « D’ici à 2030, augmenter, pour les petits États insulaires en développement (PIED) et les pays les moins avancés (PMA), les avantages économiques découlant de l’utilisation durable des ressources marines, notamment à travers la gestion durable de la pêche, de l’aquaculture et du tourisme ». Cette question, qui aurait dû être traitée depuis très longtemps, conduira à modifier profondément les décisions portant sur la gestion des océans afin de souligner leurs impacts économiques et sociaux.

Certaines dispositions de l’ODD 14 pourraient être mieux formulées, mais je pense que l’ensemble est tout à fait satisfaisant et pourrait être adopté, pratiquement comme tel, par l’Assemblée générale des Nations Unies. Un point important, le cas échéant, serait l’ajout d’une disposition pour renforcer la gouvernance des océans comme, par exemple, l’amélioration des processus décisionnels concernant la gestion des océans et des zones côtières, notamment par la promulgation de lois relatives aux océans et aux zones côtières et par le renforcement des capacités.

D’autres ODD proposés sont également liés à ces questions et peuvent contribuer à la réalisation de l’ODD 14 sur les océans et les mers, notamment :

  • l’ODD 1 (sur la pauvreté),
  • l’ODD 2 (sur la sécurité alimentaire),
  • l’ODD 6 (sur l’eau et l’assainissement),
  • l’ODD 7 (sur l’énergie),
  • l’ODD 8 (sur la croissance économique),
  • l’ODD 9 (sur l’infrastructure),
  • l’ODD 10 (sur la réduction des inégalités),
  • l’ODD 11 (sur les villes et les établissements humains),
  • l’ODD 12 (sur la consommation et la production durables),
  • l’ODD 13 (sur les changements climatiques),
  • l’ODD 15 (sur la biodiversité) et
  • l’ODD 17 (sur les moyens de mise en œuvre et les partenariats).

C’est exactement l’objectif de la proposition du GTO, tel qu’il est noté dans l’introduction au document : « Ces objectifs constituent un ensemble intégré, indivisible de priorités mondiales en vue du développement durable […] Ces objectifs et cibles intègrent les dimensions économiques, sociales et environnementales, en reconnaissant leur interdépendance pour atteindre le développement durable sous tous ses aspects1. »

Les négociations intergouvernementales sur le programme de développement pour l’après-2015 se poursuivront jusqu’en août 2015 lorsque les révisions et les changements auront lieu. L’adoption des objectifs, des cibles et des moyens de mise en œuvre qui influenceront profondément toutes les questions liées au développement durable aura lieu lors du Sommet des Nations Unies consacré au programme de développement pour l’après-2015 en septembre 2015. Il est donc important pour les États Membres et la société civile de continuer à exprimer leur soutien aux ODD, en particulier à l’ODD 14 sur les océans et les mers, et de commencer à planifier leur mise en œuvre.

Elizabeth Thompson, Co-Executive Coordinator de la conférence RIO+20

Source : Extrait du Rapport du Groupe de travail ouvert de l’Assemblée générale sur les objectifs de développement durable, 12 août 2014 (A/68/970), UN Chronicles

Diminution des récifs coralliens : les solutions

L’adaptation implique des efforts de recherche et de conservation au niveau local afin de renforcer la résistance des écosystèmes par des activités comme la restauration des récifs, l’identification d’espèces plus résistantes, la réduction de la surpêche et la création de zones marines protégées.

Ces zones sont considérées être le meilleur outil de gestion pour la conservation des récifs coralliens et des autres environnements marins car, étant interdites à la pêche, elles offrent un habitat sûr aux espèces marines pour se développer, se reproduire librement et reconstituer l’environnement marin avoisinant.

L’adaptation, toutefois, ne suffit pas. Une action mondiale est nécessaire pour atténuer les effets du changement climatique en réduisant les émissions, en améliorant l’efficacité énergétique, en limitant la déforestation et en augmentant les puits de carbone. À ce stade, les mesures d’atténuation ne sont censées qu’arrêter le réchauffement, car l’impact du changement climatique semble irréversible.

Le pronostic

Partout dans le monde, les scientifiques spécialisés dans les récifs coralliens s’accordent pour dire que l’environnement marin en général et les récifs coralliens en particulier subissent les effets du changement climatique. La plupart d’entre eux estiment que le rythme du changement climatique pourrait détruire leur capacité à s’adapter et à se régénérer.

La situation dans les Caraïbes est plus préoccupante que dans la région Pacifique-Asie. Les études semblent indiquer que les populations d’oursins moins nombreuses permettent aux algues de proliférer au détriment des coraux. Une solution possible est de maintenir une population de poissons-perroquets saine pour contrôler la croissance des algues. Malgré les études réalisées, la capacité des coraux de s’adapter aux eaux plus chaudes n’a pas été établie pour de nombreuses espèces.

Toutefois, les scientifiques ont noté que dans certaines régions, en particulier les régions du Pacifique où les récifs sont éloignés des activités humaines, ceux-ci ont prouvé leur capacité à résister à l’augmentation de la température de l’eau de mer en surface et au blanchissement.

Étant donné les preuves indiquant la disparition presque inévitable des récifs coralliens, il est urgent que les spécialistes des sciences de la mer prennent les devants pour maîtriser la situation et mobilisent le public et les communautés menacées sur la réalité de la menace.

Cet engagement est essentiel si nous voulons que les attitudes et les comportements changent vraiment. Les connaissances scientifiques doivent donner lieu à des solutions pratiques qui susciteront le soutien du public. À une plus grande échelle, une collaboration est nécessaire entre les gouvernements et les communautés concernées afin de formuler et de mettre en œuvre des politiques axées sur la viabilité à long terme.

Menons-nous une bataille perdue d’avance ?

Il est fort possible que le changement climatique ait dépassé le point de non-retour. Ce qui est certain, c’est que toute solution au problème du changement climatique est aussi une solution à la régénération des récifs coralliens.

Par MARCIA CREARY, Environmental Data Manager

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html