Redémarrage d’un réacteur de Flamanville après un arrêt inopiné

L’unité de production numéro deux a été redémarrée lundi à 9H00 avant d’être recouplée au réseau à 18h00, a indiqué le service de presse de la centrale qui n’avait pas souhaité communiquer lundi soir.

Le réacteur s’était arrêté inopinément dans la nuit de samedi à dimanche à 0h48. Les réacteurs s’arrêtent automatiquement lorsqu’est détecté un dysfonctionnement pouvant avoir des conséquences en termes de sûreté.

EDF communiquera dans la journée sur les raisons de cet arrêt, a indiqué le service de presse.

Il s’agit du troisième arrêt inopiné d’un ou plusieurs réacteurs à la centrale de Flamanville depuis le début de l’année.

Début février, les deux réacteurs de la centrale s’étaient automatiquement arrêtés après un coup de foudre sur une ligne à très haute tension les reliant au réseau. Le réacteur 2 avait pu redémarrer le lendemain mais le réacteur 1 n’avait redémarré que le 5 avril après une réparation et un arrêt de maintenance, prévu au départ en avril, et finalement avancé de quelques semaines.

Et au début de l’été, le réacteur 1 a été à l’arrêt pendant 10 jours à la suite d’une panne.

Le réacteur 2 a par ailleurs été arrêté de façon volontaire pour les opérations habituelles de maintenance durant l’été.

En janvier, lors de la présentation annuelle de ses résultats, la centrale avait souligné n’avoir « enregistré aucun arrêt automatique de réacteur depuis plus de quatre années consécutives ».

La centrale de Flamanville a produit en 2013 environ 4,5% de l’énergie nucléaire française. Un troisième réacteur y est en construction.

clc/bar/jag

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La Russie veut vendre quelques millions de tonnes de charbon à la Chine

Ces rejets proviennent à la fois de la combustion intensive des énergies fossiles, constituées essentiellement de charbon local ou importé, et de la production de ciment nécessaire à l’urbanisation, ce qui représente pas loin de 10% de ses émissions industrielles (0,9 milliard de tonne de CO2 par rapport à des émissions industrielles chinoises totales de 10,8 milliards de tonnes selon le néerlandais PBL).

Devant les difficultés que rencontre la Chine pour s’approvisionner en charbon peu onéreux, sa voisine russe,  par l’intermédiaire de la Société Rostec, vient de conclure un accord avec elle, pour vendre au chinois Shenhua dans les 20 millions de tonnes de charbon par an à partir de 2019, pour une durées estimée à 50 ans. Ces ressources seront extraites de gisements de la région Amour et seront transportées par rail vers un nouveau port vraquier qui doit être construit dans la région de Vladivostok pour assurer une navette maritime entre ce port et ceux de la Chine.

Je voudrais souligner ici, combien cet accord, certes marginal par rapport aux immenses quantités de charbon consumées chaque année par la Chine, illustre le dédain affiché par certaines nations devant les problèmes d’émissions de CO2 dans l’atmosphère terrestre. Cette attitude volontairement désinvolte montre combien les efforts déployés par certains pour limiter ces émissions mondiales sont illusoires, même si ces efforts, économiquement pénalisants, sont encore politiquement bien acceptés par les populations locales.

Rappelons que la France, nation exemplaire dans les rejets de CO2, présentait en 2012 une intensité d’émissions de gaz carbonique de 184 mille tonnes par milliard d’euros de PIB créés (374 millions de tonnes pour un PIB 2012 de 2031 milliards d’euros), soit autour des 142 mille tonnes de CO2 par milliard de dollars. La France d’après les calculs de PwC présentait en 2011 une intensité d’émissions de CO2 par milliard de dollars de PIB, cinq fois inférieure à celle de la Chine qui devrait, de toute évidence, s’inspirer de cet exemple plutôt que d’acheter encore et encore du charbon.

Mais quel homme politique, aujourd’hui dans le monde, aurait le courage de rappeler cette évidence aux dirigeants chinois?

Par Raymond Bonnaterre

La traque des astéroïdes dangereux par la Nasa insuffisante et en retard (rapport)

En 2005, le Congrès américain avait chargé la Nasa d’intensifier le programme « Near-Earth Objects » (NEO) pour détecter des astéroïdes de 140 mètres de diamètre et davantage présentant un risque pour notre planète. Elle devait en recenser 90% d’ici 2020, rappelle ce document.

La Nasa a reconnu en avoir recensé plus de 11.000 depuis 1998, soit 10% du total estimé. Le rapport conclut que l’agence spatiale ne sera pas en mesure de remplir l’objectif des 90% d’ici 2020.

Le rapport déplore également le manque de structure du programme, caractérisé par une « supervision insuffisante et une absence de critères établis pour mesurer les progrès accomplis ».

Sur le budget annuel de 40 millions de dollars octroyé au programme NEO en 2014, environ un million de dollars seulement, soit 7% du total, a été consacré à des stratégies de défense, selon l’inspecteur général.

Cela va de mesures de protection civile comme l’évacuation de populations aux tentatives de destruction ou de déviation d’un astéroïde menaçant.

Bien que la vaste majorité de ces objets célestes qui entrent dans cette catégorie de taille se désintègrent dans l’atmosphère avant d’atteindre le sol, certains peuvent résister et provoquer d’importants dégâts.

Le rapport cite le cas de la météorite de 18 mètres de diamètre que personne n’avait vue venir et qui a explosé en février 2013 à 23.000 mètres au-dessus de Tcheliabinsk, en Russie, avec une puissance équivalente à 30 bombes atomiques, soufflant les vitres des habitations, endommageant des immeubles et blessant plus d’un millier de personnes.

Enfin, les services de l’inspecteur général estiment qu’un manque de planification et de ressources a empêché la Nasa d’établir plus de partenariats avec des organisations de recherche qui auraient pu aider l’agence à remplir ses objectifs. La Nasa n’a en effet établi que deux partenariats.

Ainsi, des partenariats avec le département de la Défense, la Fondation américaine des Sciences (NSF) ou des agences internationales pourraient donner au programme NEO un accès à un plus grand nombre de télescopes, ce qui accroîtrait ses capacités à détecter, traquer et décrire un plus grand nombre de ces astéroïdes dont l’orbite croise près de celle de la Terre.

Déjà en 2010, un rapport du National Reseach Council (NRC), branche de l’Académie des Sciences, estimait que la Nasa, faute de budget conséquent, ne pourrait pas atteindre l’objectif de traquer 90% des astéroïdes d’au moins 140 mètres de diamètre d’ici 2020.

Le NRC recommandait également que la Nasa surveille les astéroïdes de 30 à 50 mètres de diamètre et préconisait que les Etats-Unis supervisent la création d’une entité internationale pour répondre au danger présenté par ces objets.

La Nasa a déjà répertorié environ 95% de tous les astéroïdes et objets d’au moins un kilomètre de diamètre.

Selon la dernière estimation de l’agence spatiale en juillet 2014, il y a 11.230 astéroïdes dont l’orbite passe près de celle de la Terre dont 862 ont un kilomètre de diamètre ou plus, précise le rapport de l’inspecteur général.

La Nasa a déterminé que 1.492 de ces objets sont potentiellement dangereux avec des orbites croisant à moins de 7,4 millions de kilomètres de l’orbite terrestre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

EIA : la demande mondiale en produits pétroliers d’ici à 2040 va être soutenue par celle des pays NON-OCDE

Alors qu’aujourd’hui ces consommations entre pays de l’OCDE et pays NON-OCDE se répartissent en deux parts sensiblement égales autour des 45millions de barils/jour, l’EIA, d’ici à 2040, prévoit une stagnation des consommations des pays OCDE (les gains d’efficacité énergétique compenseront l’accroissement de l’activité économique des Nations) mais aussi une forte expansion des consommations des pays NON-OCDE (voir figure.1)

 

 

Figure.1

 

Cette croissance prévue des consommations de pétrole au sein des pays NON-OCDE (Figure.2) toucherait essentiellement la Chine, l’Asie en général et les pays du Moyen-Orient pour atteindre vers 2040 autour des 75 millions de barils par jour, soit un accroissement du flux des consommations de l’ordre de 30 millions de barils/jour en 26 ans. On retrouve dans ces données l’accroissement annuel estimé des consommations mondiales de pétrole qui sont annoncées à ce jour autour du million de barils par jour, bien sûr en identifiant les ressources en vis-à-vis, et ceci en l’absence de crise économique mondiale majeure ou de bouleversement important des prix à venir du baril de pétrole.

Figure.2

 

Ces données, provenant d’une équipe de spécialistes aux compétences reconnues dans le domaine, nous indiquent que l’ère de la domination mondiale énergétique du pétrole a encore quelques belles décennies devant elle, avant d’aborder une phase inéluctable de pénurie qui se régulera par les prix et l’arrivée de ressources compétitives de substitution (Biocarburants, produits de synthèse à partir de charbon ou de gaz naturel) qui pour l’instant demeurent encore marginales (voir Figure.3)

Figure.3

 

Les productions mondiales de biocarburants et de produits pétroliers de synthèse passeraient, dans le schéma médian de l’EIA, de 1,6 million de barils/jour en 2010 à 4,6 millions de barils par jour en 2040, ce qui me semble peu. Bien entendu, les prix des produits pétroliers seront déterminants dans la vitesse de la course vers les produits de substitution et la rentabilité des opérations.

Par Raymond Bonnaterre

Livre blanc – Google : les 10 projets les plus incroyables

  • Et si l’on mesurait le taux de sucre non plus dans le sang mais dans les larmes ? Une hypothèse en laquelle croit Babak Parviz, spécialiste des bionanotechnologies et de l’optique, qui a même déjà mis au point plusieurs prototypes.

Mais aussi :

  • Google serait-il devenu accro aux robots ? C’est ce qu’on pourrait croire avec cette huitième acquisition d’une société spécialisée dans la robotique. Dernière en date, Boston Dynamics travaille étroitement avec le gouvernement américain pour fabriquer des robots-animaux capables d’évoluer sur des terrains inaccessibles à l’homme.
  •  Ce n’était qu’une question de temps pour que les « Google Glass » parviennent à se faufiler dans un bloc opératoire afin de permettre la retransmission en direct d’une opération, et c’est maintenant chose faite : un chirurgien américain de l’université d’Ohio State a retransmis en live via les Google Glass qu’il avait sur le nez, une opération du genou qu’il a réalisée la semaine dernière.
  • Quel est l’intérêt du tatouage connecté ? Tout d’abord, il s’agit d’un kit mains libres amélioré qui permet donc de téléphoner sans coller son téléphone à l’oreille. Mais surtout, il devrait permettre d’améliorer les communications.
  • Le géant américain vient d’acheter un dixième parc éolien, confirmant sa volonté de s’appuyer sur l’énergie verte.

 

Voitures électrique: les Français ont un a priori favorable, mais manquent d’informations (étude)

Cette enquête a été réalisée pour l’Association nationale pour le développement de la mobilité électrique (Avere) et le groupe Mobivia – Norauto, Auto 5, Midas, Carter-Cash, Synchro Diffusion, Oxyo-pneus.fr et Bythjul.com – auprès d’un échantillon représentatif de 1.005 personnes, du 22 au 29 août.

Ce sondage révèle que la voiture électrique est, pour 93% des sondés, innovante, pour 92%, respectueuse de l’environnement, mais aussi, pour 81%, économique et agréable à conduire.

Néanmoins, souligne le communiqué de l’Avere et de Mobivia, « de nombreux freins perdurent, qui nuisent à la concrétisation en acte d’achat et proviennent d’un sentiment d’information encore très insuffisant ».

Ainsi, le « premier obstacle qui continue d’être évoqué par les Français (est) l’autonomie +restreinte+ de ces véhicules », mise en avant par 64% d’entre eux.

« 44% des Français déclarent qu’ils porteraient plus d’intérêt à la voiture électrique si son autonomie était supérieure à 250 kilomètres par jour », selon cette étude, qui note néanmoins qu' »en France, la distance moyenne parcourue quotidiennement est 31 kilomètres et les voitures passent 80% de leur temps stationnées ».

51% des personnes interrogées évoquent également le manque de stations de recharge.

Quant au prix d’une voiture électrique, 71% des sondés ne le connaissent pas, et 83% disent être mal informés des aides de l’Etat pour une telle acquisition. Par ailleurs, le fait qu' »il en coûte 2 euros pour effectuer 100 kilomètres en voiture électrique et 9,10 euros avec une voiture roulant à l’essence sans plomb », est ignoré de 80% des sondés.

Parmi les 12% ayant déjà essayé une voiture électrique, comme conducteur ou comme passager, 70% les trouvent sécurisantes, 72% les jugent fiables et 65% louent leur côté pratique.

La France est le deuxième marché de véhicules électriques en Europe, avec 5.415 immatriculations depuis le début de l’année, selon l’Avere et Mobivia.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Des chercheurs mettent au point une cure magnétique pour nettoyer le sang

L’appareil qui imite la rate n’a pour l’instant été testé que chez les rats et pas chez l’homme.

Il utilise des billes magnétiques nanoscopiques (moins d’un millième de millimètre ) recouvertes d’une protéine sanguine humaine conçue génétiquement, appelée MBL.

La protéine MBL se lie aux agents pathogènes et aux toxines, qui peuvent alors être « extraits » du sang grâce aux nanobilles magnétiques qui se comportent comme de minuscules aimants.

Une fois nettoyé, le sang est réintroduit sans que sa composition ou sa coagulation soient modifiées.

L’invention mise au point par des chercheurs américains est destinée à traiter les infections du sang qui touchent 18 millions de personnes dans le monde chaque année avec un pourcentage de décès de 30 à 50%.

Les microbes qui en sont la cause sont souvent résistants aux antibiotiques.

Si l’appareil s’avère aussi efficace et sûr chez l’homme, il pourrait permettre « de nettoyer physiquement le sang en enlevant une grande variété d’agents pathogènes ou de toxines », a indiqué à l’AFP Donald Ingber l’un des auteurs de l’étude publiée dans la revue Nature Medicine.

Il ajoute que le traitement pourrait être mené « avant même que l’agent pathogène n’ait été formellement identifié et que le traitement antibiotique optimal ait été choisi ».

Il n’exclut pas que le traitement puisse un jour « être utile » dans le traitement de malades atteints d’Ebola dans la mesure ou la protéine MBL passe pour être capable de se lier avec le virus à l’origine de cette fièvre hémorragique.

La protéine pourrait également se lier au VIH, le virus du sida, et au virus de Marburg, à l’origine d’une autre fièvre hémorragique, très similaire à Ebola.

Lors de leur expérience, les chercheurs ont infecté les rats avec deux bactéries – le staphylocoque doré et Escherichia coli – et ont réussi à retirer 90% des bactéries de leur sang grâce à leur invention .

Ils ajoutent que lorsqu’ils ont injecté « une dose létale » d’endotoxine (une toxine située dans la membrane externe de certains bactéries), ils ont également réussi à améliorer « de façon significative » la survie des animaux.

Mais M. Ingber reconnaît qu’il faudra encore des années d’expérimentation chez des animaux plus gros et chez l’être humain avant qu’il puisse être approuvé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

MiXie, un outil pour déterminer l’existence d’un potentiel additif ou non des substances

La protection des personnes travaillant dans des environnements contaminés par des substances chimiques toxiques passe par la maîtrise du danger. Pour cela, il est essentiel de caractériser cette dangerosité. Or, si la toxicité de chaque substance est assez bien connue, l’interaction qui peut exister entre plusieurs substances doit aussi être prise en compte. Le logiciel MiXie France indique justement les éventuels effets additifs.

Les 118 substances présentes dans sa base de données sont répertoriées suivant 32 classes d’effets nocifs, comme une atteinte hépatique, l’érosion dentaire, des troubles de la coagulation sanguine ou encore des effets tératogènes. 

Grâce à cet outil, il suffit de renseigner les substances présentes dans l’environnement et d’en préciser les quantités. MiXie permet de traiter jusqu’à  7 substances simultanément et d’indiquer les interactions sur la base des notions d’additivité mais aussi des phénomènes d’infra-additivité et de supra-addivité. 

Un travailleur qui atteint 60% d’une valeur limite d’exposition professionnelle (VLEP) pour une substance et 50%  pour une autre qui appartient à a même classe d’effets se situe en réalité à 110%.

MiXie permet d’identifier des situations dangereuses qui ne l’auraient pas été sans tenir compte des effets additifs. 

Cette version française est inspirée d’un outil canadien lui-même élaboré par l’Université de Montréal et l’Institut de recherche Robert-Sauvé en santé et en sécurité du travail (IRSST). MiXie France repose sur les VLEP françaises en vigueur en 2014.

Par Audrey Loubens

Un dérivé du sucre met en danger le bon cholestérol

Une étude financée par la British Heart Fundation, indique que le méthylglyoxal, un composé chimique qui se forme lors de la décomposition du sucre dans l’organisme, agit sur le bon cholestérol et le transforme en mauvais cholestérol.

L’excès de mauvais cholestérol dans le sang est en effet un facteur majeur de risque de maladies des artères qui irriguent le cœur. Ces maladies peuvent provoquer des crises cardiaques ou des accidents vasculaires cérébraux, deux des principales causes de décès en Europe. Chaque année, environ quatre millions d’Européens meurent des suites de maladies cardiovasculaires, selon le Réseau européen du cœur. 

Le risque de maladies cardiovasculaires augmenté de 10 %

Lors de la décomposition du sucre dans l’organisme, le méthylglyoxal endommage le bon cholestérol, selon l’étude publiée dans le journal Nutrition and Diabetes. Ce dernier est alors éliminé du sang, ou reste dans le plasma après avoir perdu ses propriétés bénéfiques contre les maladies cardiovasculaires. Présent en trop petite quantité dans le corps, il n’est alors plus capable d’aider à supprimer les trop forts taux de mauvais cholestérol de l’organisme.

En temps normal, l’organisme élimine le méthylglyoxal assez rapidement. Mais si le corps ne parvient pas à le transformer suffisamment, son accumulation peut engendrer des maladies rénales, cardiaques ou encore le diabète et l’obésité.

Les personnes âgées et les patients souffrant de diabète ou de problèmes rénaux sont souvent concernés par des taux élevés de méthylglyoxal. Ainsi, selon les conclusions de l’étude, la dégradation du bon cholestérol par le composé chimique contribuerait à augmenter les risques de maladies cardiovasculaires de 10 %, selon le Dr. Naila Rabbani qui a dirigé l’étude.

Une protéine agit contre le méthylglyoxal

A l’heure actuelle, il n’existe pas de médicament capable de jouer sur les faibles niveaux de bon cholestérol. Pour les chercheurs de l’université de Warwick, cette découverte va donc ouvrir de nouvelles perspectives à la recherche pour développer de nouveaux traitements capables d’agir sur les taux de bon cholestérol dans l’organisme.

Grâce à cette étude, les chercheurs ont pu mettre en évidence qu’une protéine appelée glyoxalase-1 est capable d’inverser le processus de dégradation du bon cholestérol. La protéine permet ainsi de contrôler naturellement le méthylglyoxal.

Cependant, l’âge a tendance à inverser les niveaux de méthylglyoxal et de glyoxalase-1. Les chercheurs de l’université de Warwick veulent à présent développer de nouveaux traitements pour agir sur le taux de méthylglyoxal présent dans le sang.

Sanofi développe un nouveau traitement anti-cholestérol

De leur côté, le laboratoire Sanofi (qui est un des sponsors d’EurActiv) et son partenaire Regeneron ont présenté fin août les résultats de quatre études sur un de leur nouveau médicament contre le Cholestérol, l’alirocumab. Selon les résultats, au bout d’un semestre, ce traitement a permis de réduire de 62 % du taux de mauvais cholestérol dans l’organisme par rapport à d’autres patients traités par placebo.

L’alirocumab permet de bloquer l’action de l’enzyme PCSK9, qui empêche l’organisme de dégrader le mauvais cholestérol dans le sang. Ainsi il réduirait drastiquement les risques cardiovasculaires chez les patients. D’ici la fin de l’année, les deux laboratoires devraient ainsi faire une demande de commercialisation.

Source : Euractiv

Reach/CLP : toute l’actualité de septembre (1/2)

Identification de substances extrêmement préoccupantes (SVHC)

01/09/2014

L’ECHA a lancé une consultation publique l’inclusion dix nouvelles substances dans la liste des substances SVHC. Les parties intéressées sont invitées à soumettre leurs commentaires avant le 16 octobre 2014.

Projet de recommandation de nouvelles substances sur la liste d’autorisation

01/09/2014

L’ECHA a lancé une consultation publique sur son projet de recommandation de nouvelles substances à inclure dans la liste d’autorisation. Les commentaires sont à soumettre avant le 30 Novembre 2014.

Les substances concernées sont : 

  • 2 substances obtenues à partir du goudron de houille
  • 7 substances de plomb
  • 4 substances de bore
  • 7 phtalates
  • 4-nonylphénol
  • 1-bromopropane

En parallèle, l’ECHA facilite un appel de la Commission européenne sur les possibles conséquences socio-économiques de l’inscription de ces substances à l’annexe XIV.

Nouvel outil ePIC

02/09/2014

Le nouvel outil ePIC remplacera l’outil de la Commission européenne EDEXIM, qui est actuellement utilisé pour les opérations dans le cadre du règlement PIC (Importation et exportation de produits chimiques dangereux)). ePIC aidera les exportateurs, importateurs, les États membres, la Commission européenne, les douanes et l’ECHA dans la gestion de l’exportation et l’importation de produits chimiques très dangereux.

Nouvelle proposition de classification et d’étiquetage harmonisé

09/09/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances : 2-methyl-1-(4-methylthiophenyl)-2-morpholinopropan-1-one (N° CAS : 71868-10-5, N° CE : 400-600-6) et clorofene; chlorophene; clorophene; 2-benzyl-4-chlorophenol (N° CAS : 120-32-1, N° CE : 204-385-8).

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 24 octobre 2014.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :

Incertitudes autour du paquet énergie-climat 2030

Des doutes subsistent quant aux réelles intentions de l’UE en matière de politique énergétique et de lutte contre le changement climatique. Selon un document consulté par EurActiv, le Conseil défendrait un objectif contraignant de 30 % d’efficacité énergétique, soit plus que ce que proposait initialement la Commission.

Outre la réduction de leur consommation d’énergie d’ici 2030, les États membres devraient également diminuer leurs émissions de gaz à effet de serre de 40 % et augmenter la part d’énergies renouvelables de 30 % par rapport aux niveaux de 1990.

Ces objectifs sont plus ambitieux que les propositions officielles précédentes présentées par la Commission au cours de l’été. L’exécutif avait en effet suggéré deux objectifs contraignants de 40 % pour les gaz à effet de serre et de 27 % pour les énergies renouvelables. L’ambition de 30 % d’efficacité énergétique est également sur la table, mais c’est le Conseil qui devra trancher la question en octobre.

Mais une autre proposition, moins ambitieuse, circule également. Elle s’appuie probablement sur une note d’information préparée par le secrétariat général de la Commission qui a récolté les commentaires des représentants permanents.

Les chiffres sont similaires à ceux de la Commission, à une différence près : l’objectif en matière d’efficacité énergétique, réduit à 27 %, est « indicatif » plutôt que contraignant.

Retour à janvier 2014

Autrement dit, la Commission reviendrait presque aux propositions qu’elle a avancées en janvier 2014 : 40 %, 27 % et 25 %.

« Dans les tous cas, ces fuites prouvent un sérieux manque d’ambition », indique Adrian Joyce, secrétaire général de l’Alliance européenne des entreprises pour l’efficacité énergétique dans les bâtiments (EuroACE). Il explique à EurActiv que « quand il s’agit d’un objectif global en matière d’efficacité énergétique, un seuil de minimum 35 % commencerait à devenir satisfaisant. Un objectif de 40 % aurait par conséquent un bon rapport coût-efficacité. »

Pour sa part, l’Association européenne de l’énergie éolienne affirme qu’une part de 27 % en énergies renouvelables ne suffirait pas : « 30 % serait le minimum. Un objectif de 27 % représenterait un « scénario de statu quo », qui augmenterait les coûts pour atteindre la feuille de route à l’horizon et qui risque d’augmenter l’utilisation à long terme des énergies fossiles ».

L’organisation écologiste les Amis de la Terre Europe indique :« Ces propositions déstabilisent le paquet climat. On dirait que la Commission s’oriente vers une ambition modeste afin d’obtenir un accord au sein du Conseil. »

Les ministres de l’Énergie et de l’Environnement examineront ces options lors d’une réunion informelle des 5 et 6 octobre, alors que les chefs d’État devraient émettre leurs conclusions le 23 octobre.

5 conseils pour optimiser vos recherches sous Google

Effectuer une requête sous Google n’est pas toujours simple. Pourtant, quelques Tout le monde utilise Google ou presque puisque nous sommes 65.2% à choisir Google , qui comptabilise 114,7 milliards de requêtes  (chiffres datant de décembre 2012).

Si sa qualité est régulièrement remise en cause, Google reste de loin le moteur de recherche le plus utilisé.

Alors autant savoir s’en servir.

  • Pensez aux opérateurs de recherche

Pour chercher une définition, utilisez l’opérateur define.

Par exemple en tapant : define : ingenieur

Chercher des sites proches d’un autre : utilisez l’opérateur related.

Par exemple en tapant related : techniques-ingenieur.fr

Effectuer une recherche directement dans un site, en précédant vos mots clés de l’opérateur site.

Par exemple en tapant : Voiture électrique Site : techniques-ingenieur.fr

  • Utiliser une image plutôt que du texte pour lancer une recherche

Chercher des images similaires à vos propres clichés : allez dans Google Images. Un appareil photo apparait à l’extrémité droite de la barre de recherche. Vous pouvez y faire glisser une de vos images. Google va l’analyser et vous proposer des images en lien avec la votre.

  • Recherche artistiques

Retrouver toutes les œuvres d’un même artiste : il vous suffit de taper le type d’œuvre cherchée, cela peut être une chanson, un tableau, un texte… Puis d’y accoler le nom de l’auteur.  Cela fait apparaitre une galerie de visuels listant ces œuvres.  

Par exemple : film cronenberg

  • Exclure des résultats

Il est possible de lancer une recherche tout en excluant préalablement certains résultats selon des mots clés bannis. Pour cela il suffit d’utiliser le symbole « – » devant les mots qui ne nous intéressent pas.

Par exemple : matériaux innovant -graphene

  • Retrouver la mémoire

Vous cherchez une expression mais vous ne vous souvenez plus de tous les termes ? Le symbole « * » va vous aider.

Par exemple : Le costa * remis à flot

Par Audrey Loubens

L’ISS n’a plus besoin des hommes pour se piloter

Mais que s’est-il passé ?

Vendredi 5 septembre, alors que le commandant Steve Swanson de la Station spatiale internationale (ISS) travaillait sur une expérience de biologie en stockant des échantillons de sang dans un congélateur, il découvre que le dispositif de déploiement est ouvert. Pourtant, alors qu’aucun lancement n’était prévu ce jour là, deux CubeSat ont bel et bien été lancés. Il s’agit de petits satellites en forme de cubes de 10 cm de côté pour un poids d’1,3 kg, dédiés à des expériences scientifiques universitaires. Ce mini format permet de réaliser des tests dans l’espace à moindre coût. 

Une centaine de ces cubes spatiaux appartenant à Planète Labs doit être lancé avec pour mission de recueillir des images de la Terre. Mais ces lancements suivent un calendrier défini au préalable. Et surtout, chaque lancement est piloté par un humain. Sauf que concernant ces deux CubeSats, personne n’était aux commandes.  Steve Swanson prend alors conscience que l’ISS a procédé au lancement des deux nano-satellite de son propre chef !

Cet évènement reste inexpliqué. La NASA enquête mais il n y’a aucun témoin puisque même les caméras de l’ISS n’ont rien filmé. Or, c’est la deuxième fois que la station prend une telle initiative. Le 23 août,  deux CubeSats avaient déjà été lancés hors calendrier et sans intervention humaine. En récidivant, l’ISS renforce le mystère autour de ces lancements apparemment autonomes de la station. 

S’agit-il de simples dysfonctionnements de nature technique, ou faut-il y voir l’action d’une intelligence artificielle capable de prendre ses propres décisions ?

Affaire à suivre…

Par Audrey Loubens, journaliste scientifique

Vidéo / Qu’est-ce qu’une fractale ? Qu’est-ce que le flocon de Koch ?

Quel est le point commun entre les oscillations des battements du coeur, la forme des nuages, le trajet d’un éclair et l’entrelacement microscopique des vaisseaux sanguins ? Les fractales. Ces aberrations mathématiques définissent toutes les formes géométriques que l’on retrouve dans la nature, comme nous vous l’avons déjà expliqué dans notre article « Les fractales sont-elles la clé de l’existence ?« .

Revenons simplement et en images sur cet incroyable mystère scientifique !

Source : kezako.unisciel.fr

Brésil: la déforestation de l’Amazonie en hausse de 29% entre 2012 et 2013

Quelque 5.891 km2 de forêt amazonienne ont disparu pendant cette période, a annoncé mercredi l’Institut national des de recherches spatiales (INPE).

La précédente estimation, remontant à la fin de l’année 2013, faisait état d’une déforestation en hausse de 28% avec 5.843 km2 de forêts rayés de la carte. Les Etats du Para (nord) et du Mato Grosso (centre-ouest) ont été les plus touchés, avec respectivement 2.346 km2 et 1.139 km2 de forêts rasés.

En dépit de cette révision à la hausse, il s’agit du second meilleur résultat enregistré depuis 1988, l’année où ont débuté ces mesures officielles. La déforestation de l’Amazonie au Brésil avait atteint sa plus faible hausse historique en 2011-2012, avec 4.571 km2 de forêts coupées, après un point culminant alarmant de 27.000 km2 en 2004.

L’INPE souligné que le Brésil est parvenu depuis 2004 à réduire de 74% le rythme annuel de la déforestation dans cette vaste région.

Les défenseurs de l’environnement relèvent toutefois que l’augmentation de 2012/13 a coïncidé avec l’approbation d’un assouplissement du code forestier, qui impose aux producteurs ruraux le respect de règles de conservation des forêts.

Le Brésil mesure annuellement la déforestation amazonienne entre le mois d’août d’une année et le mois de juillet de l’année suivante.

Les chiffres pour la période 2013-2014 doivent être publiées avant la fin de l’année. Mais des données encore très préliminaires font déjà état d’une nouvelle augmentation de 9,8%.

Le Brésil, l’un des leaders mondiaux agricoles, est tiraillé entre écologistes qui poussent à la préservation, et les grands agriculteurs et éleveurs qui veulent agrandir leurs surfaces d’exploitation. Le géant d’Amérique latine est notamment le deuxième producteur mondial de soja, dont les tourteaux de soja servent à l’alimentation du bétail dans le monde, principalement en Chine et en Europe, premiers importateurs mondiaux.

La généralisation de la consommation mondiale de viande explique notamment la demande croissante de soja.

Souvent décrit comme le « poumon de la planète », le bassin amazonien couvre environ 7,3 millions de km2 répartis sur neuf pays, au premier rang desquels le Brésil, qui concentre environ 63% de ses 5,5 millions de km2 de forêts équatoriales.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Apple n’utilisera plus ni benzene ni n-hexane sur ses chaines d’assemblage

Apple a donc décidé de plier. Suite à la pétition lancée par l’ONG Green America et le magazine The Nation en mars dernier dénonçant l’usage de produits toxiques sur les chaines de montage d’Apple, la marque à la pomme accepte de ne plus utiliser de benzene et de n-hexane.

Le benzene, incolore et très volatil, est cancérigène, tandis que le n-hexane est un solvant toxique qui s’accumule dans le système nerveux central. En 2009, 137 ouvriers employés par un sous-traitant d’Apple avaient été intoxiqués par ce solvant, quatre en sont morts. 

Suite à cette pétition, Apple a procédé à un état des lieux de 22 usines pendant 4 mois. 18 d’entre elles n’utilisent aucun des deux agents chimiques pointés du doigt. Pour les 4 autres, les seuils mesurés se situent en deçà des valeurs à risque. Toutefois, la firme accepte de supprimer benzène et n-hexane des chaines d’assemblage des iPhone, iPad, iPod et Mac.

On pourrait s’étonner qu’Apple cède si facilement à la pression d’associations environnementales. En fait, Apple est très souvent accusé de négliger la sécurité de ses employés. Les conditions de travail font l’objet de nombreuses critiques et se retrouvent au cœur de plusieurs polémiques. Suicides en série chez son sous-traitant Foxconn, empoisonnements aux produits chimiques (aluminium et magnésium), matériaux métalliques fournis par des groupes armés africains, conditions de travails abusives. Récemment, les ONG China Labor Watch et Green America ont infiltré l’usine d’assemblage de Suqian au nord-est de la Chine. Cette immersion révèle de nombreux manquements avec des issues de secours condamnées, pas d’équipement de protection, des déchets chimiques reversés dans les égouts…

En plein lancement de l’iPhone 6, Apple préfère calmer le jeu

On comprend alors qu’il est plus intéressant pour Apple de faire des concessions sur deux produits chimiques facilement substituables plutôt que de mettre ses usines aux normes et cesser l’exploitation des travailleurs chinois. Toutefois, il y a peu de chance que cette preuve de bonne volonté suffise à calmer la colère des associations environnementales.

Par Audrey Loubens

Sony a décidé de commercialiser son polycarbonate à 99% recyclé

Sony fait-il acte d’altruisme écologique ? Pas seulement. Derrière cette décision de rendre accessible son produit à d’autres entreprises, Sony souhaite rentabiliser sa gamme, quitte à ce que ses propres concurrents en profitent. Le matériau concerné est le SoRPlas, un polycarbonate conçu à 99% à partir de plastique recyclé. Un taux inégalé par les autres PC dont le seuil de recyclage atteint seulement les 30%. 

Sony maîtrise parfaitement la fabrication du SoRPlas puisqu’il le produit depuis 2011 et l’utilise dans ses téléviseurs BRAVIA. Les ingrédients principaux sont des morceaux de plastique issus du recyclage des DVD, de disques optiques ou encore de films optiques de téléviseurs. Mais le secret réside dans l’utilisation d’un ignifugeant « maison », à base de sulfate de sodium. Ce retardateur de flamme reste efficace en tout petite quantité, ce qui permet de proposer un polycarbonate avec seulement 1% de matériaux non recyclés que sont cet ignifugeant et un colorant.

 Le groupe japonais précise que son procédé réduit les émissions de CO2 de 77,3%, ce qui est dans la continuité de son engagement dans le projet Climate Savers de la WWF visant à diminuer les émissions de CO2.

Le polycarbonate est un matériau transparent, solide, résistant à la chaleur et relativement stable dans l’espace. Autant de qualités qui font qu’on le retrouve dans l’automobile (feux, corps de rétroviseur), dans l’emballage, les appareils ménagers (mixeurs, rasoirs) ou encore les équipements électriques et électroniques comme les boitiers. 

Le marché est vaste et pourrait bien permettre à Sony une belle réussite commerciale.

Par Audrey Loubens

Allemagne : explosion dans une usine de produits chimiques dans le nord

Selon un porte-parole de la police locale, interrogé par le journal Bild, « un employé de l’usine est porté disparu » et un blessé serait en cours d’évacuation d’un bâtiment annexe.

« Les maisons alentour ont subi pour certaines de graves dégâts », a indiqué ce porte-parole, Marcus Neumann, au site internet de Bild.

L’explosion a été entendue à plusieurs kilomètres à la ronde et « plusieurs bâtiments » de l’usine sont manifestement en feu, a précisé le porte-parole des pompiers.

Selon le site internet de Bild, un bâtiment s’est effondré, et environ 300 pompiers et 60 policiers ont été mobilisés.

Les habitants des environs ont reçu pour recommandation de fermer leurs portes et fenêtres, selon la station de radio locale Radio Bremen, tandis que des témoins ont fait état d’une épaisse fumée noire au-dessus du site de l’usine.

Deux employés avaient été alertés par une alarme dans l’usine et l’explosion s’est produite peu après leur arrivée sur les lieux, selon le porte-parole de la police interrogé par Bild.

L’explosion a eu lieu à Ritterhude, une ville de 15.000 habitants située au nord de Brême, dans l’Etat régional de Basse-Saxe.

Selon le site internet du journal local Weser Kurier, le site appartient à l’entreprise Bergolin, qui produit notamment des peintures industrielles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Choisissez le bon site de crowfunding et levez des millions !

Vous avez un projet à financer ? Laissez tomber les banquiers, c’est ringard. Misez sur une plateforme de crowfunding. Il s’agit d’un site qui présente votre projet aux internautes pour que ces derniers fassent une donation s’ils croient en vous. Ce mode de financement est très efficace et présente deux avantages considérables : tester son idée sur un panel important et récolter de l’argent. Un peu, beaucoup et même passionnément. D’après Massolution.com, site de crowfunding, ce sont 20 milliards de dollars qui seront levés par ce biais dans le monde en 2015. Mais pour réussir sa levée de fond, il faut opter pour la bonne plateforme, chacune ayant ses spécificités : généralistes ou thématique spécialisée, prêt, don contre don ou avec prise de participation au capital, française ou étrangère, montant moyen levé, durée de la campagne…

Les plateformes de don

Ce sont des plateformes généralistes qui proposent de donner en contrepartie d’un objet. Par exemple, le donateur aura un sticker contre 1€ ou un prototype numéroté pour 1000€. Ce type de fonctionnement est parfait pour commencer à recruter des clients, les donations étant équivalentes à des pré-commandes. En France, les trois plus grosses plateformes sont MyMajorCompany, KissKissBankBank et Ulule. MyMajorCompany est sans doute la plus connue puisqu’elle a fait exploser trois artistes musicaux : Grégoire, Joyce Jonathan et Irma. Mais cette plateforme finance tout type de projet, comme l’Energycloud, un dispositif de recharge des appareils nomades grâce au contact entre les chaussures et une surface spéciale posée au sol. De son côté, en moins de trois ans KissKissBankBAnk a permis de collecter plus de 11 millions d’euros et a aidé au lancement du Sea Orbiter, le vaisseau d’exploration sous-marine de Jasques Rougerie en levant 344 650€. Quand à Ulule, le site a déjà collecté plus de 18 millions d’euros pour 5540 projets financés. Dernière pépite ayant motivée les internautes, le projet de 1083.fr pour la fabrication de jeans et de baskets éco-conçues. D’autres plateformes existent comme Zentreprendre, Reservoirfunds et Notrepetiteentreprise (partenariat avec MyMajorCompany). Fin 2013, l’Institut français des fondations de recherche et de l’enseignement supérieur s’y est mis en lançant sa propre plateforme de crowfunding Davincicrowd !

http://www.mymajorcompany.com/

http://fr.ulule.com/

http://www.kisskissbankbank.com/

Les plateformes avec prise de participation au capital

Dans ce cas, les donateurs sont des investisseurs qui reçoivent des contreparties financières à leurs dons. Ils deviennent des actionnaires et peuvent prendre part aux décisions concernant l’entreprise.  Ceci est intéressant pour des entreprises déjà matures et vise des montants élevés qui peuvent atteindre plusieurs centaines de milliers d’euros. Les poids lourds de ce segment sont Anaxago, Happy Capital, Smartangels ou encore Wiseed dont le dernier succès en date est le projet Antibio portant sur la mise au point d’antibiotiques : les investisseurs ont récupérer leur mise de départ en à peine 18 mois, Antibio a depuis été revendue à un Business Angel.

https://www.anaxago.com/

http://www.happy-capital.com/

https://www.wiseed.com/fr

Les plateformes de prêt

Il s’agit de la forme de crowfunding la moins spectaculaire, concernant quelques dizaines de projets seulement. Spear et Unilend font du prêt rémunéré tandis que Babyloan est spécialisée dans le micro-crédit. KissKissBankBank a lancé HelloMerci spécialisée dans les prêts solidaires.

http://www.spear.fr/

https://www.unilend.fr/

http://www.babyloan.org/fr/

https://www.hellomerci.com/fr

Quelques principes pour une levée de fond réussie

Quelle que soit la plateforme choisie, il va falloir établir le montant dont vous avez besoin, en tenant comptes des frais tels que la commission reversée à la plateforme qui peut atteindre 10%. Fixez un objectif de collecte plutôt bas car l’argent est débloqué uniquement si ce seuil est atteint. Limitez votre campagne à quelques semaines. Enfin, personnalisez votre descriptif en y mettant un peu de vous, les internautes adhèrent à des coups de cœur plus qu’à des projets froids même s’ils sont économiquement pertinents.

Bonne chance !

Par Audrey Loubens, journaliste scientifique

L’identité de Jack l’éventreur enfin révélée

L’ouvrage Naming Jack The Ripper pourrait bien lever un des plus grands secrets de la criminologie. En effet,  la véritable identité de Jack l’éventreur y est révélée. Il s’agirait d’Aaron Kosminski, un barbier habitant tout près des lieux où ont été commis les cinq assassinats. Pour en arriver à cette conclusion, l’écrivain Russel Edwards s’appuie sur des analyses ADN effectuées sur le châle de la quatrième victime, Catherine Eddowes. Ce dernier l’a acheté en 2007 lors d’une vente aux enchères. Edwards a ensuite fait comparer les résultats à des analyses ADN provenant d’une descendante du tueur présumé. Les résultats de cette comparaison relieraient directement Aaron Kosminski au meurtre. 

Cette annonce est-elle crédible ? Oui , car le barbier d’origine polonaise était l’un des principaux suspects de l’époque. Cependant, bien qu’ayant été identifié par un témoin, celui-ci s’était rétracté et a refusé de témoigner. De plus, les différents témoignages recueillis indiquaient un homme plus âgé qu’Aaron Kosminski. Les enquêteurs n’ont alors pas pu aller plus loin, bien qu’il soit le suspect le plus crédible. Aaron Kosminski avait ensuite été interné par sa famille et est décédé à l’asile l’année suivante.

Toutefois, la communauté scientifique reste réservée, attendant de pouvoir confirmer les analyses ADN. Les tests sur lesquels se base l’auteur Edwards reposent sur un ADN mitochondrial. Celui-ci est utilisé pour confirmer des filiations mère/enfant et pour la datation de lignée, mais il ne peut suffire à identifier un unique individu. Autrement dit, l’analyse à partir d’ADNm confirme qu’il pourrait s’agir de celui de Kosminski, mais pas plus.

A cela s’ajoute des doutes sur la qualité de la pièce à conviction puisque volée par un policier qui voulait l’offrir à sa femme et donc non référencée dans les archives de Scotland Yard.

Nul doute que des analyses complémentaires viendront attester de la validité de cette hypothèse ou non.  En attendant, cette révélation fracassante pourrait bien mettre un terme aux nombreuses spéculations sur ce terrifiant serial Killer qui terrorisa Londres à la fin du 19è siècle.

Par Audrey Loubens

« Sit and stand » : des béquilles utilisables sans les mains

Vous en avez peut-être fait l’expérience, marcher avec des béquilles tout en accomplissant des gestes du quotidien peut s’avérer délicat. Porter un plateau de cuisine par exemple, ou ouvrir une porte sont autant de tâches qui deviennent compliquées dès lors que l’on tient des béquilles entre ses mains. Behzad Rashidizadeh, ancien étudiant de 27 ans à l’Industrial Design College for Creative Studies a peut-être trouvé la solution avec le « Sit and stand ».

À l’inverse des béquilles classiques, qui font habituellement travailler le haut du corps pour décharger le poids de la jambe blessée, ici le système s’appuie sur l’arrière de la cuisse de la jambe valide. Si après une mauvaise chute, votre cheville, votre pied ou votre jambe ont été atteints, vous pourrez malgré tout marcher presque normalement et conserver une totale autonomie dans vos activités habituelles. Car l’attrait de ce dispositif, est qu’une fois équipé de celui-ci, vous gardez les mains libres. Une première. En plus de cela, le « Sit and sat » permet de s’asseoir à tout moment, faisant office de siège lorsque la fatigue se fait sentir.

Le projet, qui était à la base un sujet d’étude, a tout d’une belle histoire. Au commencement, l’étudiant cherchait simplement à améliorer les béquilles traditionnelles pour une cible précise : « les jeunes adultes atteints de blessures temporaires ». Ce n’est que par la suite, après avoir testé lui-même des béquilles, s’être mis en situation pour mieux comprendre les difficultés que l’on peut rencontrer et avoir interrogé des utilisateurs qu’il s’est rendu compte du problème le plus ennuyeux : ne pas pouvoir se servir de ses mains.

Aujourd’hui, le « Sit and sat » fait partie de ces projets innovants concourant au prix James Dyson organisé par la fondation du même nom. Ce concours international doit élire le 18 septembre les lauréats nationaux, puis le 6 novembre le lauréat international. Le vainqueur de la compétition touchera en récompense la somme de 37 500 euros et 12 500 pour son université.

Par Sébastien Tribot

L’activité industrielle en légère hausse, mais reste plombée par le secteur manufacturier

En juillet, la production industrielle a bien enregistré une hausse de 0,2%, mais elle est inférieure au rebond du mois de juin (+1,2%). De mai à juillet, la production industrielle dans son ensemble a même décliné de 0,6% par rapport aux trois mois précédents.

Elle est particulièrement touchée par une baisse de l’activité dans le secteur manufacturier, qui diminue de 0,3% après un mois de juin en hausse (+1,6%), selon l’Institut national de la statistique et des études économiques.

Sur les trois derniers mois, la production manufacturière a même diminué de 1,5% par rapport aux trois mois précédents. Si l’on compare à la même période l’année dernière, de mai à juillet, le secteur manufacturier a vu son activité décliner de 0,9%.

En juillet, l’activité a particulièrement souffert dans l’automobile (-3,4%) et dans la métallurgie (-1,0%).

A l’inverse, la production dans les équipements électriques, électroniques et machines reste bien orientée (+1,1%).

Suivant la même courbe, la production continue de croître dans la chimie (+1,4%) et plus modérément dans le textile et l’habillement (+0,5%). L’activité a également rebondi dans la cokéfaction et le raffinage (+2,4%).

La tendance de l’activité industrielle est conforme aux perspectives d’une croissance morose cette année. Mercredi, le gouvernement a en effet revu à la baisse ses prévisions de croissance de l’économie française à 0,4% en 2014 et 1,0% en 2015.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nucléaire, solaire : le gouvernement français sait-il vraiment ce qu’il veut ?

François Hollande a été élu sur la promesse de réduire de 75% à 50% la part du nucléaire dans le mix électrique national d’ici 2025, ce qui a naturellement été compris, du moins par les personnes de bonne foi, comme fermer environ 20 GW sur les un peu plus de 60 GW de réacteurs nucléaires que compte la France.

Mais par une étrange pirouette, deux ans après avoir été élu et une fois la fièvre post-Fukushima un peu retombée, François Hollande et Ségolène Royal ont décidé de suivre à la lettre les recommandations d’Henri Proglio, PDG d’EDF. Ce dernier a expliqué que, compte-tenu de la hausse de la demande électrique consécutive à la croissance démographique, ainsi qu’à l’adoption de nouveaux usages de l’électricité comme la voiture électrique, alors la part du nucléaire baissera mécaniquement. Sans qu’il faille fermer de réacteurs.

Un goût amer de trahison

Pourquoi François Hollande n’a-t-il pas expliqué cela clairement juste avant les élections ? Au final le projet de Loi sur la transition énergétique a comme objectif de simplement plafonner la capacité nucléaire. L’article 55 « pose les principes d’un plafonnement à son niveau actuel de notre capacité de production nucléaire (63,2 GW) ». Tout au plus la fermeture de la centrale de Fessenheim (fermeture qui n’est pas encore certaine) sera compensée par l’ouverture de l’EPR de Flamanville. Bref, la transition énergétique au niveau zéro. La stagnation, c’est maintenant.

Le renoncement de l’esprit de la promesse électorale de François Hollande en matière énergétique a franchit récemment un nouveau cap. Dans son discours fin août devant le MEDEF le premier ministre Manuel Valls a déclaré fermement que « la filière nucléaire est plus que jamais une grande filière d’avenir », reprenant ainsi le flambeau d’Arnaud Montebourg en la matière.

« La France ne sait toujours pas ce qu’elle veut »

Dans une interview pour le magazine Plein Soleil (en ligne sur le blog Tecsol dans un billet daté du 8 septembre) Cédric Philibert, expert en énergies renouvelables auprès de l’Agence Internationale de l’Energie, constate amèrement cette réalité : « la France ne sait toujours pas ce qu’elle veut. Quand on pense que François Hollande le jour de l’ouverture de PVSEC (Photovoltaic Solar Energy Conference, la plus importante conférence internationale en matière de recherche et développement photovoltaïque ndlr) a préféré aller inaugurer une installation d’énergie marine. Il semble qu’il n’a pas la juste appréciation de ce qu’est une énergie d’avenir.» 

Mais il y a aussi un facteur plus profond. « Il semble aussi que le milieu énergétique français fuit le PV plus que tout autre chose » estime Cédric Philibert. « Les tenants de l’atome voient la percée du solaire comme la peste » A certaines heures de la journée la production solaire (qui peut d’ailleurs traverser la frontière germano-française) parvient à pénétrer en zone jusqu’à présent réservée au nucléaire. Du coup les réacteurs nucléaires se transforment en vaches à lait moins rentables.

Les énergies marines mises en avant par EDF sont en réalité un moyen particulièrement habile (ou pervers, à chacun son analyse) de détourner l’attention du grand public et des responsables politiques du solaire photovoltaïque, une filière à très gros potentiel, très populaire, de plus en plus compétitive, et qui menace directement les perspectives de l’industrie nucléaire non seulement à l’échelle nationale mais mondiale.

L’hydrolien, que les amis de l’atome font miroiter, appartient au groupe des filières EnR les plus coûteuses. Et même dans l’hypothèse d’une acceptation d’un coût du kWh très élevé, il a un potentiel qui reste relativement limité. Seule une nouvelle approche, le « marélien » d’Hydrocoop, c’est à dire l’hydrolien à concentration qui augmente la vitesse des courants de marée – et donc la production d’électricité – grâce à un système de digues, système ingénieux permettant d’utiliser des hydroliennes simplifiées et ainsi moins coûteuses, permettrait de faire baisser massivement les coûts et ainsi une production appréciable. Mais EDF ignore cette approche.

Etant donné qu’EDF obéit à une logique d’intérêts privés et de protection d’actifs, le groupe ne voit pas d’un bon œil le développement du solaire en France et dans les pays voisins. Compte-tenu du flou réglementaire en France, les investissements régressent. Les énergies renouvelables, formidables moteurs de croissance économique et de créations d’emplois, sont en panne dans l’hexagone.

« Le mensonge donne des fleurs mais pas de fruits. » (proverbe africain)

Une question fondamentale se pose. Le rôle des femmes et hommes politiques élus par les français est-il d’obéir aux logiques de profit d’un lobby historiquement couplé à l’appareil étatique ? Ou de tenir leurs promesses électorales, de respecter le pacte de confiance qu’ils ont établi avec leurs électeurs ?

Pour Corinne Lepage, ex-Ministre de l’Environnement du Gouvernement d’Alain Juppé entre 1995 et 1997 et qui publie le 11 septembre 2014 « L’Etat nucléaire » chez Albin Michel, en France « le nucléaire est totalement imbriqué dans l’État. C’est ce qui explique que, malgré le coût exorbitant, nous continuons, seuls au monde, à vouloir le tout-nucléaire.»

Sans confiance, on ne peut pas gouverner. En matière d’énergie, qui est à la base de toute activité, la démocratie française est malade. Un pays qui n’a pas de perspective claire et démocratiquement choisie en matière d’avenir énergétique n’a pas d’avenir tout court.

Par Olivier Daniélo

Grande barrière de corail: nouveau projet pour éviter de rejeter des déchets à la mer

Les défenseurs de l’environnement sont aussitôt montés au créneau mardi pour dénoncer ce projet alternatif.

Les autorités australiennes avaient donné leur feu vert en janvier au projet de déversement dans les eaux du site classé par l’Unesco de déchets de dragage – jusqu’à trois millions de mètres cube -, dans le cadre de travaux d’extension d’un port d’exportation de charbon à Abbot Point, dans le nord de l’Etat du Queensland (nord-est).

Cette décision avait provoqué un tollé. L’Unesco a appelé l’Australie à mettre en oeuvre des mesures de protection du site si elle veut éviter son placement sur la liste du patrimoine en péril en 2015.

Le Premier ministre du Queensland Campbell Newman a annoncé lundi soir que cet Etat allait soumettre au gouvernement fédéral la nouvelle proposition visant à utiliser les déchets pour développer le port sur terre.

Il s’agit d’une proposition « gagnant-gagnant », a-t-il assuré. Pour son ministre des Infrastructures Jeff Seeney, cela montre que les autorités cherchent « sérieusement à protéger la Grande barrière de corail » tout en développant l’économie.

Le ministre fédéral de l’Environnement Greg Hunt a salué le projet. « J’ai dit à plusieurs reprises que le redéploiement sur terre avait ma préférence et j’ai encouragé les promoteurs du projet à soumettre des solutions viables », a-t-il dit.

Mais pour les défenseurs de l’environnement, c’est l’agrandissement même du port qui menace le site classé.

Le nouveau projet « n’est même pas une rustine, c’est ajouter du sel dans la plaie », a réagi le porte-parole de Greenpeace Adam Walters. « L’idée même que les contribuables du Queensland financent la destruction de la Grande barrière en achetant des déchets de dragage pour construire un port encore plus grand est insultante », a-t-il ajouté.

Le Parti vert a lui estimé que réutiliser les déchets sur terre était préférable à les déverser en mer mais a réclamé des garanties pour l’environnement.

La Grande barrière de corail, étendue de 345.000 km2 le long de la côte orientale, constitue le plus vaste ensemble corallien du monde avec 3.000 « systèmes » récifaux et des centaines d’îles tropicales. Depuis des années, la Barrière souffre du réchauffement climatique, de la prolifération d’une étoile de mer dévoreuse de coraux, des rejets massifs de nitrates et pesticides provenant des exploitations agricoles et du développement industriel sur la côte en raison du boom minier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nouvelle concentration record des gaz à effet de serre en 2013

« Nous savons avec certitude que le climat est en train de changer et que les conditions météorologiques deviennent plus extrêmes à cause des activités humaines telles que l’exploitation des combustibles fossiles », a déclaré le secrétaire général de l’OMM, Michel Jarraud, dans la présentation du dernier bulletin sur la concentration des gaz à effet de serre.

Les observations effectuées par les experts montrent que la concentration « du dioxyde de carbone (CO2), du méthane (CH4) et du protoxyde d’azote (N20) ont atteint de nouveaux pics en 2013 », écrit l’OMM.

En outre, les observations révèlent que le taux d’accroissement du dioxyde de carbone (CO2) atmosphérique entre 2012 et 2013 représente la plus forte augmentation interannuelle de la période 1984-2013.

Il ressort par ailleurs de ce bulletin de l’OMM que le forçage radiatif (la capacité de la Terre à conserver l’énergie du Soleil ou à la renvoyer dans l’espace), qui a pour effet de réchauffer le climat, s’est accru de 34% entre 1990 et 2013 à cause des gaz à effet de serre persistants (comme le CO2, le CH4 et le N20).

En 2013, la concentration de CO2 dans l’atmosphère représentait 142% de ce qu’elle était à l’époque préindustrielle (1750), et celles du méthane et du protoxyde d’azote respectivement 253% et 121%.

Les océans absorbent aujourd’hui environ le quart des émissions totales de CO2 et la biosphère un autre quart, limitant ainsi l’accroissement du CO2 atmosphérique.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Reach/CLP : toute l’actualité d’août (2/2)

Journée d’information sur les demandes d’autorisation dans REACH

Le Ministère de l’Ecologie, du Développement Durable et de l’energie organise le 30 septembre prochain, une journée d’information sur la Préparation d’une demande d’autorisation dans REACH.

Guide interactif sur les FDS et les scenarios d’exposition

18/08/2014

L’ECHA a publié un guide interactif sur les FDS et les scénarios d’exposition, destiné aux acteurs qui reçoivent et utilisent les FDS. Il contient des informations clés, des exemples, des vidéos explicatives, des descriptions de chaque rubrique de FDS…

Nouvelles substances à la liste des substances candidates à l’autorisation

19/08/2014

Neuf nouvelles substances ont été ajoutées à la liste des substances soumises à autorisation figurant à l’annexe XIV du règlement Reach, qui compte désormais 31 entrées (Cf règlement n° 895/2014 du 14/08/2014). 

Les substances concernées sont les suivantes : formaldéhyde, produits de réaction oligomères avec l’aniline (MDA technique), acide arsénique, éther de bis(2-méthoxyéthyle) (diglyme), 1,2-dichloroéthane (DCE), 2,2′-dichloro-4,4′-méthylènedianiline (MOCA), tri(chromate) de dichrome, chromate de strontium, hydroxyoctaoxodizincatédichromate de potassium, chromate octahydroxyde de pentazinc.

Toutes ces substances sont cancérogènes, à l’exception de l’éther de bis(2-méthoxyéthyle) (diglyme) inscrit en raison de sa toxicité pour la reproduction.

Ces substances ne peuvent plus être mises sur le marché ni utilisées, à moins qu’une autorisation soit accordée pour une utilisation spécifique.

Mise à jour d’un guide de l’ECHA

19/08/2014

Le « Guide des exigences d’information et évaluation de la sécurité chimique – Chapitre R.7a. » de l’ECHA a été mis à jour afin d’intégrer les nouvelles lignes directrices OCDE récemment adoptées (notamment concernant la génotoxicité).

Cette nouvelle version 3.0 est disponible sur http://echa.europa.eu/guidance-documents/guidance-on-information-requirements-and-chemical-safety-assessment

Reach : de nouvelles méthodes d’essai homologuées

21/08/2014

Le règlement n°900/2014, publié le 21 août, ajoute six nouvelles méthodes d’essai à l’annexe du règlement 440/2008. Cette dernière définit les méthodes d’essai à appliquer pour déterminer les propriétés physicochimiques ainsi que la toxicité et l’écotoxicité des substances chimiques dans le cadre du règlement Reach.

Plus d’information sur : http://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32014R0900

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :

Les terres rares sont-elles indispensables pour les moteurs électriques, les éoliennes et les panneaux solaires ?

Contrairement au moteur à aimants permanents de la célèbre Toyota Prius japonaise, le moteur à induction triphasé à courant alternatif breveté pour la première en 1888 par Nikola Tesla ne contient pas d’aimants. Zéro consommation de terres rares. Tesla Motors l’explique (en français) sur son site : « Certains moteurs utilisent des aimants permanents, mais pas le moteur du Roadster (et de la Tesla S ndlr) : le champ magnétique est exclusivement produit par de l’électricité.»

Ce qui est valable pour les moteurs électriques l’est aussi pour les génératrices éoliennes. Comme l’explique (en français) le groupe ENERCON, leader Allemand de la production d’éoliennes qui détient 40% des brevets mondiaux du domaine, « les éoliennes ENERCON produisent de l’électricité verte sans l’élément controversé, le néodyme. Le concept d’éolienne sans boîte de vitesse servant de base à tous les types d’éoliennes – de l’E-33/ 330 kW à l’E-126/ 7,5 MW fonctionne avec un générateur annulaire à excitation indépendante. Les champs magnétiques requis pour la production d’électricité dans le générateur sont pour ce faire produits électriquement. Les aimants permanents avec lesquels la plupart des concurrents travaillent et pour laquelle la fabrication nécessite le néodyme, ne sont pas utilisés pour les éoliennes ENERCON pour des raisons d’ingénierie. » D’autres entreprises qu’ENERCON ont adopté cette technologie.

Une partie des éoliennes actuelles utilise du néodyme, mais l’on peut s’en affranchir complètement. Tenter de faire croire que cet élément serait indispensable aux éoliennes, ceci en réalité dans l’unique objectif de freiner le développement des énergies renouvelables et ainsi de continuer à vendre le plus longtemps possible l’électricité obtenue en brûlant des combustibles fossiles, est pour le moins stérile.

Et les panneaux solaires ?

Certains panneaux solaires à couche mince, qui ne représentent qu’une petite part du marché PV global, utilisent des terres rares. Mais les panneaux de la start-up Silevo, achetée il y a quelques mois par le groupe SolarCity fondé par Elon Musk qui est également le PDG de Tesla Motors, sont à base de silicium. Logique pour un enfant de la Silicon Valley. Le silicium est le deuxième élément le plus abondant de la croûte terrestre après l’oxygène.

De plus les panneaux Silevo ne contiennent pas d’argent (qui est un métal rare mais qui n’est pas une « terre rare »). Or comme l’ont montré les scientifiques Andrea Feltrin et Alex Freundlich dans un article (Material considerations for terawatt level deployment of photovoltaics) publié dans la revue à comité de lecture Renewable Energy dès 2008, « si l’usage de l’argent peut dans le futur être réduit alors il n’y a pas d’autre obstacle pour les cellules à base de silicium » dans la perspective de produire des panneaux photovoltaïques à l’échelle des térawatts (millions de mégawatts).

Elon Musk et son associé Lyndon Rive sont en train de construire dans l’état de New-York une gigantesque usine capable de produire 1 GW par an de panneaux solaires de technologie Silevo. L’usine, installée non loin des chutes du Niagara, sera alimentée à 100% par les énergies renouvelables, une belle illustration du miracle de la multiplication des pains (solaires). En moins de 2 ans un panneau solaire délivre autant d’énergie qu’il en a été nécessaire pour le produire. C’est ce que l’on appelle l’energy payback time, le temps de retour énergétique. Et la durée de vie des panneaux est supérieure à 20 ans. Autrement dit avec l’énergie produite par un panneau (par ailleurs recyclables), on peut en obtenir plus de 10. Miraculeux.

Les terres rares ne sont indispensables ni pour l’éolien, ni pour les panneaux photovoltaïques, ni pour le moteur de voiture électrique.

La véritable rareté, et la véritable problématique environnementale, climatique, sanitaire et géopolitique, ce sont les énergies fossiles. Des milliards de dollars sont aujourd’hui gaspillés pour contrôler militairement les régions de la planète qui en sont riches ou par lesquelles elles transitent, notamment au Moyen-Orient et en Ukraine. Les voitures à pétrole posent d’énormes et très coûteux problèmes sanitaires dans les grandes villes du monde. Les marées noires dévastent les écosystèmes littoraux et maritimes. L’extraction du pétrole issu des sables bitumineux constitue une aberration sur le plan de l’efficacité énergétique. L’extraction des gaz et pétrole de schiste consomme massivement de l’eau douce. L’obtention des agrocarburants de première génération requiert des surfaces de deux ordres de grandeur supérieurs à celles nécessaires au photovoltaïque.

D’où l’intérêt des écotechnologies qui permettent de s’affranchir des technologies reposant sur la combustion, a fortiori dans un contexte de croissance de la démographie et de la demande énergétique mondiale.

Par Olivier Danielo

La sauvegarde de l’énergie humaine, le défi du 21ème siècle ?

Qui ne s’est jamais senti découragé et épuisé à la seule idée d’ouvrir sa boîte courriel ?

Qui n’a jamais été pris de court, dans l’impossibilité de réagir correctement face à un partenaire, un confrère, un concurrent, par absence d’une information critique ?

Qui – au contraire – ne s’est jamais perdu dans la quantité d’information, non triée, non vérifiée, à disposition dans son organisation ? 

Voici quelques-unes des questions qui résument l’un des plus grands défis actuels pour les entreprises et leurs salariés. Dans un monde plus ouvert que jamais, où l’information circule instantanément et où il est vital de prendre en compte la globalité de son écosystème, nous sommes en fait trop facilement débordés. 

Les conséquences sont faciles à identifier. D’après le « Fifth European Working Conditions Survey » de la Fondation Européenne de Dublin (Commission Européenne), la France est dans le top 3 des pays « stressés » de l’UE. Le gâchis que cela représente au quotidien est difficile à chiffrer, mais indéniable.

A l’heure où maîtriser, économiser même, les ressources, l’énergie… donnent lieu à des paroles et à des actes, qu’en est-il de la sauvegarde de l’énergie humaine ? Moins de fatigue, moins de stress, moins de tensions interpersonnelles, favorisent une meilleure productivité, une utilisation optimale de l’intelligence collective et une plus grande créativité. Un avantage majeur à la fois pour l’entreprise et le salarié.

Les recettes traditionnelles ne suffisent plus

Il existe déjà des recettes concrètes pour permettre à l’entreprise d’économiser l’énergie de ses salariés, pour qu’ils conjuguent efficience et sérénité. Bien sûr, il y a l’environnement de travail (une bonne luminosité, de l’espace, un volume sonore confortable…) ou les services mis à disposition du personnel, en interne ou dans les environs immédiats, pour lui faciliter la vie.

Mais dans cet univers numérique, mobile et instantané dans lequel nous vivons, cela ne suffit plus. Ce qui aide le plus un collaborateur, lui permet de vraiment se concentrer sur l’essentiel, c’est l’accès immédiat à la « juste » information. C’est-à-dire celle dont il a besoin pour décider, pour agir, pour être devant ses concurrents ; celle qui enrichit les réflexions et élargit le périmètre de connaissance. Celle, enfin, qui facilite l’innovation, clé de voûte des entreprises qui se développent et se réinventent sans cesse. C’est une information précise, vérifiée, non redondante, accessible, en mode « zéro clic ».

Les technologies qui répondent à ces aspects existent déjà et ont toutes en commun le collaboratif et le social. Mieux : en plus de faciliter l’accès à l’information, elles sont également évolutives ; elles apprennent des choix et des préférences de l’individu, pour lui fournir une information filtrée, prête à consommer, sans qu’il ait chaque jour à expliciter de nouveaux ses besoins réels. Cette capacité d’évolution est centrale dans un contexte où une entreprise est tout sauf une structure figée. Elle évolue de jours en jours et les attentes de ses collaborateurs changent progressivement elles aussi. Les outils doivent donc en tenir compte.

Collaboratif et RSX pour mieux utiliser son énergie

Parmi ces derniers, les réseaux collaboratifs d’entreprises sont ceux qui offrent les plus grands bénéfices. Ils sont au cœur des enjeux business et de relations interpersonnelles. Leur objectif est en effet de faire naitre des synergies métier et d’augmenter la puissance des communautés professionnelles qui les utilisent. 

En alliant ces réseaux avec un accès intuitif à l’information pertinente, les idées se partagent mieux, les capacités d’innovation et de découvertes stratégiques se multiplient car la justesse des informations, leur non-redondance sont vérifiées – sans perte de temps. Les salariés disposent ainsi d’un plus grand confort pour partager leurs réflexions et les enrichir avec ceux, parmi leurs pairs, qui seront les plus concernés et capables d’apporter de la valeur. De facto, l’énergie de ces collaborateurs est préservée, voire augmentée.

La bonne nouvelle, c’est que les entreprises prennent conscience des enjeux d’efficience, de développement, de climat social et d’innovation, que cet impératif de sauvegarde de l’énergie humaine recouvre. L’édition 2013 de l’Index International des valeurs, réalisé par l’agence Wellcom, souligne ainsi la très forte progression de la valeur « Innovation » dans les entreprises, pour se différencier de la concurrence et l’apparition, pour la première fois, de la valeur « Communauté » dans le classement. Cette dernière concerne d’ailleurs autant une dynamique interne (salariés) qu’externe (clients).

En effet, si les professionnels comprennent que l’optimisation de l’énergie humaine par une utilisation plus fine des outils collaboratifs est une force, l’idée qu’il s’agit également d’un atout à l’extérieur de l’entreprise fait son chemin. La stratégie de la pertinence et du « zéro clic », appliquée sur les réseaux sociaux externes (RSX)* offre une forte optimisation de leurs processus de vente : un utilisateur, client, revient sur une plateforme lorsqu’il sait que l’information qui lui est présentée est de qualité. Un des critères fondamentaux de cette qualité est la pertinence vis-à-vis de ses centres d’intérêt. Thématique par thématique, il est donc possible de capitaliser d’un point de vue business sur les mêmes approches qui ont rendu ses salariés plus efficients et zen dans son organisation. En approfondissant l’analyse, il apparait même que les clients deviennent sources d’innovation, facilitant l’adaptation permanente de l’entreprise.

À une époque où toute organisation cherche à rationaliser ses investissements, les dispositifs qui favorisent l’économie de l’énergie humaine sont plus qu’une ligne dans la politique RSE des entreprises ou qu’une simple opportunité commerciale. Veiller, agir pour maîtriser la dépense d’énergie humaine de son écosystème est une véritable nécessité. Agir pour favoriser le partage au sein de l’entreprise et avec ses clients est un formidable levier de synergie.

* Les RSX sont des réseaux sociaux sur-mesure, conçus par les entreprises pour fédérer une communauté autour de leur activité, sur une plateforme externe thématique qu’elles maitrisent et sur laquelle elles peuvent s’appuyer systématiquement pour se développer.

Par Florian Leblanc, Executive Vice-President, NYC, Entropic Synergies & Viviane Strickfaden, CEO VS Management