Radiofréquences : pas d’effets avérés, mais une exposition en hausse !

Selon l’avis de l’Anses relatif à la mise à jour de l’expertise « Radiofréquences et santé », la revue des nouvelles publications scientifiques publiées entre avril 2009 et décembre 2012 ne démontre aucun effet avéré chez l’Homme ou l’animal. Toutefois, elle relève, avec des niveaux de preuve limités, différents effets biologiques chez l’Homme ou chez l’animal. Certaines publications évoquent une possible augmentation du risque de tumeur cérébrale pour les utilisateurs utilisant leur téléphone portable plus de 30 minutes par jour en conversation, sans kit main libre, pendant 25 ans. 

Malgré ces conclusions, l’Anses reconnait que l’évaluation des risques comprend de nombreuses lacunes. Certains effets sont toujours recherchés. « Ce sont des effets pour lesquels on n’est pas capable d’identifier un lien entre ces effets biologiques et des effets sanitaires, c’est-à-dire des pathologies associées », affirme Dominique Gombert Directeur de l’évaluation des risques de l’Anses. Ils concernent le sommeil, la fertilité mâle, les performances cognitives et des mécanismes cellulaires. En l’absence d’études menées chez l’Homme, l’Agence ne peut pas non plus conclure sur l’influence des radiofréquences concernant les rythmes circadiens, la maladie d’Alzheimer, la reproduction et le développement, les paramètres hématologiques et la vasomotricité des vaisseaux sanguins.

Améliorer la documentation des expositions environnementales

Les téléphones mobiles constituent la principale source d’exposition pour les utilisateurs. Les multi-expositions environnementales sont toutefois trop faiblement documentées. « Face à la multiplication des sources d’émissions souvent individuellement faibles, nous préconisons que soient réalisées un certain nombre de campagnes de mesures en intérieur et en extérieur de l’exposition cumulée de ces différentes sources pour mieux documenter la réalité des expositions », explique Marc Mortureux, directeur de l’Anses. L’agence recommande également de développer des études épidémiologiques, pour avoir une caractérisation beaucoup plus précise de l’exposition de la population.

De plus, l’impact potentiel des protocoles de communication mis en œuvre (2G, 3G, 4G) est insuffisamment documenté. « Avec le passage à la 4G, est-ce qu’on ne va pas se retrouver avec une augmentation des expositions pendant ce passage, en attendant que les autres technologies disparaissent ? » s’interroge Martine Hours, la présidente du Comité d’expert spécialisé en charge du rapport.

Une modification des comportements

L’influence des technologies sur les comportements pourrait finalement nous faire courir le plus grand risque. Causé par l’addiction au téléphone portable et à Internet, le bouleversement du sommeil pourrait faire courir plusieurs risques sanitaires. Pour cette raison, le rapport recommande que « l’impact des usages des nouvelles technologies sans fil sur le stress, la fatigue, le syndrome du burn-out, l’addiction, etc. soit étudié plus avant ». L’Anses veut aussi développer les recherches sur les nouveaux usages des Smartphones et des tablettes pour comprendre les expositions qui ne se font pas forcément au niveau de la tête.

« C’est par la maîtrise de l’exposition que l’on peut contrôler un risque s’il est avéré que ce risque existe réellement ; on n’a pas à attendre que ce risque soit réellement démontré pour faire une prévention et contrôler l’exposition », note Martine Hours. Pour cette raison, l’agence recommande notamment que  tous les dispositifs courants émetteurs de champs électromagnétiques destinés à être utilisés près du corps (téléphones DECT, tablettes tactiles, veille-bébé, etc.) fassent l’objet de l’affichage du niveau d’exposition maximal engendré (DAS par exemple), comme cela est déjà le cas pour les téléphones portables. En attendant, elle conseille toujours d’utiliser un kit main-libre, de privilégier les DAS les plus faibles et de limiter l’usage des téléphones portables par les enfants.

Dès la fin de l’année, l’Anses va par ailleurs approfondir le travail concernant les électro-sensibles, ces personnes intolérantes aux ondes. Elle rendra également un rapport sur l’exposition des enfants début 2014.

Par Matthieu Combe, journaliste scientifique

Une utilisation surprenante des neutrons ultrafroids permettrait de mesurer le mouvement des virus

Ce nouvel outil utilise des neutrons ultrafroids (UCN) qui se déplacent plus lentement qu’un coureur moyen et permettront aux scientifiques de cartographier le mouvement d’objets minuscules avec une précision jusqu’à présent inégalée.  Leur découverte, réalisée à l’Institut Laue-Langevin, le centre phare en science neutronique et le berceau de la recherche avec des neutrons ultrafroids depuis plus de 25 ans, vient d’être publiée dans la revue Crystallography Reports.

Depuis leur découverte en 1969, les neutrons ultrafroids ont été utilisés par les physiciens expérimentaux pour répondre à des questions fondamentales sur l’univers comme l’origine de la matière et la manière dont la gravité s’inscrit dans le modèle standard de la physique des particules. Dans ce but, ils stockent les neutrons ultrafroids dans des pièges et étudient leurs propriétés comme leurs énergies ou temps de vie avec une très grande précision. 

Cependant, la durée de stockage moyenne des neutrons ultrafroids dans leurs pièges s’est toujours révélée beaucoup plus courte qu’escompté, ce qui affectait la qualité des observations. En 1999, le Dr Valery Nesvizhevsky et ses collègues à l’ILL ont découvert un nouveau phénomène qui pourrait expliquer ces pertes. Ils ont découvert qu’occasionnellement un neutron ultrafroid stocké dans le piège recevait un petit apport d’énergie supplémentaire. Cela n’arrivait qu’une fois sur 10 000 000 collisions, cependant, et leur origine était inexpliquée. 

D’autres hypothèses étant écartées, le Dr Nesvizhevsky commença à s’intéresser à l’influence des nanoparticules ou nano-gouttelettes connues pour occuper une couche située immédiatement au-dessus de la surface de la plupart des matériaux, y compris ceux situés à l’intérieur du piège.  

Pour vérifier cette hypothèse, le Dr Nesvizhevsky et ses collègues se sont tournés vers le dispositif UCN de l’ILL. Ils ont placé dans le cylindre de stockage des neutrons ultrafroids des échantillons avec des couches superficielles de nanoparticules dont la répartition granulométrique était connue et ont observé les interactions.

L’équipe a découvert que la modification d’énergie des neutrons ultrafroids était induite par des collisions semblables à celles des boules de billard avec des nanoparticules en mouvement à la surface, apportant ainsi la première preuve que ces nanoparticules ne sont pas stationnaires.

Les faibles niveaux d’énergie des neutrons ultrafroids signifient qu’ils rebondissent généralement sur les parois intérieures, en restant dans le piège. Cependant, ces apports d’énergie supplémentaire provoqués par l’interaction avec les nanoparticules leur donnent juste assez d’énergie pour surmonter la gravité et s’échapper par le haut de la chambre qui reste ouverte ou pour traverser les parois. 

Cependant, ce phénomène a deux conséquences particulièrement dramatiques :

  • Il pourrait expliquer les écarts dans les résultats des expériences réalisées il y a soixante ans lors de la mesure du temps de vie du neutron, dont les résultats diffèrent d’environ 10 secondes, bien au-delà des incertitudes rapportées. Un chiffre précis pourrait affecter les conclusions sur les origines de la matière dans l’univers jeune, ainsi que le nombre de familles de particules élémentaires existant dans la nature, et pourrait modifier les modèles de la formation des étoiles.
  • Il fournit également à la science un outil complètement nouveau et d’une exactitude unique pour étudier pour la toute première fois la manière dont les nanoparticules se déplacent et interagissent avec les surfaces des matériaux, en particulier par l’intermédiaire des interactions van der Waals/Casimir, dans toutes sortes de systèmes naturels et artificiels.

Les applications potentielles de cette technique sont vastes et incluent la production de produits chimiques et de semi-conducteurs, de convertisseurs catalytiques, de circuits intégrés utilisés dans les dispositifs électroniques et les sels halogénures d’argent dans les films photographiques. Cet outil pourrait aussi être utilisé pour étudier pour la première fois comment les molécules biologiques se déplacent le long d’une surface, comme les virus le long d’une membrane biologique.

« Nous avons trouvé ce tout nouvel outils scientifique par hasard. Nous n’avions jamais pensé que les neutrons ultrafroids pourraient avoir de telles utilisations pratiques. Il est certain que les implications de ces découvertes pour la physique fondamentale feront l’objet d’un débat brûlant et je m’attends à ce qu’il y ait des discussions pour savoir dans quelle mesure ces petits apports d’énergie contribuent aux incertitudes quant aux mesures de la durée de vie du neutron. Cependant, le potentiel de cette nouvelle technique pour étudier la dynamique des nanoparticules ne fait aucun doute et nous espérons travailler avec des chercheurs de nombreuses disciplines scientifiques pour réaliser son potentiel. » 

Dr Valery Nesvizhevsky de l’Institut Laue Langevin

Pour leurs prochaines expériences, Valery et ses collègues ont réservé du temps de faisceau supplémentaire à l’ILL et demanderont à des scientifiques de différentes disciplines de fournir des échantillons provenant de leurs propres recherches pour pouvoir les analyser avec des neutrons ultrafroids et prouver la validité de cette nouvelle technique.  

Le Dr Valentin Gordeliy est responsable du Groupe Transporteurs Membranaire à l’Institut de Biologie Structurale et a rencontré le Dr Nesvizhevsky pour discuter les applications possibles dans son propre domaine de recherche de cette nouvelle technique de neutrons ultrafroids : “Il s’agit d’une découverte importante et si sa faisabilité peut être vérifiée, c’est également une découverte potentiellement très excitante pour mes propres travaux en biologie structurale. Dans le corps humain, il existe de nombreuses nanostructures, leurs mouvements correspondent à l’échelle de temps de cette technique. Elles incluent les virus et différentes protéines et complexes protéiniques dont les histones, les échafaudages d’ADN qui régulent l’expression des gènes, contribuant à les ouvrir et à les fermer. L’un des sujets d’étude les plus attractifs serait les protéines membranaires qui contribuent à maintenir l’ensemble du corps en bonne santé et sont donc ciblées par 60% des médicaments existant.  D’autres outils comme les microscopes électroniques peuvent être utilisés mais ils ne sont pas adaptés pour étudier la dynamique. La possibilité d’étudier des interactions complexes comme un virus et une protéine membranaire permettrait d’acquérir de nouvelles connaissances en vue de découvrir de nouveaux médicaments ainsi qu’une meilleure compréhension de la manière dont notre corps fonctionne. » 

A propos de l’Institut Laue-Langevin (ILL) : c’est un centre de recherche international basé à Grenoble. Il est le leader mondial dans le domaine des sciences et des technologies de diffusion des neutrons depuis près de 40 ans.

Des fûts de déchets radioactifs belges endommagés

Electrabel, filiale de GDF Suez, est embarrassée.  L’office national belge des déchets radioactifs et des matières fissiles a découvert 42 fûts de déchets radioactifs recouverts d’une substance gélatineuse inconnue et surtout indésirable. Ces fûts font partie des 7300 stockés à Dessel, en Belgique, ces trente dernières années. Une découverte intrigante, d’autant qu’Electrabel peine à la justifier. Son explication sur une réaction chimique de type alacli-silice qui serait survenue dans le béton reste de l’ordre de l’hypothétique. Une tentative d’explication toutefois plausible, les déchets des deux centrales belges Doel et Tihange étant mélangés à du béton et du ciment avant d’être stockés dans des fûts métalliques de 400L. Mais les agences officielles jouent la prudence et n’ont encore officialisé aucune version. D’autant que si celle-ci se vérifie, il restera à expliquer pourquoi une telle réaction, effectivement attendue au bout de plusieurs décennies, est survenue beaucoup plus tôt. Que le peuple belge se rassure tout de même, la matrice en béton serait toujours étanche et ne souffrirait d’aucune fuite. 

Ces derniers évènements alimentent les hésitations de la Belgique face à l’énergie nucléaire, et la problématique du traitement des déchets par stockage. Le gouvernement doit en ce moment même se prononcer en faveur d’un plan de stockage en sous-sol des déchets radioactifs à 200m de profondeur. La mise au jour d’une dégradation des fûts pourrait relancer les débats…

Par Audrey Loubens, journaliste scientifique

La plateforme publique de recherche doit assurer l’avenir de l’acier français

« Garantir l’indépendance de la sidérurgie française », telle est l’ambition du centre public de recherche pour la sidérurgie française d’après le Président de la République. Annoncée lors de sa visite à Florange le 26 septembre, cette plateforme R&D verra physiquement le jour dans la vallée de la Fensch, sur le site de l’Institut de recherche et technologique de Metz, courant 2014. Ce centre doit garantir que les découvertes françaises et brevets resteront dans le giron de la France. Ce qui n’est pas le cas pour les brevets déposés par la plateforme de recherche d’ArcelorMittal. Par exemple, l’acier Usibor, un acier allégé destiné à l’automobile, est à l’usage exclusif d’ArcelorMittal. En cas de revente du site, les outils restent mais le brevet part avec Mittal. Une perspective peu réjouissante. François Hollande souhaite mettre un terme à cet avantage qui avait d’ailleurs été une motivation importante pour Mittal dans le rachat de Florange. Le rapport sur La filière Acier en France et l’avenir du site Florange  remis en Juillet 2012 soulignait déjà que le centre de recherche de Maizières-lès-Metz qui emploi plus de 500 personnes était « le plus important centre de R&D du groupe.  […] probablement l’une des principales raisons de l’intérêt de Mittal pour la reprise d’Arcelor. ». Ce centre travaille sur une dizaine de projets d’optimisation des produits existants et sur quelques produits innovants. 

Pour se prémunir de la perte des résultats de la recherche française, François Hollande a annoncé que 20 millions d’euros seraient débloqués via les investissements d’avenir pour ce centre qui « n’est pas un centre de recherche de plus » a tenté de rassurer le Président de la République. L’aide financière pourrait même se monter à 50 millions, sous condition qu’il y ait des projets portés par des industriels. 

« Je crois en la sidérurgie comme filière d’avenir, en la Lorraine » n’a cessé de marteler François Hollande. Mais concrètement, en quoi consiste l’acier de demain ? Quelles directions prendra cette recherche pour une sidérurgie de pointe ? Après l’abandon du projet ULCOS sur l’enfouissement du CO2, la question mérite d’être posée. Problème, le Ministère du redressement productif n’en sait rien et du côté du Ministère de l’enseignement supérieur et de la recherche, aucune information ne leur a été communiquée. A se demander comment ont été chiffrés les 20 millions d’euros alloués à ce projet…

Par Audrey Loubens, journaliste scientifique

Les véhicules de demain alimentés par des carburants liquides… provenant de l’énergie du vent et du soleil !

On le savait déjà: l’éolien et le solaire photovoltaïque vont jouer un rôle majeur dans le mix électrique de demain, éliminant progressivement les énergies non durables. En 2012, l’Allemagne a produit plus du quart de son électricité à partir des énergies renouvelables, dont 8,5% avec l’éolien et 5,3% avec le solaire photovoltaïque. Un pays comme le Danemark, dont la densité de population est pourtant supérieure à celle de la France produit aujourd’hui 33,7% (50% dès 2020) de son électricité à partir de l’éolien d’après l’Agence Internationale de l’Energie.  

Mais ces deux filières renouvelables vont probablement alimenter également les transports, au point d’éliminer d’une part les carburants fossiles et d’autre part  les agrocarburants fortement consommateurs en surfaces agricoles et dont le bilan hydrique et environnemental laisse à désirer. 

Comment ? Pas seulement avec leur production électrique chargeant des batteries de voitures électriques, mais grâce à la synthèse de carburants liquides par électrolyse de l’eau en dihydrogène puis méthanation. Il est alors possible d’obtenir des carburants de synthèse, particulièrement propres, pour remplacer les carburants pétroliers et les agrocarburants actuels.

Solar Impulse 

La méthanation n’a rien à voir avec la méthanisation qui permet d’obtenir par fermentation le biogaz. Il s’agit  d’un procédé industriel de conversion catalytique du dihydrogène (H2) et du dioxyde de carbone (CO2) en méthane (CH4) et en eau (H20). 

Le méthane obtenu (ainsi que le dihydrogène) permet l’obtention de carburants pour les avions, les bateaux, les camions et les voitures. Ainsi, conformément à la parabole « Solar Impulse » de Bertrand Piccard, les avions nous transporterons demain avec l’énergie solaire et éolienne.

 « Nous considérons que l’électricité proviendra en grande majorité par l’éolien et le solaire photovoltaïque. L’hydroélectricité et la géothermie contribueront dans une moindre proportion » soulignent les auteurs du rapport de l’UBA, affirmant que l’Allemagne peut tout à fait produire 3000 TWh par an d’électricité à partir des énergies renouvelables, et qu’elle peut aussi importer de l’électricité d’origine renouvelable. « Nous n’avons pas besoin du nucléaire et de la séquestration du carbone » Un point de vue pas partagé par tout le monde en Europe, et en particulier en France. 

La décroissance n’est pas nécessaire

Il n’est pas utile de faire de grands sacrifices et d’opter pour la décroissance économique insistent les auteurs qui montrent qu’une Allemagne presque neutre en gaz à effet de serre est possible: « en 2050, l’Allemagne sera encore un pays industriel hautement développé qui aura maintenu ses standards de niveau de vie, avec une consommation et des comportements similaires à ceux d’aujourd’hui. » 

Les auteurs du rapport estiment que les  grands pays industrialisés peuvent aussi, comme l’Allemagne, réduire les émissions de  CO2 de 95% d’ici 2050.

> Télécharger le rapport « Germany 2050 : a greenhouse gas-neutral Country »

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

 

Dispositifs anti-ondes, vraie protection ou vraie arnaque ?

La méfiance vis-à-vis des radiofréquences reste forte et l’explosion des personnes dites « electro-sensibles » a donné des idées à certains. C’est ainsi que l’on voit fleurir des dispositifs censés nous protéger des ondes. Parmi les solutions les plus en vogue, le patch séduit de plus en plus. Petit, pratique et pas trop cher, quelques dizaines d’euros,  ces patchs à placer à l’arrière de son téléphone portable promettent d’absorber les ondes émises. Certains d’entre eux promettent même jusqu’à 99% de réduction du DAS. Le DAS, ou Débit d’absorption spécifique, est un marqueur de l’énergie dégagée par le rayonnement électromagnétique  auquel est soumis l’utilisateur de l’appareil. Des performances en partie confirmées par les tests de l’Anses. 

Parmi les 13 dispositifs anti-ondes, 11 patchs et 2 pastilles à coller. Les dispositifs de type étui de protection conduisent effectivement à une diminution allant de 71,56% à 99,53% du DAS ! En revanche, les dispositifs anti-ondes à positionner sur la batterie ou directement sur le téléphone ne montrent qu’une réduction de quelques pourcents.  Enfin, les systèmes à placer près de l’antenne permettent une réduction du DAS entre 8% et 76% environ. 

Le principe est de coller du métal au dos du téléphone. « Cela modifie l’antenne. Il est alors possible de diminuer le DAS car l’antenne n’est plus adaptée à son environnement, elle n’est plus apte à délivrer toute la puissance initiale. » explique Olivier Merckel, de l’ANSES.

De quoi confirmer les dispositifs dans leur utilité. Oui mais, il y a un mais ! En effet, en contrepartie de la diminution du DAS, la capacité de réception de l’appareil s’en retrouve très limitée, «[…] rendant difficile voire impossible la réception des appels » précise le rapport. En fait, l’appareil se retrouvant avec une  puissance diminuée, il n’est plus capable de fonctionner correctement et émet plus fort pour tenter de maintenir la liaison avec les antennes-relais. Tout le contraire de l’effet recherché. De plus, cela vide la batterie, déjà rapide à se décharger pour les Smartphones.

La conclusion de l’Anses est claire : « aucun effet probant de ces dispositifs sans une altération des performances du téléphone mobile. Au contraire, les protections qui modifient les performances radioélectriques des téléphones mobiles, en dégradant par exemple les capacités de réception, risquent, dans des conditions d’utilisation réelles, d’augmenter le niveau d’exposition de l’utilisateur. »

Par Audrey Loubens, journaliste scientifique

Et aussi en
formation :

  • Formation Initiation aux réseaux mobiles

Shiyan-7, le satellite chinois qui fait polémique

La Chine poursuit son champ d’expérimentation spatial en envoyant toujours plus de satellites. En septembre dernier, elle lançait en orbite le Fengyun-III et le Kuaizhou I dont la mission est de surveiller et prévenir les catastrophes naturelles par l’observation météorologique et ainsi informer le Centre national de télédétection chinois. 

Ici, dans l’affaire des satellites dits d’expérimentation, l’objectif poursuivi semble plus flou. Un communiqué chinois affirme que « ces trois satellites sont utilisés pour l’observation des débris spatiaux et la réalisation d’expériences scientifiques dans les techniques d’entretien de l’espace ». Chuangxin-3, Shiyan-7, et Shijian-15 seraient donc des satellites ménagers.

Mais ce qui inquiète les États-Unis provient de Shiyan-7 et des bras articulés dont il dispose. En effet, muni de bras mécaniques, il serait apte à attirer dans son sillage, voire de capturer un autre satellite. Utilisé à mauvais escient, il se révélerait donc être une arme efficace dans l’espace. C’est la raison pour laquelle certains experts, se questionnant sur l’usage de ces satellites, se sont permis de supposer qu’ils pourraient faire partie d’un programme d’armement anti-satellites.

Souvenez-vous en 2007, la Chine avait déjà effectué un test ASAT (anti-satellite) sur l’un de ses propres satellites. La mission, conclut alors par la destruction du satellite Fengyun 1C, avait relancé le débat d’un code de conduite internationale de l’espace car plus de 3 000 débris résultant de l’explosion souillaient une zone orbitale terrestre assez fréquentée.

Qui plus est, l’observation de Shiyan-7 a révélé un comportement étonnant a relaté Marcia Smith, analyste de la politique spatiale et fondatrice et rédacteur en chef de SpacePolicyOnline.com. Le satellite a subi une suite de changements orbitaux qui l’a fait s’approcher tour à tour de Chuangxin-3 puis de Shijian 7, lancé en 2005.

Une manoeuvre peu courante dans l’espace qui paraît encore assez mystérieuse. 

Comme vous pouvez le constater, l’heure est à la spéculation et non à l’affirmation. Rien ne permet d’affirmer s’il s’agit d’une réelle menace, ou simplement d’un projet de collecte de débris spatiaux.

Par Sébastien Tribot

La bataille est enclenchée sur la distribution de l’e-cigarette

Un buraliste français en colère, et c’est tout le réseau de distribution de l’e-cigarette qui est remis en question.

Lundi 28 octobre, la justice française a examiné la plainte d’un buraliste contre son voisin spécialisé dans la vente de cigarette électronique.  La décision a été mise en délibéré jusqu’au 9 décembre par le tribunal de Commerce.

Le plaignant, propriétaire d’un bureau de tabac dans la banlieue de Toulouse, dénonce notamment une «concurrence déloyale» du vendeur d’e-cigarette.

Il affirme que ce nouveau produit peut être considéré comme un dérivé du tabac et relève donc du monopole de la distribution réservée aux buralistes en France.

Derrière ce conflit entre deux commerçants, la question de la distribution de l’e-cigarette en France qui est mis sur la table.

Produit dérivé du tabac ou produit de consommation courante, la loi française n’a pas encore tranché le débat. Et ce vide juridique a permis à ce marché florissant de se développer librement.

 » Selon l’article 554 du Code des impôts, les cigarettes et produits à fumer, même s’ils ne contiennent pas de tabac sont assimilés aux tabacs manufacturés et relèvent donc du monopole de distribution des buralistes » estime Bertrand Desarnauts, l’avocat du buraliste. 

Reste que le texte de loi date de 1983, soit bien avant l’invention et la mise sur le marché de l’e-cigarette.

Publicité illégale

Autre doléance, la boutique d’e-cigarette « ne respecte pas la législation en matière de publicité » souligne Bertrand Desarnauts. 

En France, la publicité sur le tabac et ses produits dérivés est interdite.

En vertu de la loi « Evin » de lutte contre le tabagisme, toute forme de publicité directe ou indirecte en faveur du tabac est proscrite. Et tout produit du tabac ou qui valorise le fait de fumer tombe dans le champ d’application de cette loi.

Nouvelle addiction ou remède à la dépendance au tabac, la question de la légalité de l’e-cigarette sur le plan publicitaire reste difficile à déterminer, puisqu’elle ne dispose pas d’existence légale en tant que telle dans les textes de loi. 

La Ministre de la santé, Marisol Touraine, a promis à plusieurs reprises cette années d’interdire la publicité en faveur de ce nouveau produit. Pour l’heure, ses promesses sont restées lettre morte.

Un secteur sans encadrement législatif

Aujourd’hui, le dynamisme de l’e-cigarette attise les convoitises.  En 2013, le marché devrait représenter environ 200 millions d’euros selon l’Office français du tabagisme. Une manne dont profitent les multiples boutiques spécialisées sur ce produit, mais aussi les buralistes qui ont ajouté les e-cigarettes sur leurs présentoirs.

 » 70% de notre réseau offre d’ores et déjà les cigarettes électroniques à la vente  » observe Jean-Luc Renaud, secrétaire général de la confédération des buralistes, qui compte quelques 27 000 membres en France.

Si le bras de fer est engagé entre les deux réseaux de distribution, c’est que l’e-cigarette représente aussi une marge commerciale importante.

Les produits du tabac sont taxés à hauteur de 80% environ de leur prix de vente. L’e-cigarette, pour l’heure considérée comme un produit de consommation courante, est soumise à la seule TVA (19,6% en France).

Pour Jean-Luc Renaud de la confédération des buralistes, la cigarette électronique à vocation à être vendue exclusivement chez les buralistes. « Nous tenons à ce que la vente de la cigarette électronique se fasse dans le cadre exclusif du réseau des buralistes » affirme-t-il.

La directive européenne en cours de négociation

Au niveau européen, la France n’est pas le seul pays à posséder un monopole d’État pour la vente des produits du tabac. C’est également le cas de la Suède ou du Danemark.

Un projet de directive tabac a été adopté le 8 octobre par le Parlement européen. Il prévoit entre autres un meilleur encadrement de l’e-cigarette.

Si le Parlement européen s’est prononcé en majorité pour que la cigarette électronique ne soit pas considérée comme un médicament, il ne s’est pas prononcé sur le mode de distribution du produit.

Le feu vert donné par le Parlement européen ouvre maintenant la voie aux négociations avec les représentants des 28 Etats membres.

Le Parlement européen dispose d’un mandat de négociation avec les représentants des gouvernements européens et espère obtenir un accord avant les élections européennes de mai 2014.  Une fois la directive promulguée, les États membres auront alors 18 mois pour la transposer en droit national.

 

PROCHAINES ÉTAPES : 

9 décembre 2013: Décision du tribunal de Commerce de Toulouse sur la plainte du buraliste contre le vendeur de cigarettes électroniques pour concurrence déloyale.

 

Source : Euractiv.fr

L’X-37B : la mystérieuse navette spatiale américaine

L’X-37B est né en 1999 d’une collaboration entre Boeing et la Nasa dans le but de créer un véhicule d’essai orbital à la fois fiable et présentant des caractéristique propices à l’accès à l’espace; à savoir une plus grande flexibilité grâce à des dimensions et une masse revues à la baisse ainsi qu’un coût par mission amoindri.

Cela fait trois ans maintenant que les américains expérimentent cette navette spatiale autonome capable de rentrer et sortir de l’orbite par ses propres moyens, comprenez sans qu’aucune intervention humaine n’ait lieu. On en est à la troisième mission du genre, après OTV1 (Orbital Test Vehicule), OTV-2 et désormais OTV-3.

La nature de la mission, officiellement appelée USA-240, demeure mystérieuse et ce malgré les quelques mois passés la-haut. On ne saurait donc dire quelles sont les motivations de l’X-37B; test du matériel en condition réel où espionnage.

Tout ce que l’on peut dire, selon la source space.com, c’est que la mission « est top secrète et est en cours ».

Quelques détails sur l’avion spatial :

  • Dimensions : 8,9 mètres de haut  pour 4,5 mètres d’envergure.
  • Poids : 5,6 tonnes au décollage.
  • 3 voyages effectués depuis 2010 : le premier a duré 225 jours,,le second 469 jours et le dernier au moins cinq mois.

Par Sébastien Tribot

Les gaz d’échappement plus dangereux que la voiture elle-même

34 000 contre 53 000. C’est le nombre de tués sur la route et le nombre de morts liés à la pollution des gaz d’échappements. Force est de constater que les gaz rejetés par les voitures sont bien plus mortels que les conducteurs. L’étude du MIT qui révèle ces chiffres inattendus est-elle aussi valide en France ? Pas exactement. La mortalité sur les routes a chuté à environ 4000 morts annuels, tandis que les décès imputables à la seule pollution automobile sont estimés à 3 à 6000, soit le même ordre de grandeur. Il est toutefois délicat de chiffrer les morts liés aux seules particules émises par les gaz d’échappement. On sait que la pollution atmosphérique globale tue entre 20 000 et 40 000 personnes chaque année, mais comment connaître celles qui relèvent exclusivement des véhicules ?

Les décès liés aux échappements sont souvent des aggravations d’une pathologie existante. Les polluants inhalés provoquent des phénomènes inflammatoires ou développent les plaques d’athérome, favorisant les maladies cardiaques. Il s’agit donc plutôt de personnes âgées ou fragiles, tandis que les victimes d’accidents de la route sont jeunes. De plus, l’influence de la pollution se ressent sur du long terme. Les personnes les plus exposées étant celles vivant près des axes routiers. Difficultés respiratoires, asthme, troubles de la circulation sanguine et de la tension artérielle, autant d’effets connus. Plus récemment, le Centre international de recherche sur le cancer a publié un rapport ajoutant le cancer des poumons à cette triste liste, l’identifiant comme une maladie que les particules diesel favorisent.

Comment se protéger ? Parmi les solutions préconisées il y a le renouvellement du parc automobile vieillissant et la diminution du trafic routier. Des voitures moins polluantes, plus de véhicules électriques, du covoiturage, le développement des transports en commun… Des pratiques déjà encouragées dans certaines villes mais dont l’impact reste timide.

Il ne reste plus qu’à déménager !

Par Audrey Loubens, journaliste scientifique

REACH : l’actualité d’octobre (2/2)

Réunion du Comité des produits biocides

11/10/2013

Le comité des produits biocides (BPC) s’est réuni pour la troisième fois les 9 et 10 octobre. Le BPC s’est mis d’accord sur les procédures de travail et un programme de travail provisoire pour 2014-2016. 

Le BPC est maintenant prêt à traiter ses premiers cas.

Evaluation des dossiers : nouvelles fiches d’information

15/10/2013

Le process d’évaluation des dossiers dans le cadre de REACH couvre les contrôles de conformité et les examens des propositions d’essai. Les deux processus peuvent conduire à des décisions de l’ECHA pour des demandes d’informations complémentaires pour les déclarants. Dans le suivi de ces décisions, l’ECHA évalue si les déclarants fournissent les informations demandées dans le délai fixé par la décision et si cette nouvelle information devrait conduire à de nouvelles actions. Une nouvelle fiche d’information a été publiée pour clarifier cette phase de suivi.

Appel à contribution pour la substitution du DecaBDE

16/10/2013

L’ECHA demande des informations pour identifier les utilisations du DécabromodiphénylétherDecaBDE où la substitution peut être difficile ou lorsque les entreprises ont besoin de temps supplémentaire pour effectuer la substitution. L’information sera utilisée dans l’évaluation de la faisabilité des alternatives à la préparation d’un dossier de restriction (annexe XV).

L’ECHA a l’intention de soumettre le dossier de restriction du DecaBDE pour le 1er Août 2014.

Rapport publié sur les méthodes employées dans l’évaluation des risques environnementaux des substances pétrolières

21/10/2013

Le rapport d’une étude que l’ECHA a commandé a été publié sur le site web de l’ECHA : « Examen critique des méthodes écologiques et physico-chimiques couramment utilisés dans l’évaluation des risques environnementaux des substances pétrolières dans le cadre de la règlementation REACH ». 

Nouvelle consultation pour éviter les tests sur les animaux

21/10/2013

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Quatre consultations sont lancées. Les informations relatives à ces substances sont à soumettre pour le 5 décembre prochain.

Consultation publique pour des classifications et étiquetages harmonisés

29/10/2013

L’ECHA a lancé une nouvelle consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances : 2-(4-tert-butylbenzyl)propionaldehyde (N° CAS : 80-54-6 et N° CE : 201-289-8) et du méthanol (N° CAS : 67-56-1 et N° CE : 200-659-6). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 13 décembre 2013.

 
Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Impression 4D : quand l’objet devient intelligent

Toutes les possibilités de l’impression 3D n’ont pas encore été explorées que l’impression 4D pointe déjà le bout de son nez. L’armée américaine est sur le coup.

Les chercheurs vont-ils plus vite que la musique ? Alors que nous n’avons pas eu le temps d’intégrer l’impression 3D de manière automatique dans notre quotidien, voilà que la petite soeur est à l’étude. Même que l’armée américaine entend bien développer cette technologie émergente. Elle a offert lundi 30 septembre une bourse de 850 000 dollars (620 000 euros) à une équipe de chercheurs venants des universités de Harvard, du Massachussets (MIT) et de Pittsburg afin de poursuivre les recherches sur le sujet.

Qu’entend-on par impression 4D ? Il s’agit toujours d’imprimer les objets en 3D (couche par couche) à la différence qu’une fois imprimés, ils auraient la capacité comme le caméléon de prendre en compte l’environnement dans lequel ils se trouvent pour s’y adapter selon les circonstances. Il s’agit donc, ni plus ni moins, de rendre les objets évolutifs par eux-mêmes.

La comparaison avec le caméléon n’était pas anodine. Il y a fort à parier que l’armée s’en serve dans le domaine du textile et particulièrement pour les tenues des soldats qui pourraient passer inaperçus – si cela est possible – quel que soit l’endroit. D’autres utilisations restent à imaginer et à développer bien entendu mais cela explique aisément le haut intérêt que porte l’armée à l’impression 4D.

D’autres usages, dans le civil cette fois-ci, ne sont pas à exclure. Quelques sites ont d’ailleurs listé quelques applications qui paraissent souvent improbables. Parmi elles, on trouve le meuble Ikea capable de se monter tout seul, les jeans auto-réparateurs, les revêtements routiers changeants selon les conditions météorologiques…

Toutefois, la déclaration de l’ingénieur en biologie Jennifer A.Lewis sur le site de l’université d’Harvard prouve que l’impression 4D demande encore du temps de recherche. Elle indiquait qu’il fallait intégrer au processus de fabrication « des fonctionnalités compliquées dans certaines parties de la structure pour les programmer de telle manière que l’objet puisse changer de forme ou adapter ses propriétés aux circonstances ».

Par Sébastien Tribot

Et aussi dans les
ressources documentaires : Systèmes radars et applications

Le polymère « Terminator » se ressoude tout seul !

Les scientifiques espagnols du CIDETEC ont réussi là où beaucoup ont échoué : ils sont parvenus à créer un polymère capable de se réparer seul, sans catalyseur et sans aucune intervention extérieure !Ils avaient déjà créé un matériau à base de silicone et de particules d’argent capable de se régénérer, mais il demandait une certaine pression pour ce faire. Trop onéreux, le procédé ne pouvait pas être utilisé dans des applications commerciales. Mais ce nouveau projet utilisant le polyuréthane, un polymère commun, change totalement la donne !

Lorsque leur polymère en question est coupé, il est capable de se ressouder de lui-même, en quelques heures dans une pièce à température normale.En deux heures, la soudure se fait à 97 % et il est possible d’étirer le morceau de polymère sans qu’il ne se déchire à l’endroit de la coupure qui n’existe plus. Leurs travaux sont publiés dans le journal Materials Horizons de la Royal Society of Chemistry.

« Le fait que des poly(urea-urethane)s avec une composition chimique et des propriétés mécaniques similaires soient déjà utilisés dans une large gamme de produits commerciaux rend ce polymère très attractif pour une mise en œuvre rapide et facile à destination d’applications industrielles concrètes. » expliquent les auteurs dans un communiqué. Les applications potentielles sont très prometteuses, puisque cette fois-ci, ce polymère peutêtre produit rapidement et en très grande quantité pour un prix dérisoire.

Le polymère Terminator permettrait d’obtenir des composés plastiques beaucoup plus robustes et durables, pour tous les objets du quotidien dans les voitures, les composants électriques ou dans les maisons. Il permettrait aussi de réparer les plastiques anciens par simple injection. On peut imaginer qu’il sera, par exemple, beaucoup plus facile de réparer de vieux pare-chocs de voiture à l’aide d’une simple injection de polymère !Les applications sont donc cette fois-ci, beaucoup plus louables que celles de Skynet dans Terminator. Ces robots tueurs seront donc plutôt pour un peu plus tard !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires : Systèmes radars et applications

Un robot « à tout faire » pour les champs de bataille !

Les robots envahissent les champs de batailles. Après les drones et les robots tueurs, voici un projet de robot terrestre polyvalent (RTP) ! « Les missions principales visées pour le RTP sont des missions de types surveillance, reconnaissance et renseignement sur des zones de grandes superficie avoisinant plusieurs dizaines de km², mais également des missions de type mule ou transport de matériels. » précise la DGA dans une demande d’information destinée à l’industrie. 

La DGA s’intéresse à la faisabilité technique et financière de ce robot et demande donc à l’industrie des informations sur les « technologies et architectures existantes pour les plates-formes robotiques capables de réaliser des missions opérationnelles variées », explique-t-elle. Concrètement, ce robot  remplacera les soldats dans ces missions dangereuses où ils sont les plus exposés au feu ennemi.

Il pourra également transporter les charges lourdes en zone de combat au service des soldats. Enfin, il pourra réaliser les tâches les plus pénibles et répétitives. Le RTP servira aussi à évaluer l’intérêt de la robotique pour d’autres missions telles que la cartographie, l’ouverture d’itinéraires et l’illumination de cible ou encore la destruction d’explosifs.

Qu’est-ce qu’un bon robot terrestre polyvalent ?

Pour devenir le meilleur robot terrestre polyvalent possible, il devra tout d’abord avoir une autonomie suffisante sur champ de bataille, ainsi qu’une fiabilité et une efficacité sans faille, quelle que soit la sévérité de l’environnement et dans le plus grand nombre d’environnements urbains et périurbains possibles. « Cela sous-entend des capacités de mobilité sur route bitumée et sur tout chemin, voire tout terrain au sein d’environnements déstructurés », précise la DGA.

Ce robot devra présenter une architecture mécanique et logicielle suffisamment ouverte, modulaire et évolutive pour pouvoir être « mis à jour » ou amélioré en continu. Sa masse idéale sera comprise entre 500 kg et 1 tonne et, en aucun cas, n’excédera  2 tonnes. 

Le RTP et son poste de contrôle commande sera transportable par route jusqu’au centre des opérations. Deux personnes, hors pilote de sécurité, contrôleront l’engin. La liaison entre le poste de contrôle et le robot sera opérationnelle sur 360 degrés. Sa portée sera de l’ordre de 3 km en milieu ouvert et de 1 km en milieu urbain.

Ce projet entretient les craintes liées à l’absence de chaîne de responsabilité claire en cas de recours à la force létale. Le plan « France robots initiatives », soutenu par Arnaud Montebourg, ministre du redressement productif, vise une réflexion sur ces questions éthiques. Il s’intéressera notamment à l’acceptabilité éthique et sociétale des robots dans les domaines de la défense et de la sécurité. Ce travail débouchera sur une charte éthique ou déontologique.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires : Systèmes radars et applications

Les imprimantes 3D au coeur des opérations militaires

L’impression 3D fait des prouesses dans tous les domaines : industrie, santé, cuisine… Celui de l’armée ne fait pas exception. Probablement influencés par la reproduction d’un pistolet constituée en grande partie de plastique par le jeune texan Cody Wilson, militant pour la libre circulation des armes à feu, les États-Unis ont bien compris l’importance et les avantages que représentent les imprimantes 3D.

Ainsi, le gouvernement américain annonçait un an plus tôt la création d’un institut d’impression 3D baptisé National Additive Manufacturing Innovation Institute  (NAMII) basé à Youngstown dans l’Ohio avec comme objectif définit de « transformer presque n’importe quel modèle numérique en un objet physique ». C’est que les États-Unis comptent bien réaliser de nombreux bénéfices en privilégiant ce procédé de fabrication aux procédés traditionnels; notamment d’un point de vue financier bien sûr mais également pour réaliser des économies d’énergie et gagner en productivité.

De fait, l’armée prévoit d’installer des imprimantes 3D dans toutes les bases principales dans les années à venir. Le centre de formation texan (Trainer Development Flight) en dispose déjà dans le but de remplacer des pièces d’avion défectueuses suite aux entraînements. Le principal intérêt est d’être autonome sur le terrain, et de ne pas faire appel à l’extérieur, démarche pouvant demander un certain temps.

Mais là ou l’apport de cette technologie est le plus frappant se situe réellement dans les perspectives nouvelles qu’elle offre. De nouvelles voies s’ouvrent en effet. Alors qu’il était autrefois impossible à imaginer, le transport de matériel par exemple ne sera peut-être plus nécessaire dans un avenir proche. Car munis seulement des matériaux requis et des plans d’impression adéquats, l’armée pourra fabriquer les équipements souhaités n’importe où et sans s’encombrer plus que ça. À cela s’ajoutent de meilleures performances concernant l’élaboration de prototypes d’objets destinés à l’usage de l’armée. Le relief propose une reproduction plus fidèle et détaillée.

Récemment, des étudiants de l’université de Virginie se sont illustrés en parvenant à recréer un drone par impression 3D et pilotable par smartphone. Dans le même ordre d’idées bien que pour une utilisation bien différente, l’élaboration de cartes en 3D apporte davantage d’éléments sur l’environnement et permet d’obtenir des informations précieuses et en peu de temps sur les terrains à parcourir. Cette technique fut utilisée lors du passage de l’ouragan katrina à la Nouvelle-Orléans. Elle a aidé les secours à mieux définir l’état des zones géographiques et ainsi mieux cibler leurs actions.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires : Systèmes radars et applications

Les radars de surveillance de Cassidian renforcent la sécurité de l’armée de l’air canadienne

Le programme de surveillance des aéroports gagné par Cassidian s’élevait à 50 millions d’euros. En tout sept radars de surveillance nouvelle génération (ASR NG) ont été livré au parc d’aéroports du Canada.

Ces radars élaborés pour des clients militaires s’avèrent plus efficaces dans le contrôle du trafic aérien, en offrant de meilleures performances dans la gestion de la navigation aérienne militaire intégrée avec celle du civil, et le guidage pendant le décollage et l’atterrissage des avions. La sécurité aérienne s’en voit donc renforcée.

Qui plus est, l’ASR NG présente l’avantage de détecter et de classifier les migrations d’oiseaux et les « petits objets volants » tels que les ULM. Les pilotes sont ainsi mis au courant des zones fréquentées et peuvent éviter ces fameuses zones.

Enfin si l’on en croit Cassidian, le radar d’avant-garde ASR NG serait pourvu d’un second radar (le MSSR 2000 I) qui pourrait identifier simultanément et de manière sûre plus de mille avions. Ce dernier serait employé à des fins d’identification des risques militaires par les forces armées de 30 pays.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires : Systèmes radars et applications

News environnement : Octobre 2013

Une carte interactive des sites de stockage de CO2 au Royaume-Uni

Dans une optique de réduction des gaz à effet de serre, et avec un mix énergétique britannique encore largement dominé par le gaz naturel et le charbon, le développement des techniques de capture et de stockage du carbone (CCS, carbon capture and storage) représentent un défi crucial pour le Royaume-Uni. Dans cette optique, plusieurs projets se sont penchés sur les différents aspects de ces techniques, depuis les centrales-pilotes équipées de processus de capture jusqu’aux méthodes et aux sites de stockage de carbone.

Sur le front du stockage, l’Energy Technology Institute (ETI, institut des technologies de l’énergie), en partenariat avec le British Geological Survey (BGS, équivalent britannique du BRGM), a mis en ligne récemment le site CO2 Stored, dont le but est de rendre disponible des données détaillées sur les sites de stockage de carbone présents sur le territoire britannique offshore.

Basé sur les résultats du projet UK CO2 Storage Appraisal Project (UKSAP, voir encadré), le site CO2 Stored présente les caractéristiques de près de 600 sites géologiques appropriés au stockage de carbone (par exemple des gisements de pétrole ou de gaz épuisés, ou des aquifères salins). Parmi les informations disponibles, on peut y trouver :

  • les données géologiques (lithologie, porosité, perméabilité, épaisseur et profondeur des formations, pression, salinité, etc.) ;
  • une estimation de la capacité de stockage ;
  • des données relatives aux risques.

Lancé en juin 2013, ce site est accessible moyennant l’obtention d’une licence, et représente le premier accomplissement d’un programme de recherche d’1 M£, pour une durée de cinq ans, entre le BGS et le Crown Estate (organisme en charge du domaine royal britannique). Par ailleurs, depuis le 12 septembre 2013, le site propose également une carte interactive des sites de stockage, rendant d’autant plus accessibles les informations pour les acteurs intéressés.

Le directeur de la Science et de la Technologie au BGS, professeur Mike Stephenson, a déclaré en juin : « Le CCS est une technologie importante dans la lutte pour la réduction du CO2 dans l’atmosphère, et un pilier de la politique énergétique britannique. Le stockage du CO2 dans les roches de la mer du Nord pourraient représenter des opportunités industrielles conséquentes dans les prochaines années, et CO2 Stored […] offre un accès à des informations sur près de 600 sites sous-terrains […]. CO2 Stored représente une étape majeure dans le développement national et international du CCS, et permettra d’aider au lancement de cette nouvelle industrie. »

L’objectif de cette base de données, rendue accessible, est de permettre d’une part d’améliorer la visibilité du Royaume-Uni dans le domaine du stockage de carbone, en communiquant les opportunités existantes pour les industriels, et, d’autre part, de faciliter la recherche dans ces technologies. Ces informations pourront notamment permettre de catalyser la réduction des coûts grâce à de meilleures connaissances des conditions de transport et de stockage nécessaire.

En savoir plus

Acidification des océans : une menace pour les Etats-Unis

L’acidification des océans est un problème majeur, lié au réchauffement climatique, qui menace la biodiversité des océans. Depuis la révolution industrielle, les océans ont absorbé un quart des émissions de CO2 liées à la combustion d’énergie fossile (2 000 milliards de tonnes). Cet effet de « puits de carbone » limite l’impact du réchauffement climatique, du moins à court terme, mais augmente considérablement l’acidité des océans, qui atteint aujourd’hui des niveaux record. Plusieurs rapports, auxquels ont contribué de nombreux scientifiques américains, publiés au cours des dernières semaines, font état des mêmes résultats inquiétants sur les conséquences de l’acidification des océans. La côte Nord-Ouest des Etats-Unis, dont une partie de l’économie dépend fortement des ressources marines, est d’ores et déjà affectée par les conséquences de l’acidification des océans et la côte Est commence également à s’en inquiéter.

Un phénomène inquiétant

Le premier volume du cinquième Rapport d’évaluation du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat), publié fin septembre, décrit précisément ce phénomène et les changements observés dans la chimie des océans. L’Ocean Health Index, publié il y a quelques semaines, témoigne également des changements en cours dans les océans, de la nécessité d’une meilleure gestion pour les protéger et de mesures plus précises sur l’acidification. Cet index rend compte chaque année de l’état des services éco-systémiques liés aux océans. Il est dirigé par Ben Halpern, directeur du Center for Marine Assessment and Planning à l’Université de Californie à Santa Babara. Le rapport se base sur 10 services écosystémiques rendus par les océans pour établir leur « état de santé » comme par exemple le stockage du carbone, la propreté des eaux, la biodiversité, la protection des côtes, les économies de bords de mer ou encore le tourisme. Cette année, les chercheurs estiment que le facteur présentant le plus grand danger est la capacité des océans à répondre à nos besoins alimentaires. Enfin, la semaine dernière, State of the Ocean, une étude réalisée tous les deux ans dans le cadre du programme international sur l’état des océans, soulignait également les dangers de l’acidification croissante des océans.

Des impacts directs sur l’économie américaine

L’acidification des océans augmente aujourd’hui à un taux plus rapide qu’au cours des dernières 300 millions d’années, ce qui présente un danger majeur pour un grand nombre d’espèces. En effet, l’acidification rend plus difficile la construction des coquilles et des squelettes, à partir du carbonate de calcium (CaCO3). Aux Etats-Unis, les conséquences de l’acidification se font déjà sentir, comme le montre le reportage ci-dessous (anglais) réalisé par PBS, une chaîne nationale publique américaine, qui présente les conséquences de l’acidification des océans dans le Nord-Ouest américain, dont l’économie dépend fortement des fruits de mer, et les inquiétudes croissantes de la côte Est :

Des recherches sont nécessaires pour mieux comprendre le phénomène et évaluer son ampleur

L’acidification, la diminution de la concentration en oxygène et le réchauffement des eaux présentent un risque direct pour les coraux mais également pour les espèces qui construisent une coquille qui risque de devenir de plus en plus mince et de plus en plus fragile (comme les moules, les huîtres, les homards ou encore les crabes). Les scientifiques du laboratoire sur l’environnement marin du Pacifique de la NOAA (National Oceanic and Atmospheric Administration) ont d’ailleurs récemment observé la dissolution des coquilles de ptéropodes, présents dans le Nord-Ouest du Pacifique et dans les eaux arctiques. La NOAA travaille également sur des projections de l’acidification des océans pour étudier leur impact sur l’industrie de la pêche au crabe, particulièrement développée en Alaska. De nombreux organismes et écosystèmes dépendent également de ces espèces (oiseaux, baleines, poissons). Le cas du saumon rose est exemplaire : les ptéropodes représentent 60% de son alimentation.

La NOAA a lancé une nouvelle expédition au cours de l’été, rassemblant des chimistes et des biologistes, pour mieux comprendre les conséquences de l’acidification sur les différents organismes marins dans les eaux du Nord-Ouest des Etats-Unis.

Un prix lancé pour encourager le développement de capteurs plus performants et moins chers

S’il est clair que les océans s’acidifient de plus en plus à un niveau global, il reste de nombreuses incertitudes sur le niveau des changements selon les différentes régions et les niveaux de profondeurs. Obtenir des données plus précises permettrait de faire avancer les connaissances scientifiques et de mieux préparer les politiques de protection des océans. De nombreux tests ont été réalisés mais ils sont encore assez coûteux et difficiles.

Pour résoudre ce problème, un nouveau prix a été lancé en septembre dernier qui propose d’offrir une récompense d’un million de dollars à une équipe capable de développer un moyen de tester facilement et à moindres coûts l’acidité des océans (sans réétalonnage fréquent) et un autre million de dollars à l’équipe qui développera le détecteur le plus précis (pouvant fonctionner à plus de 3000 mètres de profondeur et capable de détecter une variation de pH de 0.002). L’objectif de ce prix est d’avoir des données sur l’acidité des océans similaires à celles que nous avons pour la température.

Le prix, qui porte le nom de son initiatrice, « Wendy Schmidt Ocean Health X PRIZE », a déjà connu un certain succès dans le secteur des océans ; par exemple en 2010, ce concours a permis le lancement d’une technologie capable d’accélérer le nettoyage des eaux de surface des océans suite à des déversements de pétrole [10]. Créé en 1995, l’ONG XPrize organise régulièrement des prix dans 5 catégories (énergie et environnement, exploration, développement sciences de la vie et apprentissage). Espérons que de nouveaux succès dans le domaine de la mesure du pH contribueront à la compréhension de l’évolution des océans, et à leur sauvegarde.

Changement climatique et communication scientifique : faire simple sans être simpliste ?

La communauté scientifique britannique est fortement impliquée dans l’étude du changement climatique, et nombre de ses chercheurs ont participé à la rédaction ou à la discussion du dernier rapport de l’International Panel for Climate Change (IPCC, ou GIEC en français) rendu public le 27 septembre 2013.

Elle a donc suivi avec intérêt sa présentation officielle, et organise de nombreuses présentations, conférences, et débats sur le sujet, au sein des universités ou dans les sociétés savantes. Ainsi la Royal Society a-t-elle tout récemment invité le co-président de l’IPCC, Thomas Stocker, à faire plusieurs présentations successivement devant des fonctionnaires britanniques, auprès d’un grand public éclairé, et lors d’un colloque scientifique intitulé « next steps in climate science ».

La communication vers le public, préoccupation traditionnelle du monde scientifique britannique, à travers notamment l’action des sociétés savantes, et activité encouragée par les pouvoirs publics, prend cependant dans ce domaine du changement climatique une connotation cruciale et délicate, compte tenu d’une part de sa complexité, et d’autre part de sa dimension de politique publique.

Sir Mark Walport, Chief Scientific Adviser auprès du gouvernement britannique, a ainsi souligné l’importance de cette communication vers une large audience, en relevant que sa fonction auprès du gouvernement était justement de faciliter cette transition du scientifique vers le politique grâce à cette communication, en décrivant les trois « lentilles » à travers lesquelles la politique publique se doit de voir le problème : réalité physique du phénomène et des risques , approche économique (prix de l’énergie, coût des dommages), et sécurité d’approvisionnement énergétique. Les risques liés au changement climatique figurent bien tout en haut de liste du National Risk Register du gouvernement, mais Sir Mark Walport a fait état de sondages auprès de la population du Royaume-Uni, qui montrent que la perception de l’importance du changement climatique diminue graduellement, tendance probablement liée au contexte économique défavorable et à l’évolution des prix de l’énergie au Royaume-Uni.

Le Science and Technology Committee de la Chambre de Communes vient également de lancer des auditions publiques sur le thème « climat : compréhension du public et ses implications politiques ». Les premières auditions ont mis l’accent sur le rôle des communautés locales et l’effet d’une communication proche du terrain, mettant en avant les impacts quotidiens et les risques sur les populations, et l’intérêt concret des économies d’énergies. Et en matière de communication grand public justement, plus les auteurs du rapport de l’IPCC sont convaincus de leurs mesures, de leurs hypothèses et de leurs modèles, plus ils apparaissent précautionneux dans la formulation de leurs résultats, peut-être échaudés par des polémiques passées et par la contradiction portée par certains climatosceptiques.

Il est vrai que le sujet est d’une telle complexité qu’il se prête mal à cette exercice de simplification. Une fois affirmée la conviction des auteurs « à 95 % » que, depuis 1950, le réchauffement climatique est « non équivoque » et « sans précédent depuis un millénaire », que l’influence humaine sur le climat est « évidente », et que la hausse des températures au cour de ces trente dernières années est « certainement » la plus forte depuis un siècle, et « probablement » depuis plus de 1 500 ans, il faut déjà comprendre que ces assertions s’appuient sur toute une série de mesures et de constatations (fonte continue des glaces, élévation accélérée du niveau de la mer, forçage radiatif total positif, dû essentiellement à l’accroissement du taux de CO2 atmosphérique, etc.) , prenant en compte les perturbations solaires et les éruptions volcaniques, le tout avec de grandes précautions méthodologiques.

Les difficultés commencent avec la modélisation (c’est bien le cumul des émissions de CO2 qui offre la plus forte corrélation avec l’évolution de la température moyenne, et c’est une des bases de modélisation des scenarios), mais aussi parce qu’il faut passer d’un raisonnement global à des conséquences régionales : par exemple, il est fait état d’une variabilité interne accrue du système, en particulier en ce qui concerne la répartition spatiale et temporelle les précipitations, ce qui est déterminant pour une bonne prise en compte des conséquences concrètes sur les pays et les individus, alors même que les modèles dits régionaux sont encore très perfectibles.

Et cela devient vraiment délicat quand on rentre dans certains détails, tels le « warming hiatus ». Ce fléchissement depuis les années 2000 de l’accroissement de la température moyenne à la surface du globe ne remet pas en cause la conviction des auteurs d’un réchauffement global, fondée sur toute une série d’autres indices que cette température moyenne. Il soulève en revanche de vraies questions scientifiques sur la compatibilité de certaines séries de données, sur la validité de certains modèles, et sur la nature même du phénomène, que l’on tente d’expliquer par une variabilité temporelle mais surtout spatiale de l’accumulation de chaleur, notamment par un possible stockage profond de la chaleur dans les océans. Ce hiatus peut évidemment donner prise à des réactions de climatosceptiques (il n’y en a pas cependant pas eu de récentes pour l’instant au Royaume-Uni, contrairement aux USA et à la France).

Plus gênant reste le fait que, même si la température moyenne de surface du globe se révèle ne pas être toujours le meilleur indicateur du bilan énergétique du climat, c’est néanmoins celui qui sert de base aux différents scenarios et aux programmes de mitigation.

Afin d’enrayer toute mauvaise interprétation ou polémique, le Science Media Centre, qui est un organisme indépendant basé à Londres destiné à faciliter l’accès et les relations entre les journalistes scientifiques de la grande presse nationale (écrite et radio/télé) et le monde scientifique, a accompagné la sortie de ce rapport de l’IPCC par l’organisation d’un briefing spécifique entre la presse scientifique et une douzaine d’experts, et par la mise sur son site d’une trentaine de réactions de scientifiques de renom venant des principales universités du pays. S’agissant plus spécifiquement du warming hiatus (ou slowdown), le Science Media centre a mis ces derniers jours sur son site une « briefing note » synthétisant d’une manière très accessible la position dominante de la communauté scientifique sur ce sujet délicat.

Il y a néanmoins quand même un risque d’affaiblissement du message général, ou de relativisation possible des enjeux par les politiques. C’est déjà un peu déjà le cas au Royaume-Uni, où le ministre de l’agriculture, de l’environnement et des affaires rurales, Owen Patterson, qui est en particulier chargé au sein du gouvernement de l’adaptation au changement climatique, a indiqué au cours d’une intervention devant la conférence annuelle du parti conservateur que le risque de changement climatique avait été exagéré. Il a déclaré être soulagé de voir que ce rapport prévoit une hausse des températures relativement modeste et déjà à moitié réalisée (sic !), et affirmé que l’humanité devrait pouvoir s’adapter dans le temps.

Les réactions de plusieurs scientifiques britanniques, certains directement impliqués dans la rédaction du rapport de l’IPCC, ont été évidemment rapides et plutôt virulentes, et d’autres membres du gouvernement ont pris des positions beaucoup plus mesurées, mais le débat politique n’est peut-être pas clos au Royaume-Uni, et cela dans un contexte d’austérité économique confirmée, et de vifs débats sur le prix de l’énergie.

Le rôle du Governmental Chief scientific Adviser dans ce dossier va donc être « probablement » assez délicat dans les prochains mois…

En savoir plus

La rédaction

Revue du web #50 : les vidéos de la semaine

Cette semaine dans la revue du Web : 

  • Wildcat, le premier robot « sans fil » de la Boston Dynamics ; 
  • Le retour d’Atlas, dernier poulain très prometteur de la même Boston Dynamics, mais pas en grande pompe ; 
  • Le mapping vidéo à son paroxysme : « Box », de Bot & Dolly ; 
  • Le gadget (inutile?) de la semaine : « Float Table », la magnifique table composée de cubes flottants ; 
  • Et en bonus : faire danser de la peinture sur un speaker, à 18 000 images par seconde.

Et aussi dans les
ressources documentaires :

 

Wildcat, le premier robot « sans fil » de la Boston Dynamics

La famille de la Boston Dynamics s’agrandit, encore et toujours. Pour débuter notre cinquantième Revue du Web, partons à la découverte du nouvel avorton des Américains, baptisé « Wildcat », ou chat sauvage en anglais. Un simple coup d’œil suffit pour remarquer que ce nouveau robot tranche avec les productions habituelles de la prolifique société américaine, déjà forte du prestige que lui accordent ses différents poulains (Alpha Dog, Big Dog, Proto PET). En effet, « Wildcat » est le premier robot entièrement autonome présenté par la Boston Dynamics, dont les rejetons sont généralement attachés à toute une série de câbles.

Le quadrupède n’a pas la prétention d’être aussi rapide que son illustre aîné sur lequel il est calqué, Cheetah – le robot à quatre pattes le plus rapide sur Terre, allant jusqu’à devancer Usain Bolt – mais il n’a pas à rougir de ses capacités, avec une vitesse de pointe atteignant presque les 26 km/h sur terrain plat. Il est également capable de négocier un virage serré, de faire des bonds, et est même en mesure d’effectuer un demi-tour comme de s’arrêter brusquement. Sous le capot, la bête dispose d’un moteur de karting à deux temps couplé à une pompe hydraulique, ainsi que d’un petit réservoir ne lui assurant pour le moment que cinq minutes d’autonomie.

 

Le retour d’Atlas, dernier poulain très prometteur de la même Boston Dynamics, mais pas en grande pompe : 

Et comme on ne chôme pas chez nos amis de la Boston Dynamics, c’est au tour d’Atlas de refaire parler de lui. Le robot humanoïde bipède anthropomorphe, conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog, a vu sa première présentation au public tourner au fiasco. L’université de Hong Kong a même dû annuler l’événement après que le robot ait perdu son équilibre pour finalement… se casser la « cheville » droite. Atlas s’était pourtant bien tiré de ses précédents tests, parvenant à se débarrasser d’un terrain constitué d’un fatras de pierres, ainsi qu’à garder son équilibre – sur une seule jambe – alors qu’un objet relativement lourd vient le percuter latéralement.

Pour rappel, Atlas marche comme un être humain, en déroulant son pied à partir du talon, laissant ses membres supérieurs libres pour manipuler son environnement. En terrain particulièrement hostile, le robot humanoïde – du haut de son mètre 87 pour 130 kilos – s’adapte et fait preuve d’une grande coordination, allant jusqu’à s’aider de ses mains pour se frayer un passage à travers les obstacles. Articulées, les mains du robot Atlas ont été développées pour pouvoir utiliser des outils initialement conçus pour l’usage des humains. Articulée elle aussi, la tête d’Atlas embarque de nombreuses caméras et un télémètre laser lui permettant de mesurer les distances (avec un mode de fonctionnement proche du sonar avec les ondes acoustiques).

Atlas – encore au stade du prototype – est développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. 

 

 

Le mapping vidéo à son paroxysme : « Box », de Bot & Dolly

A la fois déclaration artistique et formidable démonstration technique, « Box » de Bot & Dolly est un bel exemple de ce qui se fait de mieux à l’heure actuelle en mapping vidéo, une technologie permettant de projeter de la lumière, des images ou des vidéos sur des surfaces planes ou sur des volumes. En guise d’avertissement en début de vidéo, deux phrases laconiques rappelant que le contenu est la capture live d’une performance par une seule et unique caméra, que les images n’ont pas été retouchées et que les effets n’ont pas été ajoutés en postproduction.

Divisé en cinq chapitres suintant une douce poésie, « Box » est rendue possible par le tracking des surfaces planes sur lesquelles sont projetées les vidéos, chacune de ces surfaces étant mise en mouvement par un bras robotique articulé. Véritable tour de force mêlant multiples technologies – robotique, mapping vidéo et génie logiciel – la vidéo de Bot & Dolly nous laisse imaginer un potentiel incroyable pouvant révolutionner de nombreux domaines.

Bot & Dolly font partie du collectif d’artistes « The Creators Project ».

 

 

Vous pouvez aussi jeter un œil au making-of de « Box » ci-dessous :

 

 

Le gadget (inutile?) de la semaine : « Float Table », la magnifique table composée de cubes flottants

Le gadget (inutile?) de la semaine ne viendra pas révolutionner le petit univers du meuble de maison, mais il faudrait être de mauvaise foi pour ne pas lui reconnaître une touche, un certain charme liée à sa disposition aussi surprenante que… capricieuse. « Float Table », conçue par les New-yorkais de RockPaperRobot, porte assez bien son nom : composée d’une matrice de 27 cubes de bois – formant un cube de 3 éléments sculptés de côté – semblant flotter les uns près des autres, la table se déforme de manière élastique lorsqu’une force lui est appliquée, pour se stabiliser et revenir à sa forme initiale après coup.

Rien de magique dans cette table, les concepteurs ont appliqué de la physique on ne peut plus classique à l’univers du design moderne. Chaque cube de bois contient un aimant, incitant ceux-ci à naturellement se repousser s’ils n’étaient maintenus en équilibre par un réseau de câbles de traction en acier, donnant cette impression de légèreté aux cubes qui semblent alors flotter. La table paraît rigide et stable, alors qu’un rien est capable de révéler son caractère dynamique. « Float Table » peut faire office de magnifique table d’appoint, mais reste à éviter pour un repas en famille.

 

Bonus : faire danser de la peinture sur un speaker, à 18 000 images par seconde

Terminons notre cinquantième Revue du Web avec les « Slow-Mo Guys », un peu de douceur… et quelques gouttes de peinture colorée. Derrière les « Slow-mo Guys » se cachent le réalisateur anglais Gavin Free et son ami Daniel Gruchy, deux compères rigolards prêts à se lancer dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la –  très bonne – habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti. Pour ce faire, rien de tel qu’une « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde. La jouissance primaire de la destruction couplée à la beauté des images rendent souvent ces scènes… hypnotiques.

Aujourd’hui, c’est une scène de danse envoûtante qui s’offre à nos yeux, un ballet organique dont les danseurs étoiles ne seraient que peinture colorée. La peinture s’anime dès lors que les « Slo-Mo Guys » mettent la musique en route, animant dans un premier temps le speaker puis dans le même souffle la peinture, qui prend alors son envol en dessinant des lignes aériennes et allongées allant jusqu’à évoquer la forme des psilocybes, ces fameux champignons connus pour leur effet psychotrope.

 

 

Cette vidéo n’est pas sans nous rappeler le travail du jeune réalisateur Ross Ching, qui mit en scène il y a deux ans une parodie de « symphonie pour speakers », pour la promotion du système DTS (Digital Theater System, un système de codage de son sur six canaux).

 

 

Par Moonzur Rahman

News informatique : Octobre 2013

Un logiciel détermine automatiquement l’espèce d’un échantillon grâce aux séquences d’ADN

Un groupe de chercheurs de l’école supérieure des études environnementales globales de l’Université de Kyoto a développé un logiciel de codage à barres de l’ADN pour prévenir l’étiquetage frauduleux des produits alimentaires et aider les enquêtes policières en identifiant l’origine des substances découvertes sur les scènes de crimes. Grâce à ce logiciel récemment mis au point, les utilisateurs peuvent facilement déterminer à quelle espèce appartiennent des objets vivants en s’appuyant sur les informations de leur séquence ADN. Le développement de ce logiciel a été annoncé le 18 octobre dans le journal de recherche scientifique américain Plos One.

« Les prix du thon jaune (albacore) et du thon rouge du Pacifique sont drastiquement différents. Il est néanmoins difficile même pour des experts de faire la distinction entre les deux une fois qu’ils ont été cuisinés. L’utilisation de ce logiciel permet de détecter facilement les erreurs d’étiquetage, » déclare Akifumi Tanabe qui a joué un rôle prépondérant dans le développement du logiciel. En permettant de mener ce genre de test de façon plus normalisée et abordable, sans passer par un débat d’experts, la lutte contre la fraude sera grandement facilitée. On peut ainsi penser à la fraude avec viande de cheval dans les plats cuisinés en Europe qui aurait pu être décelée plus tôt.

Le logiciel créé par les chercheurs est capable de comparer des séquences d’ADN de plantes, poissons et tout autre objet vivant avec les séquences contenues dans les bases de données d’ADN. En comparant le codage à barres de l’ADN, le logiciel détermine automatiquement de quelle espèce les objets vivants proviennent. S’il s’agit d’une nouvelle espèce ou d’une espèce non référencée, le logiciel est capable de déterminer la famille et le genre auxquels elle appartient et d’indiquer quelles espèces connues lui sont apparentées. L’accès aux banques de données d’ADN est possible au Japon, aux Etats-Unis et en Europe. Les banques rassemblent les séquences ADN de près de 288.000 espèces de tous types.

Jusqu’à ce jour, le travail qui consiste à déterminer l’espèce d’un échantillon d’être vivant dépendait en grande partie de la connaissance d’experts et de leur expérience. Compte tenu de ces limitations, des erreurs étaient possibles et les avis pouvaient diverger. Ce logiciel permet d’automatiser et de normaliser l’opération en bénéficiant des dernières connaissances scientifiques en matière de génétique.

Le Data Analytics : un enjeu stratégique pour les utilities de demain

Comme nous le décrivions dans notre Bulletin Electronique numéro 313 [1], la révolution du Big Data est en marche. La démocratisation d’internet ainsi que la multiplication des appareils connectés conduisent à un accroissement exponentiel du volume de données générées. Ainsi, 90% des données mondiales tous secteurs confondus ont été générées lors des deux dernières années [2]. Si le stockage de ce grand nombre de données et l’amélioration des réseaux de télécommunications pour faciliter leur transit constituent des défis majeurs, le véritable enjeu du Big Data réside dans l’analyse de données et dans l’identification d’actions visant à la création de valeur. Sans traitement ni analyse, les données générées et collectées par les nouvelles technologies de l’information et de la communication ne présentent que peu d’intérêt. Stocker des données, c’est bien. Mais être capable de les analyser et d’en tirer des conclusions menant à des prises de décision créatrices de valeur, c’est nettement mieux.

C’est dans cette logique qu’est apparue depuis quelques années une nouvelle discipline : le Data Analytics. Cependant, il ne s’agit pas d’une expertise scientifique totalement nouvelle. Dès l’antiquité les scientifiques grecs étudiaient les données qu’ils avaient à leur disposition (position des astres, etc.) En réalité, ce sont les technologies sous-jacentes qui ont fortement fait évoluer l’analyse de données : les technologies de stockage de données, les outils de communication, les super-ordinateurs ayant une puissance de calcul démultipliée, sans oublier les outils de visualisation.

L’analyse de données est actuellement en pleine expansion comme en témoignent les 11 milliards de dollars dépensés par IBM en acquisition d’entreprises dans ce secteur depuis 2005. La compagnie américaine fixe à 12 milliards de dollars ses objectifs de chiffre d’affaire dans ce secteur d’ici à 2015. IBM est loin d’être la seule entreprise américaine à se pencher sur la question : Oracle, SAS, Cisco proposent toutes aujourd’hui des services d’analyse de données à leurs clients [3].

Le Data Analytics est devenu une compétence stratégique permettant aux entreprises de maximiser la valeur des jeux de données qu’elles ont désormais à leur disposition. Ainsi, Aux Etats-Unis, le géant de la grande distribution, Target, est aujourd’hui en mesure, en se basant sur les paniers de consommation des femmes enceintes, d’évaluer la date de leur accouchement. Cet algorithme prédictif permet à Target de cibler les publicités à diffuser auprès ses clientes enceintes en fonction de leurs périodes de grossesse [4]. Si certains secteurs comme la vente ont déjà largement tiré partie du Data Analytics pour améliorer la profitabilité et l’efficacité de leurs activités, le secteur de l’électricité n’en est actuellement qu’à ses prémices.

Le Data Analytics s’invite dans le secteur électrique

Impulsé par une politique fédérale volontariste, le secteur électrique américain est en pleine métamorphose avec le développement du Smart Grid. Réseau électrique vieillissant ayant des impacts économiques significatifs (coupures, non qualité…), risques climatiques, lobbying des géants des NTIC, et crise économique, sont autant de facteurs qui ont incité le gouvernement Obama à investir dans la modernisation des infrastructures électriques américaines [5].

Dans le cadre de l’American Recovery and Reinvestment Act voté en 2009 par le Congrès (vaste plan de relance économique de 840 milliards de dollars faisant suite à la crise de 2008), le Département de l’Energie (U.S. DOE) a reçu une enveloppe de 4.5 milliards de dollars pour financer la rénovation du réseau électrique américain, avec un focus particulier sur le réseau de distribution [5].

Cet effort significatif a notamment servi à doter le pays de technologies d’automatisation du réseau et à déployer des infrastructures de comptage intelligent. Ainsi, 45 millions de compteurs électriques intelligents sont actuellement déployés sur le territoire américain (plusieurs Etats étant quasi totalement équipés). Tous les jours, ces compteurs génèrent à eux seuls plus d’1 milliard de données [6]. Si l’on ajoute à cela les nombreuses données créées par les différents instruments de mesure positionnés sur le réseau électrique (capteurs de tension, dispositifs d’évaluation de la sûreté du système électrique – WAMS [7], etc.), il ne fait aucun doute que le Big Data est aujourd’hui une problématique à laquelle sont quotidiennement confrontées les utilities. Pour preuve, PG&E collecte tous les mois 2 Tera-Bytes de données issues de son réseau électrique.

Ainsi, l’analyse de données est un sujet en pleine expansion dans le secteur de l’énergie : les investissements que lui consacrent les utilities affichent un taux de croissance annuel de 18%. Le nombre de conférences dédiées à cette thématique ainsi que le lobbying croissant des géants de l’IT autour du Data Analytics sont un autre indice probant de l’intérêt grandissant des utilities à son égard. A titre d’exemple, PG&E a accueilli la semaine dernière la conférence Softgrid, organisée par Green Tech Media [8].

Nous pouvons actuellement distinguer deux grandes catégories d’applications du Data Analytics : celles de type « réseau » et celles de type « client ».

Les applications les plus répandues sont notamment celles visant à rapidement détecter des coupures de clientèle dues à des incidents (courts circuits…) ou à des pannes du réseau de distribution. On peut ainsi combiner des informations provenant des compteurs intelligents (manque de tension, par exemple), avec des informations topologiques et géographiques sur le réseau électrique, pour en déduire très rapidement l’occurrence d’une coupure de courant dans une zone donnée.

Les applications dédiées à la gestion des actifs du réseau électrique (ce que l’on appelle communément ‘asset management’) sont également nombreuses : par exemple, évaluer la charge de transformateurs du réseau de distribution et leur état de santé, en utilisant des données issues de l’infrastructure de comptage intelligent (pour calculer le niveau de charge du transformateur alimentant une partie du réseau), mais également des capteurs dédiés mesurant par exemple la température de la cuve du transformateur, le niveau de ses vibrations…

D’autres applications concernent ce qu’il est convenu d’appeler le ‘revenue protection’, qui fait référence à l’évaluation de deux éléments : les défaillances techniques de la chaine de comptage de l’énergie (erreurs de mesure…) et les subtilisations d’énergie (raccordements illicites sur le réseau). Ces applications sont également basées sur des mesures de l’énergie qui transite entre différents points du réseau. L’application d’algorithmes permet donc d’isoler les pertes techniques (naturelles lorsqu’on transporte de l’énergie électrique dans un réseau), des pertes dites non-techniques (subtilisations, erreurs de mesure…) Il devient donc assez facile d’identifier les endroits où de l’énergie est subtilisée.

Mais les applications du data analytics pour les utilities ne s’arrêtent pas là et l’imagination est de mise chez certains vendors, chez les chercheurs et chez des utilities qui associent également aux données des compteurs intelligents des informations météorologiques ou la position géographique de leur équipes sur le terrain. De nombreux progrès sont également réalisés du côté des outils mobiles de visualisation pour les opérateurs de terrain (tablettes avec systèmes de réalité augmentée, par exemple), via l’utilisation de systèmes laser mobiles (LIDAR) équipant des véhicules et pouvant rapidement identifier la nature et la position des équipements du réseau de distribution, ou encore l’utilisation de drones pour évaluer les dégâts et réparations à effectuer sur le réseau après le passage d’une tempête. Certaines applications du Data Analytics permettent donc d’améliorer la résilience du réseau électrique.

De plus en plus de utilities américaines s’impliquent dans l’évaluation de ces techniques de Data Analytics, la plupart du temps en implémentant tout ou partie des solutions proposées par les nombreux vendors présents sur ce marché. On citera par exemple PG&E qui utilise le Data Analytics pour faire de l’asset management de ses ouvrages de distribution et qui évalue actuellement avec C3-Energy diverses autres fonctions d’optimisation de son système électrique, Exelon / PECO qui teste des techniques de contrôle de tension sur le réseau de distribution et de détection d’incidents en utilisant, entre autres, des données issues des infrastructures de comptage intelligent, SMUD, à Sacramento, qui évalue actuellement les bénéfices de technologies de revenue protection…

Les applications du data analytics pour la clientèle sont également nombreuses. Elles vont de la décomposition de courbes de charges (identification des différentes charges individuelles derrière un compteur en analysant la signature de la demande électrique), la personnalisation d’offres commerciales (la connaissance plus précise du profil de consommation du client permet de mieux cibler les offres qu’il peut recevoir de son fournisseur d’énergie), l’évaluation d’impact de mesures d’efficacité énergétique, ou encore l’évaluation du comportement des clients après mise en place (ou les tests) d’un nouveau tarif de fourniture d’énergie (la mesure des réponses peut donc devenir précise, et non plus agrégée). On notera que les investissements totaux des utilities américaines, cumulés d’ici à 2020, dédiés à l’exploitation des données clients sont chiffrés à 7 milliards de dollars.

Le data analytics est donc vu par un nombre croissant de utilities américaines comme une opportunité permettant l’optimisation du système électrique, la réduction de ses coûts, le management de certains risques, et le développement de la relation avec le client incluant l’émergence de nouveaux services.

Dans cette mouvance vers le Data Analytics, EPRI a lancé cette année un ambitieux programme de recherche et de démonstration sur ce thème. Ce programme vise à rassembler une quinzaine de utilities américaines, asiatiques et européennes, impliquées dans la conception et les tests de fonctions de Data Analytics, notamment pour des applications réseau. Ce programme permettra de partager résultats et retours d’expérience, en confirmant les utilisations présentant le plus d’intérêt pour les utilities et leurs clients.

Tout ne sera pas résolu en un jour car l’implémentation de technologies de Data Analytics nécessite un travail sur les données en elles-mêmes (précision, qualité, attributs particuliers : certaines données doivent être absolument sûres et non modifiables, car elles servent à des fonctions critiques pour l’exploitation du système électrique, etc). Le stockage de ces données nécessite aussi une attention toute particulière, ainsi que des technologies adaptées (data historian systems). Le traitement et la visualisation des données sont également des sujets en cours d’évolution.

Le Data Analytics peut être aussi affaire de spécialistes : des Data Architects pour concevoir les systèmes d’information, des Data Scientists pour exploiter ces données et révéler leur valeur, etc. En fait, le Data Analytics est en train de devenir un domaine stratégique pour les utilities, car il s’agit bien ici d’applications et de connaissances coeur de métier. Tout ceci doit donc être mené en ayant conscience que les utilities ont un rôle majeur à jouer dans ce domaine.

L’innovation et l’imagination sont de mise dans ce secteur en croissance rapide, et nul doute que les années qui viennent démontreront la valeur importante de plusieurs de ces applications pour le secteur électrique.

Lancement d’un projet sur la sécurité du cloud

Le Secrétaire d’Etat à l’économie Steffen Saebisch a remis, le 10 septembre 2013, un financement de 580.000 euros aux partenaires du projet CIRECS (« Center for Industrial Research in Cloud Security »). Mené par l’Institut Fraunhofer pour les technologies d’information sécurisées (SIT – Darmstadt, Hesse) et la « House of IT », ce projet nouvellement lancé vise à développer des solutions sécurisées pour le cloud et à soutenir sa mise en place dans les PME du Land de Hesse.
 
De manière générale, le principal argument formulé contre l’usage du cloud computing concerne la sécurité des données. Des doutes peuvent en effet exister sur la localisation du serveur de stockage des données, de la juridiction qui s’y applique alors, et de la possibilité éventuelle de fuites suite à des attaques extérieures. Ce projet va répondre aux besoins des PME, afin de leur permettre d’accéder à cet outil en leur proposant des produits adaptés. « Nous voyons déjà un changement radical du paysage des TIC avec l’arrivée du cloud computing », indique Michael Waidner, directeur du SIT. « Avec le projet CIRECS, nous souhaitons amener les entreprises du Land de Hesse à plus de flexibilité et à maintenir une position concurrentielle à long terme, et ce grâce aux services du cloud. »
 
Le SIT, fort de 160 employés, traite de recherche appliquée dans le domaine des technologies de la sécurité. La structure « House of IT » travaille au transfert de technologie et crée des ponts entre les acteurs des TIC en Hesse. « Notre structure est une sorte de médiateur entre la science et l’industrie. C’est ce rôle que nous allons également assumer dans le projet CIRECS, afin de contribuer à l’émergence du Land en tant que pôle majeur des TIC en Allemagne et en Europe », explique Gunther Ruppel, membre du bureau de « House of IT ».
 
Le projet a été cofinancé par le Land de Hesse et le Fonds européen de développement régional (FEDER).

L’abondance des énergies fossiles masque le potentiel des énergies renouvelables

« Aujourd’hui, moins d’un tiers des 7 milliards d’habitants de la planète consomment les deux tiers de l’offre énergétique (…) Mais d’ici 2050, 9 milliards d’humains aspireront à une vie prospère, tirant la demande de toutes les énergies à la hausse » a rappelé Khalid Al-Falih, PDG de la compagnie pétrolière saoudienne Saudi Aramco, à l’occasion du Congrès mondial de l’énergie qui a commencé le 14 octobre 2013 en Corée du sud.

Soulignant l’intérêt des énergies renouvelables et de l’efficacité énergétique il a aussi affirmé sans tabou que le monde dispose de ressources en charbon, pétrole et gaz « abondantes » du fait notamment des nouvelles technologies d’extraction des combustibles, notamment dans le domaine des gaz et pétrole de schiste, mais aussi des ressources offshore. Khalid Al-Falih a estimé que « la révolution américaine va se propager loin et avec ampleur ». Le gaz de schiste, dont le bilan CO2 est meilleur que celui du charbon, est au cœur de la diplomatie énergie/climat de l’administration Obama. 

Abondance

Les écotechnologies Wind Water Sun (éolien, hydro, géothermie, énergies marines et solaire) sont dès à présent disponibles, mais nous sommes aujourd’hui en situation de surabondance Charbon-Pétrole-Gaz. Si le démarrage de la voiture électrique est encore timide, ce n’est pas parce que le business-model BetterPlace repris par le groupe Renault avec sa gamme ZE n’est pas pertinent, mais uniquement parce que les gens ne veulent pas, à coût égal, que l’autonomie de leur véhicule soit réduite à 160 km au lieu des 800 km de leur voiture à pétrole. Même les automobilistes les plus « écolos » y renoncent à l’heure de signer le chèque lors de l’achat d’un nouveau véhicule. Et ceci même si un réseau de station-robots échangeuses de batteries est en place, comme c’est le cas en Israël. 

Ce n’est pas la pénurie énergétique ou le manque de créativité et d’intelligence de Shaï Agassi qui a tué Better Place mais au contraire l’émergence très rapide du pétrole et gaz naturel de schiste, qui ont changé la donne à l’échelle mondiale, ce que personne ne pouvait prévoir. Better Place n’avait de sens que dans un contexte de raréfaction du pétrole et de flambée des prix du pétrole.

C’est également ce boom lié à de nouvelles technologies d’extraction des ressources énergétiques fossiles qui a tué Desertec, en plus de l’instabilité politique en Afrique du nord (« révolutions arabes ») et enfin de la prise de conscience que les ressources énergétiques renouvelables européennes sont suffisantes pour répondre à nos propres besoins.

C’est enfin le gaz de schiste qui perturbe les plans énergétiques européens : le charbon, boudé aux USA du fait de l’abondance du gaz naturel, est exporté à un prix très bas vers l’Europe, ce qui conduit à la fermeture des centrales à gaz européennes étant donné que l’Europe importe du gaz russe plus onéreux. Au final, cela a un impact sur le bilan CO2 européen, et des défenseurs du nucléaire en France en profitent et tentent faire croire que c’est intégralement la conséquence du développement des énergies renouvelables en Allemagne.

La surabondance énergétique n’est pas, en soi, une mauvaise nouvelle ! Elle signifie que les 9,5 milliards d’être humains de 2050, point culminant de la démographie mondiale avant le début d’un lent déclin, selon les démographes, pourront vivre de manière prospère. Point fondamental, comme l’ont démontré Mark Jacobson, directeur du département énergie et atmosphère de l’université Stanford  et bien d’autres scientifiques, une « Electron-Economy » (concept du physicien Ulf Bossel) reposant sur le trio 100% renouvelable Wind Water Sun peut répondre intégralement à la demande énergétique de 9.5 milliards d’êtres humains vivant selon les standards d’Europe de l’ouest. Le disque terrestre intercepte une énergie solaire équivalente à plus de 8000 fois l’énergie totale (y compris transport, chauffage, etc.) consommée par l’ensemble de l’humanité. D’un point de vue théorique, Mark Jacobson a montré que le potentiel de l’éolien terrestre, à lui tout seul, peut répondre à la totalité de cette demande. 

Une transition énergétique progressive

La transition vers l’Electron-Economy, qui se fera au rythme du déclin progressif des énergies fossiles, est un formidable levier de croissance économique. C’est le marché qui décidera de la vitesse de la transition. Encourager les ENR avec des subventions (tarifs d’achat etc.), cela va un moment, dans une première phase. Mais quand elles commencent à peser de manière significative dans le mix énergétique, alors ce n’est plus possible, la population finit par se plaindre de la hausse des prix. Ce n’est pas généralisable à l’échelle de l’ensemble des pays du monde. Les pays lancés dans cette dynamique prennent peu à peu conscience de l’impact qu’une politique trop généreuse envers les ENR peut avoir sur leur compétitivité. Une approche trop idéaliste peut s’avérer contre-productive.

Pour André Antolini, Président d’honneur du Syndicat des énergies renouvelables, les « qualités intrinsèques [des énergies renouvelables] ne font plus débat. Elles apportent deux garanties fortes à la collectivité. Elles sont garantes de la sécurité d’approvisionnement qui, dans un monde désormais contraint par la finitude des énergies traditionnelles « de cueillette », s’avère toujours plus précieuse. Et, elles limitent très objectivement l’empreinte écologique de l’homme, dont l’utilisation de plus en plus intensive des ressources naturelles à, jusqu’à présent, marqué notre histoire et risque à l’avenir d’être malheureusement plus dangereuse encore (…) »

Que les pays riches subventionnent légèrement l’éolien terrestre et les grandes centrales solaires photovoltaïques au sol dans le sud européen où le gisement solaire est abondant, centrales qui sont déjà proches de la compétitivité, est tout à fait rationnel dans le cadre de politiques visant à réduire la pollution de l’air affectant la santé humaine, la consommation d’eau douce (les centrales thermiques sont des gloutonnes en la matière) et à augmenter l’autonomie énergétique des territoires (décentralisation). « Le dernier appel d’offre relatif aux centrales photovoltaïques au sol en France a fait apparaître des projets avec un tarif d’achat inférieur à 10 centimes d’euros le kWh » souligne Guilhem De Tyssandier d’Escous, ingénieur au sein d’un groupe spécialisé dans les grands projets ENR. Les coûts du solaire PV baissent chaque année davantage. Et le tarif d’achat de l’éolien terrestre est en France de 8,6 centimes d’euros pendant 10 ans. C’est tout à fait raisonnable sur le plan économique. 

Mais faut-il subventionner massivement les petites installations photovoltaïques sur les toitures des maisons des particuliers dans le nord de l’Allemagne (installations bien plus onéreuses que les grandes centrales au sol), l’éolien maritime (deux fois plus onéreux que l’éolien terrestre) ou le nucléaire EPR (la Grande Bretagne va probablement acheter le kWh à 10,9 centimes d’euros) qui repose sur un combustible importé ? On peut s’interroger.

« Il est temps de refonder le cadre économique qui régit le développement [des énergies renouvelables]. Après une période initiale d’une dizaine d’années que l’on pourrait qualifier de « conquête de l’Ouest », époque des aventures pionnières, mais aussi des Himalaya de scepticisme, ne faut-il pas aujourd’hui revoir la méthode et engager notre pays dans un plan raisonné, optimisé et planifié de développement » interroge André Antolini, appelant à un « âge de la raison » en matière d’ENR. « Tout en apportant les services précieux qu’elles sont en mesure de fournir naturellement, elles rentreraient pleinement dans l’âge de la maturité : celui de la planification efficace, de la cohabitation possible avec le marché, de la compétitivité assumée et du développement industriel solide (…) »

Il est donc important que la puissance publique pousse à l’investissement dans la Recherche & Développement afin de faire baisser le coût des panneaux solaires et des systèmes de stockage de l’énergie. C’est exactement le message du Copenhaguen Consensus Center de l’influent danois Bjørn Lomborg, rejoint par plusieurs Prix Nobel d‘économie, et du Breakthrough Institute des intellectuels américains Ted Nordhaus et Michael Schlessinger. Investir dans la recherche pour faire baisser les coûts des écotechnologies est sans doute la meilleure façon de les rendre compatibles avec le marché mondial et d’assurer ainsi leur large expansion, de manière naturelle.

Les pays dits « du sud » ne renonceront pas à leur développement

Selon une étude de Bloomberg Energy, la Chine va ajouter jusqu’à 2030 chaque année 88 GW de nouvelles centrales électriques (soit davantage que la puissance électro-nucléaire française), dont la moitié seront renouvelables, en premier lieu hydroélectrique et éolien terrestre. La Chine investit ainsi dans les filières énergétiques qui ont du sens sur le plan économique. Au total, la puissance électrique chinoise totale va plus que doubler d’ici 2030. Sur les 1583 GW de nouvelles capacités prévues, la moitié porte sur des projets d’énergies renouvelables, qui vont attirer au total 1400 milliards de dollars d’investissements.

 « Il est difficile de sous-estimer l’influence de la consommation énergétique chinoise et de l’évolution de son mix électrique » a déclaré Michael Liebreich de Bloomberg Energy Finance à Londres. « Les impacts iront bien au-delà la Chine et auront des implications pour le reste du monde, tant au niveau du prix du charbon et du gaz qu’au niveau de la taille du marché des technologies associées aux énergies renouvelables »

La Chine importe du gaz naturel sous forme liquéfiée (LNG), ce qui est coûteux. C’est donc le charbon, disponible localement et bon marché, qui complètera le mix selon les prospectivistes. Ainsi, plus forte sera la progression des renouvelables, moins forte sera celle du charbon. « Malgré des progrès significatifs dans le domaine des énergies renouvelables,  le charbon restera dominant en 2030 » estime Jun Ying de Blomberg Energy Finance à Pékin. « Si la Chine veut réduire sa dépendance envers le charbon, elle devra intensifier ses efforts pour soutenir les énergies renouvelables, le gaz et l’efficacité énergétique » Selon les experts, les émissions de CO2 de la Chine pourraient commencer à décliner vers 2027.

Ce qui est certain c’est que les pays émergents considèrent leur droit au développement comme « un droit inaliénable ». Ils l’ont rappelé fermement lors du sommet climatique de Copenhague. De quels droits européens et américains, responsables des trois-quarts des molécules de CO2 anthropiques actuellement dans l’atmosphère, pourraient-ils oser leur faire la morale sur ce point ? Cela serait perçu, au mieux, pour de la naïveté, et au pire, pour une nouvelle forme de colonialisme. Celui de l’atmosphère.

Par Olivier Daniélo

Messieurs les ministres, la France doit sauver son industrie photovoltaïque !

La France doit sauver son industrie photovoltaïque. Alors que la transition énergétique devient une évidence partout dans le monde, cette technologie d’avenir est en passe de mettre la clef sous la porte en France sans une intervention rapide des pouvoirs publics. 

Nous parlons ici d’une filière industrielle jeune qui s’appuie sur une énergie gratuite et abondante. Une filière qui a créé 35 000 emplois en dix ans. 

De Lannion avec Sillia, à Vénissieux avec Bosch, des outils industriels performants ont vu le jour dans tout le pays, complétés par un réseau dense de PME pour assurer la logistique d’installation et de maintenance. 

Cette dynamique industrielle et énergétique est aujourd’hui au bord du gouffre, car elle n’a plus la moindre visibilité. Pour se développer un projet industriel a besoin de stabilité juridique et financière. Or, depuis trois ans, l’instabilité est la règle. Les dernières entreprises ne doivent leur survie qu’à la détermination des salariés et de leur direction. 

Conséquence directe : les cessations d’activité du secteur s’enchaînent. Plus de 15 000 emplois ont été déjà été détruits. Il faut que cette hémorragie cesse et qu’un plan volontariste de soutien du photovoltaïque se mette en place. 

C’est un profond sentiment d’incompréhension, d’abandon et de colère qui domine dans le secteur, alors que le Président de la République a encore rappelé son engagement en faveur des énergies renouvelables lors de la dernière Conférence environnementale, et que les discours se multiplient pour souligner l’importance des secteurs industriels d’avenir. 

Par cet appel nous souhaitons que les pouvoirs publics prennent la mesure de l’enjeu, et qu’en concertation avec tous les acteurs de la filière, ils établissent dans les jours qui viennent un plan de sauvetage de notre industrie photovoltaïque qui lui donne une visibilité pour les trois années à venir, et lui permettent de participer à la ré-industrialisation de notre pays. 

Signataires

Laurence Abeille, Députée – ACTENERGIES (Actions Citoyennes pour une Transition Energétique Solidaire) – Annie AGIER, Conseillère régionale – Leila AICHI, Sénatrice… 

…Eric Alauzet, Député – Brigitte Allain, Députée – Kalliopi Ango Ela, Sénatrice – Aline Archimbaud, Sénatrice – ASSOCIATION DES PRODUCTEURS D’ELECTRICITE SOLAIRE INDEPENDANTS (APESI) – Isabelle Attard, Députée – Thierry Auguste, PDG de SUNETIC – Danielle Auroi, Députée – Isabelle Autissier, présidente du WWF – Gérard Averone, gérant de VOLTAVE- Laurent Baller, gérant de WILLER ENERGIE – Anne Barbier, fondatrice de SOLEIL ENERGIE – Serge Bardy, Député – Delphine Batho, Députée – Denis Baupin, Député – Sandrine Bélier, Eurodéputée – Malika Benarab Attou, Eurodéputée – Esther Benbassa, Sénatrice – Jean-Paul Besset, Eurodéputé – Jean-Jacob Bicep, Eurodéputé – Michèle Bonneton, Députée – Roland Borghi, APIE – Emmanuelle Bouchaud, conseillère régionale – Corinne Bouchoux, sénatrice – Bruno Bourquard, gérant de ACTION 2E – Adeline Boury, PDG de APOLLON – José Bové, Eurodéputé – Odette Brach – Roch Brancour, PDG de LARIVIERE – Vivienne Breuil – Hervé Brisset, PDG de VOLT INVEST – Alain Bros, gérant de ALAINA BROS – Jean-Pierre Brun, Directeur-Associé d’ENERGIE TRANSITION – Eric Bureau, gérant de EMASOLAR – Jean-Marie Caille, gérant de SOLAIRE EN NORD – Guy Calmejane, gérant de CALAMITY ENERGY – Marco Caputo, PDG de SUNVIE – Jean-Claude Caraire – Christophe Caresche, député – Axel Carion, PDG de VALSOLAR – Jean-François Caron, président de la FEVE – Olivier Carré, Gérant de METHODE CARRE – Emmanuel Cau, Conseiller régional – Christophe Cavard, Député – Yves Cayla – Antoine Chamussy, Directeur Général de VOL-V SOLAR – Jean-Paul Chanteguet, Député – Madeleine Charru, Présidente du Comité de Liaison Energies Renouvelables (CLER) – Patrick Chaverot, gérant de SURTEC – Julien Cherbland, PDG de SAS CHERBLAND HABITAT – Philippe Chesneau, Conseiller régional – Raphaël Claustres, Directeur du CLER- Réseau pour la transition énergétique – Daniel Cohn-Bendit, Eurodéputé – Eric Collet, Responsable commercial de REC France – Walter Collet, PDG de SOLAIRGY – Jean Collon – Sébastien Combe, PDG de ELECTRO-SAVOIE – Sergio Coronado, Député – Françoise Coutant, Conseillère régionale – Fabienne Cru-Montblanc, en charge du développement durable, CGT – Rodolphe Czuba, PDG de YONNE SOLAIRE – Jean Damian, PDG de SOLARDIS – Ronan Dantec, Sénateur – Benoît De Cornulier – Antoine De Fleurieu, délégué général du GIMELEC – Olivier De La Roche Aymon, Fondateur de Givry Energies – François De Rugy, Député – Thierry Dejean-Servieres, PDG de T-METAL – Annick Delahaye, Conseillère régionale – Karima Delli, Eurodéputée – Monique DeMarco, conseillère régionale – Natalia Deschamps, PDG de ALHENA – Jean Desessard, Sénateur – Axel Desjardin, gérant de IEL Energies – Philippe Doucet, Député – Anthony Dronne, gérant de SOLAR ENER JADE – Emmanuel Dubois, Gérant d’ENERSUN – Pascal Durand, Secrétaire national d’EELV – Michel Erbs, Directeur Général de GENSUN – Kristofer Espinosa, gérant de SOLOREA – Joëlle Faguer, Conseillère régional – Dominique Fahri, PDG de ARCH’ECO – Francis Fallourd, PDG de REXEL – Christophe Fillet, PDG de TECHNOLOGIS – Hélène Flautre, Eurodéputée – Damien Fodera, Gérant de LE ROI SOLAIRE- Énergies renouvelables – Thierry Forato, gérant de REXEL – Denis Fortin, Directeur de GSA – Jean Marc Fosse, PDG de JMF « Conseil – Laurent Freboeuf – Bertrand Fulchiron, PDG de PCI-M – Geneviève Gaillard, députée – André Gattolin, Sénateur – Eric Gautier, PDG de CENTROSOLAR – Olivier Gautier, gérant de SUNOVA-France – Cédric Gelineau, PDG de SOLNEXT ENERGIE – Alain Gement, fondateur de ICNERGIE GENERALE DU SOLAIRE – Pierre Genin, PDG de SMA-France – Bruno Genty, président de FRANCE NATURE ENVIRONNEMENT – Cécile Georges, gérante de APIS MELLIFERA – Cédric Germa, PDG de TOYOTA TSUSHO EUROPE – Dominique Gillier, Secrétaire Général FGMM-CFDT – Christophe Goasguen, Directeur général d’IMEX CGI – Germain Gouranton, Vice-Président du Syndicat des Professionnels du Solaire – Catherine Grèze, Eurodéputée – Denis Grosso, Directeur associé d’ECOSITE – Christophe Guichard, gérant de BEAUFILS ENERGIE SOLAIRE – Kevin Guichard, PDG de GREEN POSE – Laurence Hames, Directrice de TOYOTA TSUSHO EUROPE – Anne Hidalgo, Candidate à la Mairie de Paris – Winfried Hoffman, Président d’EPIA – Jean-Christophe Hortolan, Conseiller régional – Marc Horvant, Conseiller régional – Antoine Huard, Directeur de GENERALE DU SOLAIRE – Thierry Hugon, Directeur de SOLAIRE SYSTEMS – Nicolas Hulot, Président-fondateur de la Fondation Nicolas Hulot pour la nature et pour l’homme – Clément Iacono, PDG de ALPES SOLAIRE DISTRIBUTION – Yannick Jadot, Eurodéputé – Thierry Janssoone, Fondateur de ASSOCIATION SOLAIRE EN NORD – Marc Jedliczka, Directeur Général de HESPUL – André Joffre, PDG de TECSOL – Eva Joly, Eurodéputée – Jean Michel Jouandou, gérant de PYRENEES ENERGIES – Chantal Jouanno, Sénatrice – Jean-François Julliard, Directeur Général de GREENPEACE France – Peggy Kançal, Conseillère régionale 

– Sandia Karani, Directrice de TOYOTA TSUSHO EUROPE SA – Nicole Kiil-Nielsen, Eurodéputée – Jean-Charles Kohlhaas, Conseiller régional – Amaury Korniloff, Directeur de SOLAIREDIRECT – Boris Kunzelmann, PDG de KRANNICH SOLAR – Joël Labbé, Sénateur – Sébastien Labbé, gérant de BIOCENOSE – Gilles Lacan, Président d’ECOLOGIE SANS FRONTIERE – François-Michel Lambert, Député – Erwan Le Bihan, gérant de JMA SOL – Philippe Le Borgne, Directeur de HELIOPTIM – Cédric Le Quelennec, gérant de RENOIU ENR – Matthieu Lebreton, PDG de BASE – Benoit Leclair, Conseiller régional – Alice Leiciaguecahar, Conseillère régionale – Yvonne Leroux – Stéphane Letz, Directeur de VV – Marie-Noëlle Lienemann, Sénatrice – Hélène Lipietz, Sénatrice – Jean-François Loiseau, gérant de APOLLON – Eric Loiselet, conseiller régional – Olivier Longeon, conseiller régional – René Louail, Conseiller régional – Richard Loyen, Délégué général d’ENERPLAN – Anne-Sophie Luciani, PDG de VOLTABRI – Jean-Philippe Magnen, Conseiller régional, Porte-Parole d’EELV – Thierry Malbrel, PDG de AVENIR SOLAIRE ENERGIE – Frédérick Marchand, Directeur de SUNALP – Laurent Marque, gérant de LIBRES ENERGIES – Véronique Massonneau, Députée – Philippe Meirieu, Conseiller régional – Frank Meric, PDG de MASTERVOLT France – Eric Michel, PDG de ACD2 – Herve Mingam, Directeur de HNC SOLAR – Paul Molac, Député – Armand Mongellaz, Directeur de ASTREO Energies – Manuel Mongrand, PDG de MONGRAND Sarl – Franck Moreau, directeur de VOLTABRI – Olivier Moriani, DG de AXUN – Nicolas Morin, directeur de PART’ENER – Marc Mossalgue, Coordinateur D’ENERGIE PARTAGEE – Jérôme Mouterde, Directeur Général de DUALSUN – Jean-Pierre Navari, PDG de Soleco – Nabil Nouari, PDG de SUNCONCEPT Méditerranée – Marie-Odile Novelli, Conseillère régionale – Geneviève Paillaud, Conseillère régionale – Stefan Patey, PDG de SOL ARCADIA – Cédric Pernet, gérant de FRANCE EXCELLENCE ENERGIE – David Peters, Directeur de SOLATERRA – Laurent Peyremorte, PDG de SUNPARTNER – Rémy Peyronel, Directeur de ASTREO Energies – Loic Picot, PDG de IEL – Pierre Picot, PDG de IEL – Jean-Vincent Placé, Sénateur – Philippe Plisson, Député, membre du Comité National de la Transition Energétique – Stéphane Pollak, PDG de ASTREO Energies – Barbara Pompili, Députée – Marie Pons, PDG de LUMO – Christophe Porquier, conseiller régional – Steve Poussard, PDG de SOLARLOG France – Benoit Praderie, Directeur général de SOLEIL DU MIDI –Gabriel Ramat, PDG de BET RAMAT – Vincent Raynal, fondateur de MADAULE ENERGIE – Carsten Reins, Directeur général de LUXEL – Alain Richer – Olivier-Jean Rigaud, PDG de SOLAPRO – Michèle Rivasi, Eurodéputée – Jacques Robert, Directeur commercial SOLARDIS – Wolfgang Rosenberg, PDG de GEHRLICHER SOLAR France SAS – Jean-Louis Roumegas, Député – Eva Sas, Députée – Hélène Shemwell, Conseillère régionale – Bruno Sinica, Gérant de SOLE NOSTRUM – Jean-Paul Solignac, PDG de VOLTA TECH – Jean-Paul Solomut, fondateur de JPSUN – Marc Soubitez, Secrétaire du Comité d’Entreprise de BOSCH – Cornelius Sperle, gérant de THALOSOLAR – Bruno Spinner, Président de LUXEL – Dominique Steinkritzer – Benjamin Sylvain, Fondateur de LA COMPAGNIE DU SOLAIRE – Jean Pierre Tomas, Président de CONEXIA ENERGIE NOUVELLE – Fabien Vallette, Fondateur de FRANVAL ENERGIE – Pascal Vandorselear, Directeur de FRANVAL – Sylvain Vasseur, PDG de JPEE – Eric Virvaux, Directeur de HELIOPTIM – Bruno Vuillemin, Gérant d’AUVERGNE ENERGIE SOLUTIONS – Jérôme Willer, PDG de SOLSTIS – Karim Zéribi, Eurodéputé…ainsi que de nombreux salariés de Bosch Vénissieux ! 

Et aussi dans les
ressources documentaires :

La cryogénie se développe dans le transport alimentaire

La majorité des groupes frigorifiques actuels produisent du froid grâce à un moteur diesel. Ils consomment du carburant, génèrent du bruit et émettent du CO2 et des agents réfrigérants fluorés. Ils produisent donc une pollution sonore et atmosphérique. Avec les nouvelles solutions utilisant la cryogénie, il n’y a plus d’émission de particules, moins d’émissions de CO2 et moins de bruit !

Deux technologies principales : Blueeze et Cryotech

La solution Blueeze d’Air liquide utilise de l’azote liquide à -196°C. Les systèmes Cryotech brevetés par Thermo-King utilisent du dioxyde de carbone liquide recyclé à -98°C.  Dans les deux cas, les véhicules frigorifiques se ravitaillent dans des stations de ravitaillement et embarquent les produits dans un réservoir dédié.

Les liquides réfrigérants stockés dans le réservoir sont libérés dans un serpentin de l’évaporateur. L’air du compartiment se refroidit au contact des échangeurs et le froid se diffuse de manière homogène grâce aux ventilateurs. Après avoir extrait toute l’énergie utile, le réfrigérant est rejeté sous forme gazeuse dans l’atmosphère.

Concrètement, grâce à une tablette tactile, le chauffeur indique une température consigne et le système libère précisément la quantité de réfrigérant requise dans l’échangeur. Le froid est activé par la fermeture de la porte arrière, stoppé en ouvrant la porte et remis en marche à leur fermeture. Ceci améliore l’efficacité énergétique et évite de chauffer lorsque la porte est ouverte…

Des pollutions réduites

Ces systèmes reposent sur le même principe que les groupes frigorifiques traditionnels au diesel, mais l’azote est non toxique (présent dans 80% de l’air que nous respirons), ininflammable et disponible. De son côté, le dioxyde CO2 libéré par le système CRYOTECH est du CO2 réutilisé, obtenu à partir de déchets industriels, de manière à ce qu’aucun gaz à effet de serre supplémentaire ne soit émis pendant le fonctionnement du groupe.

Le diesel émet 2,93 kg de CO2 par litre, lorsque l’azote n’en émet que 0,055 kg par litre. En fonction des consommations, un groupe mécanique froid au diesel émettra donc environ 30 tonnes de CO2 par an lorsqu’un groupe cryogène à l’azote n’en émettra, en France, que 6 tonnes environ. Cette empreinte carbone dépend en effet du mix électrique utilisé pour produire l’azote. Globalement, elle varie entre les pays, étant de 20 à 90 % inférieure à celle des groupes au diesel, explique un expert d’Air Liquide.

La puissance frigorifique disponible est beaucoup plus élevée dans ces systèmes, la descente en température étant jusqu’à 2 fois plus rapide. Chaque évaporateur a une puissance pratiquement constante, quelles que soient les températures ambiantes et intérieures du compartiment. C’est un avantage puisqu’un groupe classique perd de la puissance frigorifique quand la température extérieure augmente. De plus, la durée de vie de l’unité frigorifique serait au moins deux fois plus longue. Le coût de maintenance est également beaucoup moins élevé.

Un bruit maîtrisé

« La raison d’être de la cryogénie, c’est le bruit », affirme Eric Lunven, Directeur de Paris Froid Service, Distributeur Thermo-King. « Avec des produits cryogéniques, on est en dessous de la réglementation de 60 dB, ce qui permettra de faire des livraisons la nuit, lorsqu’elles sont autorisées », précise-t-il. La technologie répond en effet à la norme PIEK qui impose des contraintes de livraisons nocturnes en zones urbaines entre 23h et 7h. Le bruit est encore plus réduit lorsque la technologie est embarquée dans des véhicules hybrides ou électriques.

 « Il y a une puissance et un rendement inégalité aujourd’hui, une possibilité accrue de réexploitation de l’installation au renouvellement d’un véhicule », affirme Pascal Saulet, Fondateur d’ATE, entreprise de transports de marchandises possédant trois camions cryogéniques utilisant la technologie Thermo-King. 

Toutefois, notons que le réseau actuel de réapprovisionnement en CO2 et N2O est faible. Pour le moment, Air Liquide ne possède que 8 stations d’azote en fonctionnement en France. Mais le déploiement des stations se fera au fur et à mesure que la technologie se développera, assure la société !

Par Matthieu Combe, journaliste scientifique

L’Europe avance à petits pas pour règlementer le pétrole issu de sables bitumineux

Bruxelles a proposé une révision de la législation pour obliger les compagnies pétrolières à rendre compte des gaz à effet de serre émis lors de la production de sables bitumineux. La procédure est énergivore, en raison de l’extraction minière et aussi des injections de vapeur.

Le Canada et l’industrie pétrolière s’insurgent contre la méthode punitive utilisée par l’Europe.

Les différentes méthodologies conçues par l’industrie, les universités et l’Europe pour évaluer l’impact de ce projet sur les prix du pétrole ont été revues. Et « les conclusions sont toutes identiques, on arrive à des prix à la pompe à peu près identiques, [à savoir] nettement moins d’un cent d’euro par litre », révèle une source de la Commission àEurActiv.

« En un mot, il existe très peu de différences entre les méthodes lorsqu’il s’agit de coûts », ajoute cette source. La proposition de l’UE serait donc en grande partie symbolique, mais le secteur des carburants non conventionnels craint des répercussions sur les exportations et l’accès au marché.

Ce qui a donné lieu à une campagne de lobbying féroce tout au long de la procédure législative de l’UE.

Bruxelles a terminé son analyse d’impact, mais ne l’a pas encore publiée. Elle permettrait de modifier la directive sur la qualité des carburants (DQC) qui établit un objectif de réduction des émissions de 6 % pour les transports d’ici 2020.

Lauréats du prix Nobel

Les retards dans la législation suscitent de plus en plus de frustrations. Vingt et un prix Nobel ont écrit le 3 octobre au président de la Commission, José Manuel Barroso, pour exiger la mise en œuvre immédiate de la DQC et son application aux carburants issus des sables bitumineux.

« Nous accueillons favorablement l’analyse scientifique de l’UE, telle que proposée pour la mise en œuvre de la directive : l’extraction et la production de carburants à partir de sources non conventionnelles, dont les sables bitumineux, le charbon liquéfié et le gaz de schiste, entraînent des émissions supplémentaires. Cela devrait être reflété dans les réglementations », ont écrit les lauréats.

Selon des climatologues, comme l’ancien fonctionnaire de la Nasa James Hansen, le pétrole dans les réserves de sables bitumineux représente près du double de la quantité utilisée jusqu’à présent dans l’histoire de l’humanité. Ils ajoutent que le pétrole ne peut pas être extrait si nous voulons éviter une catastrophe climatique.Mairead Maguire, l’archevêque Desmond Tutu, José Ramos-Horta et John Hume figurent parmi les signataires et expriment leurs craintes quant à l’industrie des sables bitumineux.

La production de sables bitumineux entraîne la destruction de forêts vierges canadiennes et l’utilisation de grandes quantités d’eau, qui se transforment la plupart du temps en bassins de décantation toxiques.

Le processus de révision de la DQC est toutefois au point mort en raison de négociations de libre-échange entre l’UE, le Canada et les États-Unis, selon la rumeur. À Bruxelles, les fonctionnaires se font discrets sur le sujet.

« L’analyse d’impact complète est prête depuis fin août, mais ces analyses ne sont jamais publiées sauf si les propositions sont présentées », indique un fonctionnaire.

« Nous travaillons à la proposition, et je ne peux pas dire combien de temps cela prendra », ajoute-t-il.

Négociations commerciales

Le Canada exerce une pression intense contre la DQC. Le pays estime qu’il serait discriminé, car les émissions produites par l’exploitation de ses sables bitumineux sont plus transparentes. Ottawa a abordé la question dans le cadre d’un accord de libre-échange avec l’UE, qui serait bientôt conclu.

Washington s’est également joint à la bataille. Le représentant américain au commerce, Michael Froman, a déclaré en juillet au Congressional House Ways and Means Committee qu’il avait abordé « le manque de transparence adéquate et de participation publique » dans le processus d’évaluation de la DQC avec des hauts fonctionnaires de la Commission. Et ce, à plusieurs occasions, notamment lors des discussions sur le partenariat transatlantique de commerce et d’investissement.

Bruxelles réplique que sa procédure législative est similaire à la publication des réglementations aux États-Unis, sauf que les consultations avec les parties prenantes ont lieu avant. Les États membres de l’UE peuvent également examiner les lois avant qu’elles ne soient adoptées.

Des sources à la Commission ont expliqué à EurActiv que les données de l’UE sur les émissions dues aux carburants conventionnels proviennent de l’European Petroleum Industry Association (Europia), du Centre commun de recherche (CCR) de l’UE et de l’organisation européenne de l’industrie pétrolière CONCAWE.

Selon M. Froman, ancien directeur général de Citigroup, Washington incite toujours Bruxelles à tenir compte de l’avis des raffineries américaines et des autres. « Si la proposition est mise en œuvre, les carburants produits à partir de ces matières brutes ne pourraient probablement pas être exportés dans l’UE, ce qui aurait un effet négatif sur le commerce de carburants entre les États-Unis et l’Europe », estime-t-il.

Les exportations d’énergie de la province de l’Alberta (Canada) vers l’UE représentaient 4 % de la moyenne totale entre 2008 et 2012 par rapport au nickel (32 %), à la machinerie (13 %) et au blé (12 %). Les plus grandes réserves de sables bitumineux d’Amérique du Nord se trouvent dans cette province.

La pression du secteur privé

Le secteur privé exerce également une pression commerciale sur l’UE. Des lettres de Ben van Beurden, le prochain directeur général de Royal Dutch Shell, ont été dévoilées en vertu de lois sur l’accès à l’information. La compagnie pétrolière détient des réserves de sables bitumineux dans l’Alberta. M. van Beurden a tenté de rencontrer le commissaire au commerce, Karel de Gucht, pour discuter de la DQC dans le contexte des négociations commerciales UE-États-Unis.

La Chambre américaine du commerce, l’American Petroleum Institute, l’American Fuel and Petrochemical manufacturers et la National Association of Manufacturers ont également envoyé une lettre à Jos Delbeke, le directeur général de la DG Action pour le climat. Ils estiment que le respect de la DQC nécessiterait des programmes coûteux et infaisables pour suivre les molécules de pétrole brut tout au long de la chaîne d’approvisionnement.

« Si cette proposition [la DQC] est adoptée en l’état actuel, nous penserons sérieusement à demander au gouvernement américain d’exiger réparation à l’OMC [l’Organisation mondiale du commerce] », ont écrit les auteurs.

Les menaces de recours devant l’OMC sont légion dans la campagne de lobbying. Mais l’UE n’a pas grand-chose à craindre, selon un avis interne rédigé en 2011.

« Le service juridique de la Commission a garanti que la méthodologie des gaz à effet de serre utilisée dans la mise en œuvre de la directive, en ce qui concerne l’approvisionnement en bitume, peut probablement être défendue dans le cas d’un recours devant les organes juridictionnels de l’OMC », peut-on lire dans une note interne consultée par EurActiv.

Cette méthode s’appuie sur un document d’Adam Brandt de l’université de Stanford. Bruxelles estime qu’elle est scientifique, non discriminatoire (elle s’applique entre des produits similaires) et couverte par les dérogations de l’Accord général sur les tarifs douaniers et le commerce (GATT).

Barroso serait-il distrait ?

Selon des défenseurs de l’environnement, les discussions sur un rôle éventuel à l’OTAN ou l’ONU à la fin du mandat de l’exécutif européen en novembre 2014 ont distrait le président de la Commission, José Manuel Barroso.

« Dans son discours sur l’état de l’Union, M. Barroso a récemment déclaré que l’Europe devrait continuer à définir l’action internationale pour le climat et à lutter contre le réchauffement de la planète sur son continent », indique Darek Urbaniak, porte-parole des Amis de la Terre sur les industries extractives. « Il devrait joindre le geste à la parole en plaçant l’intérêt public européen avant ses ambitions personnelles et en mettant en œuvre la DQC. »

Les Pays-Bas et le Royaume-Uni pourraient bloquer la législation. Ils l’ont d’ailleurs déjà fait.

Les pays d’Europe de l’Est et l’Italie seraient également contre la directive, alors que l’Allemagne serait neutre, tout au mieux.

Un nombre suffisant d’États membres est nécessaire pour voter au Conseil européen. Tant qu’il n’est pas atteint, les retards s’accumulent.

Source : Euravtiv.fr

L’armée du futur en bande-dessinée

Le premier tome de la bande dessinée : La science, c’est pas du cinéma ! pointe de manière comique les aberrations scientifiques qui parsèment les films d’action et de science-fiction (Chérie, j’ai rétréci les gosses, Volte/Face, Indiana Jones…) ou encore les séries TV comme Les Experts.

Chaque article commence par une carte postale dans laquelle un lecteur (virtuel) pose une question existentielle : « Quand y aura-t-il des ascenseurs pour l’espace ? », « Quand est-ce qu’on pourra acheter des sabres laser sur eBay ? », « C’est quoi l’apoptose ? ». Un petit professeur à moustache y répond avec un humour décalé et farfelu.

Le but à la fin de l’article : avoir un peu appris et beaucoup ri !

En voici un extrait !

Chapitre 2 – SCIENCE FICTION – Fera-t-on la guerre aux robots ?

Rapports d’étude National Instruments

National Instruments publie chaque année trois rapports d’étude qui présentent les résultats de récentes recherches universitaires et industrielles, ainsi que des retours d’informations clients dans le domaine respectivement du test automatique, des systèmes embarqués et de l’acquisition de données.

Disponibles en français, ces rapports détaillent les tendances technologiques, méthodologiques et économiques, qui permettent d’anticiper l’évolution du marché dans les années à venir. Ils aident ainsi les ingénieurs qui évoluent dans un contexte économique et technologique en perpétuel changement, à tirer parti des toutes dernières stratégies et bonnes pratiques pour optimiser leur organisation. Et ce dans un large éventail de domaines d’applications, comme l’énergie, l’électronique, les télécommunications, les sciences de la vie, le contrôle industriel, la défense et les transports.

 

Le rapport d’étude 2013 sur le test automatique détaille les points suivants :

·         Considérations économiques du test

·         Gestion d’importants volumes de données analogiques (big analog data)

·         Écosystèmes logiciels ouverts

·         Bonnes pratiques de développement logiciel

·         Quand la loi de Moore rencontre la RF

Pour le télécharger : http://www.ni.com/ato/f/

 

Celui sur les systèmes embarqués :

·         Architectures hétérogènes reconfigurables

·         Révolution de l’énergie numérique

·         Démocratisation de la conception de systèmes embarqués 

·         Nouveau calcul de la rentabilité économique globale

·         Des systèmes embarqués plus intelligents grâce à la vision

Pour le télécharger : http://www.ni.com/eso/f/

 

Celui sur l’acquisition de données :

·         Acquisition de données analogiques volumineuses (big analog data)

·         La loi de Moore à l’œuvre dans l’enregistrement de données

·         Technologies de bus émergentes

·         Impact des technologies mobiles sur l’acquisition de données

Pour le télécharger : http://www.ni.com/daq-trends/f/

 

Pour plus de détails, rendez-vous sur le site de National Instruments.

Le record du monde d’accélération en voiture électrique a été battu

« Nous pensions parvenir à 2,30 secondes, mais nous ne nous attendions vraiment pas à atteindre 2,15 secondes » a déclaré le chef d’équipe Tim de Moree.

La DUT12 mesure deux mètres de long. Grâce à sa structure en fibres de carbone, la voiture pèse seulement 145 kg. Equipée de quatre moteur-roues électriques AMK d’une puissance 24 kW (32 chevaux), elle est capable de délivrer une puissance totale de 128 chevaux. Les batteries utilisées sont de technologie lithium-phosphate (LiPo), elles stockent 4,2 kWh d’énergie. 

C’est la seconde voiture électrique construite par la DUT Racing team. « La grande différence avec la DUT11, ce sont les quatre moteurs roues, système introduit cette année. Cela permet d’utiliser l’énergie du freinage de toutes les roues pour alimenter le moteur, ce qui conduit à une efficacité énergétique élevée » précisent les étudiants sur leur site officiel. « Avec la DUT12, les batteries ne sont plus placée derrière le conducteur, mais de chaque côté, ce qui est plus pratique à gérer. » 

Une nouvelle méthode de pré-imprégnation a également été utilisée pour construire le monocoque, « cela permet à la résine d’être correctement répartie entre les fibres de carbone et ainsi d’économiser du poids comparativement à l’année dernière. » 

Electro-mobilité, efficacité énergétique, réduction de la consommation de matières premières : ce véhicule est un véritable laboratoire pour technologies écologiques. 

L’équipe est dès à présent en train de concocter une nouvelle version du véhicule. Objectif : moins de 2 secondes. 

En savoir plus : Site officiel  du Formula Student Team Delft

Quand les robots se mettent à la peinture

Il s’appelle E-David, est artiste peintre et n’est pas humain ! Mis au point par des chercheurs de l’Université de Constance (Allemagne), ce robot connait un destin inattendu. Alors qu’il devait travailler dans une chaîne d’assemblages automobiles et réaliser des soudures, des scientifiques ont reconnu en lui un talent artistique. Ils ont donc décidé de l’encourager dans cette voie. 

Désormais doté de capteurs, d’une caméra et d’un ordinateur, E-David est capable de réaliser une toile de façon autonome. Rien à voir avec une simple reproduction, il s’agit là d’œuvres originales. Grâce à ses équipements, ce petit robot peut analyser sa réalisation au fur et à mesure, et décider seul des gestes à accomplir pour avancer sa toile. Sa réflexion repose sur un algorithme : en temps réel, ce peintre artificiel photographie l’image de son travail et calcule à quel endroit de l’image il doit désormais ajouter tel ou tel coup de pinceau avec quelle couleur. Les chercheurs allemands parlent d’optimisation visuelle.  Avec cinq pinceaux de tailles différentes et une palette de 24 couleurs, E-David peut ainsi terminer son tableau seul.

Dans un communiqué, les créateurs de E-David expliquent que pour eux, « […] la peinture,  au moins la partie technique de la peinture,  peut être considérée comme un processus d’optimisation où la couleur est distribuée manuellement sur une toile jusqu’à ce que le peintre soit capable de reconnaître le contenu ».

A voir l’artiste en plein travail, force est de reconnaitre un certain talent. Qui sait, E-David deviendra peut-être bientôt célèbre et ses toiles vaudront des milliers d’euros ! 

Découvrir E-David dans son atelier :

Par Audrey Loubens, journaliste scentifique

Les solutions d’intelligence collaborative de nouvelle génération

La collaboration DICH doit couvrir et rapidement remplacer les usages collaboratifs actuellement servis par des solutions hétérogènes : RSE, wiki, e-mail, voix et vidéo-conférence sur IP, modélisation, BPM, content management, suivi de performance, mesure et maîtrise du risque.

L’approche DICH est propre à l’entreprise, mais doit s’ouvrir à son écosystème de façon simple, intuitive et immédiate. Son usage doit être évident pour permettre une gestion du changement réduite à une simple présentation.

Concrètement, le DICH utilise les dernières technologies digitales pour traiter un sujet courant : organiser la collaboration de façon structurée (mais en autorisant les espaces d’expression libre) dans l’entreprise, mais également avec son écosystème (la richesse et l’innovation passent par l’identification et l’appropriation des tendances du marché) aux fins de piloter de façon outillée le « qui fait quoi », « avec qui », « comment », « avec quels outils », « dans quels délais » et « avec quels risques », en mettant à disposition des acteurs un seul outil. Enfin, le DICH revitalise les concepts de BPM et de workflow qui, devenant accessibles à tous, deviennent opérationnels.

En termes d’usage dans l’entreprise, les solutions DICH couvrent les problématiques de collaboration, communication, partage du savoir, diffusion et exécution des process, procédures et workflow, suivi dynamique et temps réel de l’activité, mesure des performances, gestion et maîtrise des risques liés au métier.

Ces solutions sont donc incontestablement une réponse aux problématiques de compétitivité des acteurs économiques de toutes tailles (optimisation des organisations, innovation par le collaboratif).

En pratique le DICH offre les caractéristiques suivantes :

Il s’agit d’une approche holistique du noyau composé d’objets organiques d’un côté, systémiques de l’autre (CDC : Cube Digital Collaboratif).

C’est une révolution dans la conception même des architectures informatiques rendue indispensable si l’on souhaite générer de façon dynamique la gestion des droits d’accès et de navigation dans l’espace collaboratif en liaison avec un environnement applicatif interconnecté. L’ensemble doit être piloté au travers d’une interface unique, quel que soit le « device » en une intégration totale avec l’environnement IT, en offrant une gestion des droits intuitive et unique.

L’approche DICH est donc la véritable révolution informatique que les entreprises vont devoir adopter rapidement pour rester compétitives.

Olivier Bourrouilh
CEO ROK Solution

Le magazine d’actualité