REACH : l’actualité du 15 juillet au 20 août 2009

Chaque mois, le CNRI fait une sélection des évènements qui ont marqué l’actualité de REACH et impactent l’usage des produits chimiques. Ce mois-ci, trois faits marquants sont à retenir et à examiner avec attention.

Un nouveau règlement établit des méthodes d’essai
Le 23 juillet 2009, le règlement européen (CE) 761/2009 est venu modifier le règlement (CE) 440/2008 établissant des méthodes d’essai conformément au règlement européen REACH. Les méthodes d’essai concernées sont :
  • la pression de vapeur,
  • le diamètre moyen géométrique pondéré par la longueur des fibres,
  • l’irritation cutanée in vitro (essai sur modèle d’épiderme humain reconstitué),
  • les essais d’inhibition de la croissance pour les algues d’eau douce et les cyanobactéries,
  • la minéralisation aérobie dans les eaux superficielles (essai de simulation de la biodégradation),
  • les essais d’inhibition de la croissance pour Lemna sp..
 
Plus d’information sur le Journal officiel de l’Union européenne : télécharger le PDF
Appel à contribution de l’ECHA
Le 10 août 2009, l’ECHA (European Chemical Agency) a lancé un appel à contribution pour évaluer la toxicité d’une substance avant tests sur les animaux. En effet, nombre de militants défendant la cause des animaux accusent ce règlement de faire réaliser des tests inutiles sur les animaux pour l’élaboration des dossiers d’enregistrement des substances. REACH prévoit cependant que les tests sur animaux ne soient utilisés qu’en dernier recours grâce à un système de contribution aux évaluations de toxicité. Ce processus a été lancé le 10 août dernier.Par conséquent, toute personne, institution, société (privée ou publique) disposant d’information sur la reprotoxicité des substances chimiques suivantes, Hydrogenated oligomerisation product, including dimers and trimers, of tetradec-1-ene and alkene, se doivent de soumettre celles-ci à l’ECHA avant le 24/09/2009.  
Plus d’information sur le site de l’European Chemical Agency
 

SIEF (FEIS / Forum d’échange d’informations sur les substances)
En date du 19/08/2009, l’ECHA (Agence européenne sur les produits chimiques) comptabilisait 1.278 SIEF formés. Chaque SIEF couvre une substance. Vous pouvez retrouver la liste des substances sur le site de l’ECHA. Par Céline Nectoux, ingénieur Environnement CNRI Les précédents articles sur l’actualité de REACHActualité du 15 juin au 15 juillet 2009

Internet au bureau : quelle réalité ?

L’usage d’Internet est aujourd’hui omniprésent dans la plupart des entreprises. Son taux de pénétration est de 90 % dans les grandes structures et de 80 % dans les PME. Mais pendant combien de temps est-il utilisé et pour quoi faire ? Voici quelques éléments de réponse livrées par la quatrième édition de l’enquête menée par Olfeo, éditeur d’une passerelle de sécurité de contenu Internet, sur la réalité de l’utilisation du Web au travail (voir méthodologie).

Une baisse du surf personnel
Premier constat : pour la première fois depuis cinq ans, le temps passé quotidiennement sur Internet au travail décline. Alors qu’il était de 90 minutes en 2008, il passe à 86 minutes par jour au premier semestre 2009, soit 4 minutes de moins. Une évolution due essentiellement à la baisse du surf non professionnel. Sur une année glissante, le temps passé en moyenne chaque jour sur le Net pour des motifs non professionnels a baissé de 12 % (58 minutes en 2009 contre 66 en 2008), tandis que l’usage du Web à des fins professionnelles a lui progressé de 17 % en un an (28 minutes en 2009, contre 24 en 2008). Un phénomène qui s’explique selon Olfeo par :
  • la pénétration des outils de convergence tels que les Smartphones qui sont très utilisés durant les temps de transports du matin ;
  •  la multiplication des applications métier Web en entreprise.
Deux facteurs qui contribuent, selon l’éditeur, à ce que les internautes se connectent moins à leurs sites personnels le matin.

De nouvelles pratiques, de nouveaux risques
Quoiqu’il en soit, le surf personnel représente encore, et de loin, la plus grosse part de l’utilisation d’Internet au bureau (67 % contre 33 %). Ce qui représente, selon Olfeo, une perte de productivité de l’ordre de 13,8 % pour les entreprises (15,7 % en 2008). Mais cette pratique a-t-elle d’autres inconvénients pour les sociétés ? La nature des sites consultés apportent quelques éléments de réponse. Les sites d’actualité sont, en pourcentage, toujours les plus consultés. Mais ils sont suivis de près par des sites de téléchargement de vidéo, de télévision ou de radio en ligne (16 %), par des sites d’échanges tels que les blogs, le microblogging ou les réseaux sociaux (14 %) ou encore par des sites de téléchargement de musique ou de jeux (12 %). Autant d’applications qui peuvent avoir trois principales conséquences :
  • Une consommation accrue en bande passante ces sites étant en général gourmands (seul 24 % des besoins en bande passante dans les entreprises étudiées sont selon Olfeo utilisés pour des usages professionnels) ;
  •  Un risque accru de contamination par des virus ou des spywares notamment via l’usage des messageries instantanées ;
  •  Un risque potentiellement de fuite d’informations. En effet, ces nouveaux espaces d’échanges et de communication offrent des portes d’entrées et de sorties nouvelles qui échappent à l’entreprise.
  • Un risque pénal pour l’entreprise.
 MéthodologieCette étude a été menée au premier semestre 2009. Elle porte sur une quarantaine d’entreprises de taille variable représentant plusieurs milliers de collaborateurs. Les sociétés appartiennent à des secteurs d’activités divers : santé, administration, SSII, finance … L’étude concerne l’ensemble des collaborateurs quelles que soient leurs fonctions, leurs localisations ou leurs niveaux hiérarchiques. Les utilisateurs observés n’ont jamais été limités dans leur navigation Internet au bureau. Ils sont donc l’expression de la réalité de l’utilisation d’Internet. L’étude se base sur l’analyse des journaux de connexion au Web fournis par les serveurs proxy. Ces derniers sont capables de tracer toutes les sorties effectuées par un poste du réseau d’entreprise vers le Web. Le journal contient notamment les requêtes demandées, le temps précis auquel l’accès a lieu, le type de document consulté, le poids de l’information recherchée (en octets), l’adresse IP du demandeur, le temps pris par la requête …A partir de ces journaux, des algorithmes ont été mis au point pour permettre de mesurer le temps passé par site. Les algorithmes permettent notamment d’écarter des statistiques les phénomènes parasites tels que les rafraîchissements automatiques, les publicités … La rédaction

Le CO2 utilisé comme matière première ou l’effet Cendrillon qui se transforme en princesse

Produit de dégradation issu de la combustion des ressources fossiles, le CO2 pourrait rapidement être utilisé en tant que matière première. C’est en tout cas l’avis de nombreux scientifiques, qui voient en cette hypothèse une solution une opportunité unique pour freiner le changement climatique.Si cette assertion s’avérait réalisable, non seulement le bilan climatique pourrait s’améliorer, mais il s’agirait d’une avancée fondamentale. Pourtant, la recherche dans ce domaine n’en est encore qu’à ses balbutiements, ce à quoi compte bien remédier le Ministère fédéral de l’enseignement et la recherche (BMBF) allemand, en lançant le programme de recherche « Technologies pour le développement durable et la lutte contre le réchauffement climatique – procédés chimiques et utilisation matérielle du CO2 ». Dans les cinq prochaines années, le BMBF mettra un total de 100 millions d’euros à disposition de ce programme.

Un rôle clé pour l’industrie chimique
« L’utilisation du CO2 comme matière première et le développement de procédés de production épargnant de l’énergie et des ressources ouvre de nouvelles voies déterminantes pour la lutte contre le réchauffement climatique », affirme le Prof. Frieder Meyer-Krahmer, secrétaire d’Etat au BMBF. « L’industrie chimique joue ainsi un rôle clé, car elle se situe au début de la chaîne de création de valeur. Les effets dégagés grâce à une production efficace se reflètent sur tous les procédés de production et produits finaux. »Les chercheurs doivent développer entre autres, dans le cadre du nouveau programme, des procédés qui utilisent le CO2 comme produit chimique de base. Le CO2 est par exemple utilisé depuis longtemps pour la synthèse de l’urée, qui est employée comme fertilisant ou produit de base pour la fabrication de résine.

Un programme à fort potentiel
Les produits d’avenir intéressants contenant du CO2 dans le procédé de production sont avant tout des polymères de qualité supérieure, se trouvant à la base de la fabrication d’isolants, de matériaux d’emballage ainsi que de la construction automobile. En outre, les chercheurs veulent découvrir comment diminuer les émissions de gaz dangereux pour le climat dans la production d’électricité.Le programme offre la possibilité de projets de coopérations internationales de recherche. Ainsi il contribue de façon importante à la plate-forme technologique européenne pour la chimie durable.Enfin la formation de groupes de jeunes chercheurs est aussi encouragée dans le cadre du programme. 

Source :
BE Allemagne numéro 447 (30/07/2009) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/60155.htmClaire Vaille est rédactrice pour la rubrique énergie des bulletins électroniques de l’ambassade de France en Allemagne.

Qui paye pour l’électricité éolienne, pour quel bénéfice ?

La loi Grenelle I a fixé des objectifs ambitieux pour le développement de l’électricité éolienne en France. Alors que le Programme Pluriannuel d’Investissement de 2006 avait visé 15 000 MW en 2015, la loi Grenelle I et le Programme Pluriannuel d’Investissement 2009 prévoient 25 000 MW en 2020, dont 6 000 MW en mer (« offshore »). Pour encourager le développement de l’éolien, les pouvoirs publics ont garanti son achat par EDF à un tarif imposé. Comme pour l’électricité solaire [1], nous avons cherché à savoir combien cela coûte, qui y gagnera et qui devra payer l’addition : le consommateur d’électricité ou le contribuable [2] ?

Aux tarifs d’achat actuel (86 €/MWh en terrestre, environ 130 €/MWh en offshore), la charge financière, actualisée sur la durée de la garantie d’achat [3], sera :

  • pour chaque MW installé en éolien terrestre, environ 2,2 millions d’euros soit, pour les 19000 MW prévus, 42 milliards d’euros ;
  • pour chaque Mw éolien « offshore », environ 6,5 millions d’euros soit, pour les 6.000 MW prévus, 39 milliards d’euros. Au total, les flux financiers, actualisés à 4 %, vont donc atteindre 80 milliards d’euros, autant que pour le solaire photovoltaïque.

Difficile de savoir exactement où va l’argent

A qui vont ces sommes colossales ?Il est difficile de répondre à cette question, tant les données sur le sujet sont opaques. On peut penser cependant que le tiers ou un peu plus vont aux fournisseurs/installateurs, et le reste, soit largement plus de la moitié, aux promoteurs.

Qui paie ?

Pour l’essentiel, c’est EDF (ses actionnaires et ses clients) et l’ensemble des redevables de la « compensation du service public de l’électricité » (CSPE). La CSPE est calculée en faisant la différence entre le tarif d’achat et le prix du marché de gros de l’électricité, évalué par la Commission de Régulation de l’Energie à près de 80€/MWh, en moyenne, pour 2009. Faible pour l’éolien terrestre, elle sera en revanche très élevée pour l’offshore ; au total, la CSPE représentera près du quart du total.Les trois quarts restants, environ 60 milliards d’euros, seront à la charge d’EDF qui, en échange, disposera chaque année des 60 et quelques TWh produits par les éoliennes.

Un tarif d’achat beaucoup trop élevé ?

Le tableau ci-dessous présente la répartition des sommes investies dans éolien suite au Grenelle, soit environ 80 G€.

Qui y gagne, qui y perd ?

A première vue, les grands gagnants sont les fournisseurs de machines et les promoteurs : en 2006, le prix d’une éolienne de 2 MW était descendu à 1.000 €/kW, et cette machine produisait un MWh à un coût compris entre 50 à 60 €, très inférieur au tarif d’achat garanti. Depuis, au lieu de continuer à baisser, le prix des éoliennes a connu une augmentation spectaculaire de 50 %, dont on peut légitimement se demander si elle n’est pas une conséquence directe d’un tarif d’achat beaucoup trop élevé [4] ! Et aujourd’hui, face à la hausse des prix des machines, le lobby éolien réclame une augmentation du tarif d’achat.

Un mix énergétique dominé par le nucléaire et l’hydraulique

Les grands perdants sont évidemment EDF et, dans le cas de l’éolien offshore, les redevables de la CSPE. La charge financière annuelle de l’éolien, autour de 2020, sera supérieure à 4 milliards d’euros, soit près de 10 % du chiffre d’affaire d’EDF en France [5]. Certes, EDF disposera des 60 TWh produits par les éoliennes : mais ceux-ci étant produits de façon aléatoire vont se substituer à un mix électrique, dominé par le nucléaire et l’hydraulique, dont le coût marginal moyen est inférieur à 30 €/MWh [6].

En principe, le développement de l’éolien en Europe a pour objectif principal la réduction des émissions de CO2 dues à la production d’électricité. En pratique, cet objectif est probablement atteint dans les pays très dépendants des combustibles fossiles pour leur production d’électricité (Danemark, Espagne, Allemagne).

Ce n’est pas le cas en France. On aurait pu espérer, au moins, que l’industrie nationale bénéficie du soutien massif apporté à cette technique, mais celle-ci est logiquement dominée par les industries danoise et allemande (et, demain, chinoise). Il est grand temps, pour l’éolien comme pour les autres mesures du Grenelle de l’environnement, que ces ordres de grandeur soient mis sur la table, au lieu d’être passés sous silence. Les responsables politiques doivent pouvoir évaluer sérieusement les avantages et les inconvénients des différentes actions engagées au nom de la lutte pour la protection du climat car, qu’on le veuille ou pas, les ressources financières de la France sont limitées.

Sources :

[1] P. Bacher – « Les tarifs d’achat du solaire photovoltaïque doivent baisser vite » Tribune Veille Techniques de l’Ingénieur – 2 juillet 2009
[2] P. Bacher – « Loi Grenelle I et flux financiers » – Revue de l’Energie (à paraître)
[3] durée de garantie du tarif d’achat : 15 ans pour l’éolien terrestre, 20 ans pour l’éolien offshore
[4] F. Poizat – « L’apprentissage de la subvention durable » http://sauvonsleclimat.org 14 juillet 2009)
[5] On notera que l’obligation d’achat des électricités éolienne et photovoltaïque représentera, autour de 2020, près de 20 % du chiffre d’affaire d’EDF en France ; c’est l’ordre de grandeur des hausses de tarif demandée par EDF pour les prochaines années.
[6] Les seules dépenses évitées sont celles des combustibles (nucléaire et fossiles), des provisions pour la gestion des déchets et d’une éventuelle taxe sur le CO2. Le chiffre de 30 €/MWh est obtenu en admettant que le nucléaire est marginal 60 % du temps, le fossile 30 % et la pointe « spot » 10 %, et en négligeant les dépenses de raccordement au réseau.

Pierre Bacher, ancien élève de polytechnique, est l’auteur de « L’énergie en 21 questions » – édition Odile Jacob (2007), membre du conseil scientifique de Sauvons le Climat et éditorialiste à l’Espace Veille de Techniques de l’ingénieur.

On a poussé un atome… continuons !

C’était en décembre 1989. Une petite équipe de physiciens des surfaces du laboratoire de recherche d’IBM à Almaden en Californie démontrait comment écrire avec des atomes, en les poussant un par un à la surface d’un métal avec la pointe d’un microscope à effet tunnel. La pointe de ce tout nouveau microscope dont les inventeurs venaient juste de recevoir le Prix Nobel de Physique en 1986, devenait le prolongement technique du doigt de l’expérimentateur.Depuis, quelles nouvelles du monde matériel d’en bas ? Presque chaque année, les revues scientifiques prestigieuses comme Nature ou Science nous rapportent quelques « premières » comme ici un interrupteur électrique réalisé avec un seul atome ou une seule molécule, là un amplificateur dont le gain est assuré également par une seule molécule. On fait de la mécanique avec une seule molécule, on construit avec le microscope à effet tunnel des machineries moléculaires comme une crémaillère dont le pignon est fait d’une seule molécule de 1,2 nm de diamètre et on étudie même comment roule une molécule brouette de 1.5 nm d’envergure. Mais il n’y a pas vraiment d’avalanche de résultats ni même de développement d’une technologie nouvelle qui serait basée sur des constructions atome par atome de structures ou de machines, chaque atome ayant été placé au bon endroit par l’ingénieur et sa machine d’assemblage. Quand on lit sur les nanotechnologies, on rencontre surtout de la nano-fabrication, des nano-biotechnologies, des nano-matériaux et de la nano-médecine. Tous ces nano-Y s’appuient sur de bien jolis instruments comme le microscope électronique ou les diffractomètres à rayons X. Mais ces instruments ne sont pas nés d’hier. Dans la littérature, le glissement est parfois plus radical. Tous ces nano-Y sont embarqués en nanosciences comme pour donner un vernis de modernité à l’utilisation de la lithographie électronique ou de la chimie des matériaux. Ce glissement provient d’une confusion entretenue entre la précision de fabrication d’une pièce entrant dans la composition d’une machine et les dimensions hors tout de cette machine. Par exemple, la distance source-drain d’un transistor frôlera certainement un jour les 10 nm. L’isolant de grille aura une épaisseur de quelques nanomètres. C’est très bien pour l’industrie de la micro-électronique. Pourtant, le transistor lui-même aura des dimensions latérales gigantesques, proches des 50 nm, par rapport au diamètre d’un atome. Pourquoi cette absence technologique en provenance de la manipulation d’atome à l’unité ? D’abord, les expériences de manipulation ou de contact électrique sur un seul atome ou sur une seule molécule sont très délicates. Très peu de laboratoire de part le monde en possède la technologie même si des microscopes à effet tunnel ultra stable garantits « manipulateur d’atomes » sont maintenant en vente. Il faut parfois plusieurs années pour faire le tour d’une molécule depuis sa conception, sa synthèse, sa mise en route sur une surface et la compréhension de son fonctionnement en situation. Enfin, l’histoire des sciences nous enseigne qu’une nouvelle microscopie (optique, électronique, à effet tunnel) ne marque son époque que sur le long terme. Par exemple, la microscopie électronique née en 1932 fait encore des progrès de nos jours. Les nano-Y vont donc continuer à se développer car notre économie dépend de la fabrication de machines ou de matériaux avec une précision nanométrique depuis les puces électroniques, les détergents et les lessives jusqu’à l’enrobage des bonbons, les revêtements des poêles à frire ou la lutte contre les maladies. Mais ne gâchons pas l’ère nouvelle qu’à ouverte l’écriture atome par atome de décembre 1989. On a souvent l’impression que notre admiration légitime pour les prouesses des machineries macromoléculaires de la vie nous empêche de penser à des machines non vivantes fonctionnant à une échelle encore plus petite où la précision de construction serait de l’ordre de la dizaine de picomètre et non plus de l’ordre du nanomètre. Certains clament même qu’en poussant cet atome ci, l’expérimentateur l’aurait dérangé dans sa quiétude universelle. Dans un gigantesque effet « papillon », ce serait alors toute la création, ses mythes et ses valeurs de l’Eucharistie à la construction de l’âme qui seraient en danger. Ce n’est pas parce qu’une technologie n’a pas d’applications visibles à 20 ou 30 ans qu’il faut arrêter de remplir nos bibliothèques des savoirs et des savoir-faire qui en découlent. Par Christian Joachim, CNRS Toulouse En savoir plus

Détenteur d’un PhD en physique mathématique obtenu à l’Ecole Nationale Supérieure de l’Aéronautique et de l’Espace de Toulouse et d’un PhD de physique quantique, Christian Joachim est aujourd’hui directeur de recherche au CEMES à Toulouse (Centre d’Elaboration de Matériaux et d’Etudes Structurales) où il coordonne les travaux du groupe Nanosciences. Chercheur de renomée mondiale, il défend une approche des nanotechnologies ascendante, qui consiste à partir de l’échelle atomique pour construire atome par atome des structures ou des machines.

Il est également l’auteur, en collaboration avec Laurence Plévert, du livre « Nanosciences : la révolution invisible », publié aux éditions du Seuil en janvier 2008.Par ailleurs, il contribue aussi aux éditions Techniques de l’ingénieur pour lesquelles il a écrit, en collaboration avec Xavier Bouju et André Gourdon, un article sur les Picotechnologies.

Les crèmes solaires sont une source de contamination chimique

Les cosmétiques, contrairement à ce que l’on croit souvent, ne sont pas mis sur le marché comme les médicaments après l’obtention d’une AMM (Autorisation de Mise sur le Marché).L’agence qui en a la charge, l’AFSSAPS (Agence Française de Sécurité Sanitaire des Produits de Santé), émet simplement des recommandations d’évaluation des risques, mais celles-ci, de son propre aveu, ne sont pas contraignantes. Il n’y a donc pas une évaluation spécifique des cosmétiques pour bébé. Il n’y a pas non plus d’évaluation systématique du potentiel cancérogène ou de perturbation endocrinienne. L’Académie de Médecine elle-même avait reconnu le bienfondé de ces critiques en pointant les insuffisances actuelles de la réglementation dans son communiqué du 9 Décembre 2008 : « Il faut insister sur l’absence de données sur la résorption percutanée chez le nourrisson et le jeune enfant, ainsi que sur l’absence de connaissances sur le métabolisme et l’excrétion des ingrédients contenus dans les crèmes chez les nourrissons ».

Privilégier les produits connus pour leur absence de toxicité
L’Académie faisait également les recommandations suivantes : « privilégier les ingrédients les plus anciennement connus pour leur absence de toxicité à court, à moyen terme et, si possible, à long terme », « n’admettre dans la composition des produits cosmétiques pour bébés que des substances dont l’absence de toxicité a été démontrée, en tenant compte non seulement de tous les composants du produit mais aussi de leurs interactions éventuelles ».Des engagements avaient été pris en novembre par l’AFSSAPS (Agence Française de Sécurité Sanitaire des Produits de Santé) et le Ministère de la Santé, notamment en matière d’étiquetage spécifique pour les toxiques pour la reproduction, mais à ce jour ils n’ont pas été suivis d’effets. Le reportage de l’émission Envoyé Spécial diffusée le 30 Juillet 2009 sur les crèmes solaires illustre ces mêmes carences. L’équipe de la chercheure suisse Margret Schlumpf interviewée dans le reportage a montré que plusieurs ingrédients des crèmes solaires sont des perturbateurs endocriniens.

Appliquer le principe de précaution
Interviewé également, André Cicolella, porte-parole du RES, a insisté sur le fait que les crèmes solaires sont un vecteur de contamination chimique de la quasi-totalité de la population, y compris donc de la fraction la plus sensible, celle des nouveau-nés, et que l’exposition à des substances oestrogéniques peut conduire au développement des cancers hormono-dépendants comme le cancer du sein. Les crèmes solaires ont pour fonction de protéger des effets des rayonnements UV et ne devraient donc pas avoir de toxicité propre. Le principe de précaution impose donc de ne pas utiliser dans des usages cosmétiques des substances du type perturbateurs endocriniens. Le même raisonnement vaut pour les nanomatériaux, aujourd’hui très présents dans ces cosmétiques et dont l’effet n’a pas été évalué suffisamment. En outre, l’impact sur l’écosystème n’est pas négligeable comme le montrait également le reportage d’Envoyé Spécial. 4.000 tonnes de crèmes solaires sont en effet répandues, chaque année, dans les bords de mer du globe, avec des conséquences en termes de mortalité du corail. Les filtres UV sont retrouvés aussi dans les eaux usées. 

Des cancers liés à l’utilisation des filtres UV ?
Un certain nombre de données scientifiques conduisent à penser que l’augmentation du cancer de la peau pourrait être la conséquence de l’emploi des filtres UV :
  • certaines substances génèrent des radicaux oxydants sous l’effet des rayonnements UV ;
  • la réduction de l’exposition au rayonnement UV-B par les filtres UV diminue la production, par la peau, du photoprotecteur naturel qu’est la mélanine,
  • la diminution de la production de vitamine D chez les utilisateurs de crèmes solaires.
Or, ces 3 phénomènes sont impliqués dans les cancers de la peau. Ces questions sont néanmoins encore controversées (Voir les articles « filtre ultra-violet » et « sun screen controversy » sur Wikipedia).L’ONG américaine EWG analyse régulièrement les crèmes solaires du point de vue de leur efficacité et de la toxicité de leurs composants. En 2009 près de 2.000 crèmes solaires ont été passées au crible (lire le rapport complet).

3 produits sur 5 ne protègent pas la peau
Même si les produits et les gammes ne sont pas identiques sur le marché français, il est vraisemblable que la situation n’est pas fondamentalement différente, car les ingrédients utilisés (pouvant contenir des perturbateurs endocriniens et des nano-matériaux) sont quasiment les mêmes dans les 2 pays, et les réglementations reposent sur les mêmes principes.On retiendra que selon cette étude, 3 produits sur 5 ne protègent pas la peau ou contiennent des substances dangereuses. EWG (Environmental Working Group) met en cause l’agence américaine, la FDA (Food and Drug Administration). On peut, de même, s’interroger sur la responsabilité de l’AFSSAPS en ce domaine. Comment se fait-il que des perturbateurs endocriniens puissent être utilisés dans les crèmes solaires avec manifestement des effets clairement démontrés chez l’animal sans que celle-ci y trouve à redire ? 

Source :
Le Réseau Environnement Santé a été lancé en mars 2009 sous l’égide de l’Alliance pour la Planète et plus particulièrement des ONG suivantes : WWF France, Fondation Sciences Citoyennes, MDRGF, FacVerte, Objectif Bio et Nord Ecologie Conseil.

Énergies renouvelables : richesse d’hier, espoir de demain

La richesse moyenne d’un Européen au Moyen-âge ou à l’époque moderne était bien supérieure à celle de ses lointains ancêtres qui étaient déjà heureux lorsqu’ils trouvaient de quoi se nourrir. La société de cette époque exploitait de manière intensive les énergies renouvelables : bois, eau, vent ? Avec des dispositifs ayant un rendement, et une puissance, très faible comparé à ce que l’on sait faire aujourd’hui dans ce domaine. Les besoins énergétiques étaient beaucoup moins importants et la population moins nombreuse (il y avait 2 fois moins d’habitants en France en 1.800 qu’aujourd’hui). Cet accès à l’énergie a néanmoins permis à un Français de doubler en moyenne sa richesse entre 1.400 et 1.800.La pression sur l’environnement était forte puisqu’à la fin de cette époque le bois commençait à manquer (la surface de la forêt française était la moitié de ce qu’elle est aujourd’hui).
Les énergies fossiles et l’industrialisation
L’exploitation du charbon d’abord, puis du pétrole et du gaz naturel, a permis à l’Europe et à d’autres pays de disposer de sources d’énergie concentrées (1 litre de pétrole contient environ 10 kWh alors qu’il faut turbiner 3,6 tonnes d’eau situées à 100 mètres de hauteur pour obtenir la même quantité d’énergie) et peu chère (avec 0,1 €€ on peut acheter plus d’énergie que ce que peut fournir un travailleur manuel pendant une journée).Grâce à cela la civilisation s’est fortement développée (un français a en moyenne doublé sa richesse en 25 ans dans la deuxième moitié du siècle dernier). Cela a permis à la population mondiale de croître fortement puisqu’on est passé d’environ 1 milliard d’habitants en 1800 à presque 6,8 milliards aujourd’hui.La figure ci-contre montre, pour quelques dates particulières, la corrélation entre la consommation d’énergie primaire et la population au niveau mondial. Pour l’année 1800, il s’agit d’une estimation.On constate un accroissement considérable de la consommation d’énergie primaire au cours de ces 2 derniers siècles. Si la consommation par habitant était restée la même depuis 1800, on suivrait la droite indiquée sur la figure. On voit que l’écart avec cette droite augmente en fonction du temps ce qui s’est traduit par une augmentation du niveau de vie moyen des habitants sur la terre.

Les énergies renouvelables n’ont pas disparu
Mais les énergies renouvelables n’ont jamais disparu de notre mix énergétique. On serait tenté de croire que notre civilisation a remplacé les énergies renouvelables par les combustibles fossiles qui sont, dans la majorité des cas moins chers et plus concentrés en énergie.En fait il n’en est rien : la consommation de pétrole, de charbon et de gaz s’est ajoutée à celle des énergies renouvelables. En effet, en 1800, il y avait environ 1 milliard d’habitants et l’on estime qu’ils consommaient 0,2 Gtep (Gtep = milliard de tonnes équivalent pétrole) par an. C’était essentiellement de la biomasse. Aujourd’hui, la moitié de la planète (environ 3 milliards d’habitants) utilise la biomasse et les déchets organiques comme énergie principale.

7 fois plus d’énergies renouvelables qu’il y a 700 ans
Cela représente 1,2 Gtep d’énergie primaire par an. En ajoutant les autres énergies renouvelables on reste à un peu moins de 13 % d’énergie primaire totale consommée, ce qui représente un peu plus de 12 Gtep.Aujourd’hui, 3 fois plus d’habitants qu’en 1800 utilisent les énergies renouvelables comme principale source d’énergie et l’humanité en consomme plus de 7 fois plus qu’il y a 200 ans. Le paradoxe, observable sur la figure ci-contre, est que les pays développés parlent beaucoup d’énergies renouvelables mais basent l’essentiel de leur développement sur les combustibles fossiles alors que les pays en voie de développement rêvent de pétrole mais doivent se contenter de biomasse. La Chine, pays en plein développement, fait proportionnellement mieux en matière de contribution des énergies renouvelables que la plupart des pays occidentaux.Comme le montre la figure ci-contre à gauche, la consommation d’énergie des pays pauvres, qui utilisent essentiellement les énergies renouvelables est faible (en tonne équivalent pétrole par habitant et par an). Les pays riches consomment beaucoup d’énergie, essentiellement des combustibles fossiles. La consommation moyenne d’un habitant du Bangladesh ou d’Éthiopie est environ celle d’un Européen moyen il y a 2 siècles et l’espérance de vie est à peine supérieure à ce qu’elle était à cette époque.  

Rendre les énergies renouvelables compétitives économiquement
Comme les pays pauvres consomment peu, ils émettent aussi peu de CO2 comme on peut le voir sur la figure ci-dessous. Ce sont pour le moment les seuls pays dont les émissions sont inférieures à ce que la nature peut en moyenne absorber, donc les meilleurs élèves de la planète en matière d’émission de gaz à effet de serre. Il reste de gros efforts de recherche à faire dans le domaine des énergies renouvelables dont beaucoup ne sont encore pas actuellement rentables économiquement (en l’absence de subventions). Cela vient du fait que l’énergie issue de ces sources est très diluée et qu’il est souvent coûteux de les exploiter.Le solaire qui est l’énergie de l’avenir demande en particulier des ruptures technologiques pour en abaisser fortement le coût. Un panneau actuel d’1m2ètre carré vaut environ 1.000 € et produit de l’ordre de 100 kWh/an.Avec une durée de vie de l’ordre de 30 ans, cela donne un prix du kWh d’environ 0,35 € s’il n’y a pas d’entretien, soit environ 10 fois plus cher que ce que l’on peut produire avec les centrales en service actuellement. On arrivera sans aucun doute à résoudre tous ces problèmes mais il est difficile aujourd’hui de prévoir à quelle échéance. 

Source :
Christian Ngô collabore aux rubriques Energies, Chimie/Agroalimentaire et Biotechnologies. Il a fait de la recherche fondamentale en physique nucléaire pendant presque 20 ans à l’Université d’Orsay et au CEA/Saclay. En mai 2008, il a créé Edmonium Conseil. Lire son blog.

Efficiency 2.0 : le fils de Facebook et de la prise électrique

Une start-up new-yorkaise, Efficiency 2.0, propose un logiciel sur mesure qui promet des conseils ciblés, adaptés à la situation de chaque consommateur.

Le principe est simple : tout comme Amazon quand il vous propose des livres susceptibles de vous plaire, au vu de vos lectures passées mais aussi de celles des lecteurs qui vous ressemblent, Efficiency 2.0 s’appuie sur les informations démographiques et géographiques vous concernant (âge, revenus moyens du voisinage, équipement des foyers comme le vôtre…), ainsi que des informations supplémentaires que vous acceptez de livrer, pour vous proposer des recommandations qui doivent tomber le plus juste possible, grâce à un algorithme très sophistiqué.

Culpabiliser les gros consommateurs

Par exemple, pour un consommateur de 23 ans, a expliqué son PDG Tom Scaramellino dans une interview à Business Week, il proposera des solutions ne nécessitant pas de grosses dépenses.

Efficiency 2.0 propose en outre des outils de socialisation pour essayer d’impliquer tout un voisinage dans des actions d’économies d’énergie, via une interface type Facebook qui permet de se connecter avec des « amis » voisins pour comparer sa consommation d’énergie.

Si vous consommez davantage que vos voisins, votre icône fait la grimace, sinon un grand sourire. « Oui, l’idée est de vous culpabiliser si vous consommez trop. C’est ce que le secteur de l’amaigrissement fait depuis des années », a souligné le PDG. Une réalisation qui n’est pas sans rappeler l’idée de marier compteurs électriques et jeu vidéo, proposée par un professeur de Stanford.

Quelle motivation pour les consommateurs ?

D’un autre côté, un homme de terrain comme le PDG d’Areva Transmission et Distribution Philippe Guillemot nous a déclaré ne pas croire à des compteurs ludiques et encore moins à des interfaces qui seraient réglées au millimètre par des consommateurs passionnés, mais il prédit plutôt que les consommateurs ne voudront pas se casser la tête et préfèreront des compteurs très simples, à régler sur seulement deux positions au choix : économie ou confort.

Efficency 2.0 affirme en tout cas avoir déjà autant de distributeurs d’énergie partenaires que Google pour son logiciel PowerMeter (soit 9 annoncés pour l’instant par Google). Un tel outil peut en effet intéresser les compagnies d’énergie qui peuvent ainsi prouver que leurs utilisateurs sont plus économes, et en ce cas, dans certains Etats américains, recevoir des subventions.

 

Source :

Green Univers

Un générateur solaire dans l’espace en 2016 ?

La station satellite, qui doit être lancée en 2016, aura une capacité totale de 1.000 MW et aura pour objectif de délivrer 1.700 Gwh par an pendant 15 ans. L’énergie générée sera convertie en radiofréquences à destination d’une station de réception sur Terre, qui convertira à son tour les ondes en électricité pour alimenter le réseau.Le principe de fermes solaires basées dans l’espace a commencé à attirer l’attention dans les années 1960 lorsque les scientifiques de la NASA ont cherché des solutions à l’intermittence du solaire.L’un des principaux obstacles à l’énergie solaire spatiale reste son coût. Mais Solaren, une société créée en 2001 à cet effet – annonce avoir abouti à un design qui minimise la taille et le poids de la centrale, ce qui rendrait son lancement plus aisé et moins coûteux.

Un miroir géant pour concentrer la lumière
Au lieu d’être attachés ensemble par des câbles et des montants pesant leur poids, les composants de la centrale flotteront librement et seront alignés par un logiciel de contrôle à distance dans le même temps qu’un miroir gonflable géant concentrera la lumière sur les cellules à haute efficacité.Si le projet, qui doit être approuvé par le régulateur de l’Etat fin octobre, voit le jour, PG&E s’engage sur un contrat de 15 ans avec Solaren. Selon PG&E, « Cette nouvelle technologie marquerait une percée dans l’industrie des énergies renouvelables ».Le professeur Philip Eames du Centre for Renewable Energy Systems Technology estime l’idée excitante, réalisable et innovante grâce à ses réflecteurs allégés. Il ajoute que « le coût reste important par rapport à des technologies compétitives comme l’éolien, mais il s’agit d’une première tentative et les prix baisseront certainement dans le futur. » Entretemps, Solaren cherche un investisseur à hauteur des 5 milliards que couteront la fabrication et la mise en orbite de la station. AnnaSimpson est rédactrice adjointe de Green Futures, un magazine indépendant publié par Forum for the future.

Energie solaire : « Nous serons pleinement compétitifs d’ici 5 à 15 ans »

Ken Zweibel, directeur de l’Institut de l’énergie solaire à l’Université George Washington, participait, à Washington DC, à un symposium sur l’avenir de l’industrie solaire. A cette occasion, il a critiqué la priorité donnée à la recherche de nouvelles technologies. Selon lui, la technologie solaire est en effet déjà suffisamment avancée.

Vous avez déclaré : « Dans une certaine mesure, nous avons une guerre de retard. » Que vouliez-vous dire ?
L’objectif de la conférence était de fixer une feuille de route pour les investissements, très rigide et technique sur le modèle de l’industrie des semi-conducteurs. La plupart des participants présents qui avaient une certaine expérience considéraient cela comme inutile et potentiellement destructif car il existe une pléthore de technologies solaires radicalement différentes. De la même façon, l’idée de concentrer la majeure partie des fonds fédéraux sur les technologies photovoltaïques (PV) « futuristes » était également considérée comme inutile voire contreproductive (en détournant l’attention des options qui existent déjà).

Que sont les technologies solaires futuristes ?
Ce sont les technologies qui ne sont basées ni sur le silicium cristallin ni sur les cellules minces déjà commercialisées : cadmium telluride (CdTe), silicium amorphe, alliages du cuivre indium diselenide, ou arsenide de gallium (GaAs) et ses alliages pour des usages à jonctions multiples dans des concentrateurs solaires. Les cellules teintes se situent entre les technologies futuristes et les technologies commerciales car elles ont attiré un certain nombre d’investissements. Des exemples de technologies futuristes sont les cellules solaires plastiques et celles qui reposent sur des procédés novateurs à l’échelle du nanomètre.Les options solaires futuristes ont été examinées et rejetées à de multiples occasion au cours des trente dernières années. D’autres, qui sont prometteuses, mettront des décennies à aboutir. Enfin, pour beaucoup d’entre elles, on ne sait toujours pas si leur potentiel est supérieur à celui des technologies actuelles.

Aujourd’hui le solaire est-il compétitif ?
Non, mais son ordre d’échelle a grandement diminué et il est en passe de le devenir. Son évolution régulière laisse penser que nous serons pleinement compétitifs d’ici 5 à 15 ans. Dans l’intervalle, il existe une feuille de route technique pour atteindre cet objectif pour de multiples technologies PV déjà existantes. Non seulement une percée n’est pas nécessaire, mais les options futuristes sont moins prometteuses que celles qui existent aujourd’hui.

Quelles sont les priorités ?
L’industrie solaire a pour objectifs :
  1. de gagner l’accès à des marchés plus subventionnés comme en Europe et dans une moindre mesure aux Etats-Unis;
  2. de réduire drastiquement les coûts comme cela a été le cas récemment (de $ 5/W en 2008, à $ 4/W en 2009, et peut-être $ 3/W en 2010 sur des échelles d’envergure) afin de pouvoir réduire voire supprimer les subventions;
  3. de concentrer les efforts de R&D et d’améliorations technologiques sur les technologies existantes;
  4. de gagner le soutien de courtiers en connaissance (comme la National Academies, à l’origine du symposium) qui mettent en avant les technologies car le secteur photovoltaïque est encore mal compris). Ces objectifs devraient également être valables pour ceux qui financent le solaire (ex : le gouvernement fédéral). Une dernière priorité est de mettre en place une feuille de route technique pour développer le solaire à grande échelle. La stabilité du réseau, la nécessité de transmissions longue distance en provenance des régions très ensoleillées et le stockage de l’électricité deviendront alors des enjeux clés.
Propos recueillis par Clémentine FulliasKen Zweibel a fondé PrimeStar Solar, une start up spécialisée dans les cellules solaires photovoltaïques minces. Il a fondé et dirige l’Institut d’énergie solaire de l’Université George Washington depuis 2008.

Le charbon : le problème de la Banque Mondiale

Mindy S. Lubber est la Présidente de Ceres, une coalition américaine d’investisseurs et de leaders dans l’environnement qui vise à améliorer les pratiques de gouvernance sociale et environnementale dans les entreprises. Elle aborde ici le problème récurrent de l’usage du charbon, le combustible fossile le plus polluant pour l’atmosphère, mais qui reste trop largement utilisé.A Washington, c’est un casse-tête climatique dont tout le monde parle : même si les Etats-Unis réduisent leurs émissions de gaz à effet de serre, la Chine et l’Inde sont sur le point d’écraser l’Occident alors qu’elles construisent d’énormes centrales à charbon. Pour les politiques, nous devons inciter la Chine et l’Inde à consommer moins de charbon, la plus sale des énergies fossiles, pour propulser leurs économies.Mais qui finance ces nouvelles centrales à charbon dans les pays émergents ? Il faut chercher du côté de la Banque Mondiale, de la Banque Asiatique de Développement et autres institutions financières publiques internationales soutenues par les nations les plus prospères.Alors que le monde industrialisé lutte pour réduire ses émissions et s’apprête à négocier un traité climatique international à Copenhague, il finance plusieurs milliers de mégawatts produits par les nouvelles centrales à charbon des pays en développement.

37 milliards de dollars investis dans des centrales à charbon
Une nouvelle étude de Bruce Rich, auparavant à la fondation américaine Environmental Defense Fund, montre que les institutions financières publiques internationales ont donné 37 milliards de dollars pour la construction d’au moins 88 nouvelles centrales à charbon dans les pays en développement depuis 1994. Qui plus est, ces 37 milliards de dollars de financement direct en ont garanti 60 autres en provenance de fonds privés et locaux, ce qui monte l’investissement total dans les nouvelles centrales à charbon des pays en développement à plus de 100 milliards de dollars.La Banque Mondiale classe ces centrales parmi les projets à faibles émissions de CO2 dans le cas des centrales supercritiques1 soi-disant à faible taux d’émissions.Hors, ces 88 centrales à charbon vont émettre 792 millions de tonnes de CO2 par an, réduisant à néant la réduction d’émissions à laquelle le projet de loi Waxman-Markey espère aboutir d’ici la prochaine décennie.L’année 1994 est prise comme référence car il s’agit de l’entrée en effet de la Convention des Nations Unies sur le climat, date à laquelle les pays industrialisés se sont engagés à financer la lutte contre le changement climatique dans les pays pauvres. Au lieu de cela, les nations les plus riches ont mis en place une infrastructure à forte teneur en CO2 qui va opérer pendant des dizaines d’années.Certes, ces mêmes prêteurs ont engagé 6 milliards de dollars ces 15 dernières années pour aider les citoyens les plus vulnérables à s’adapter au réchauffement climatique. Mais ce n’est qu’une fraction des 100 milliards investis dans des centrales à charbon. C’est ce qui s’appelle se tirer une balle dans le pied.

« Les centrales à charbon se construiront avec ou sans notre aide »
Voici ce que l’économiste en chef de la Banque Mondiale a à dire : « Dans la mesure où le charbon est bon marché et abondant et que les besoins en électricité sont si grands, les centrales à charbon se construiront avec ou sans notre aide. Sans notre aide, ce sont les moins chères et les plus sales qui prolifèreront. »Faux, répond le Center for Global Development. La plupart des nouvelles centrales à charbon construites sans l’aide de la Banque Mondiale, du moins en Inde, sont des centrales supercritiques car les coûts opérationnels et de carburant sont les plus faibles.Mais les centrales supercritiques sont seulement légèrement plus propres. Elles produisent environ 15 % de moins de CO2 que les centrales à charbon traditionnelles, selon l’Environmental Defense Fund, et elles ne sont pas aussi propres que les centrales à gaz naturel.

Des alternatives existent
Ce qui m’amène aux alternatives. Il y a un meilleur moyen d’alimenter les pays pauvres en électricité : les institutions financières internationales devraient investir davantage dans les énergies renouvelables et la modernisation des réseaux.Aujourd’hui la Banque Mondiale dépense deux fois plus pour les énergies fossiles que pour les nouvelles énergies renouvelables et l’efficacité énergétique réunies, et cinq fois plus que pour les énergies renouvelables seules.C’est une occasion manquée alors que les projets à grande échelle pour les énergies renouvelables sont si réalisables dans les pays en développement. Prenez l’état de Gujarat en Inde, où une énorme centrale à charbon de 4.000 megawatts, la Tata Mundra, est construite avec l’aide de la Banque Mondiale.

Redéfinir les « faibles émissions »
Plus de 7.000 megawatts issus des énergies renouvelables sont également en jeu ici, sans aucune aide des banques internationales de développement. AES, une société américaine, y construit notamment une centrale thermique solaire pour 1,2 milliards de dollars.Enfin, les institutions financières doivent être plus strictes sur la définition de « faibles émissions ». Les centrales à charbon supercritiques [1] entrent aujourd’hui dans cette vaste catégorie, ce qui vide de sens les 40 % de prêts de la Banque Mondiale en direction d’énergies à faibles émissions.Ces réformes sont impératives car si nous ne freinons pas l’augmentation des émissions de CO2 du charbon dans les pays en développement, aucune réduction des émissions des pays riches ne fera une différence.[1] Les centrales supercritiques (SC) demandent moins de charbon par mégawatt-heure, ce qui veut dire moins d’émissions (notamment de dioxyde de carbone et de mercure), une plus grande efficacité et des coûts moins élevés par mégawatt. 

Source :
Marc Gunther.comMindy S. Lubber est la Présidente de Ceres, une coalition américaine d’investisseurs et de leaders dans l’environnement qui vise à améliorer les pratiques de gouvernance sociale et environnementale dans les entreprises. Elle dirige également le Réseau des investisseurs sur le risque climatique (INCR), une alliance qui coordonne les réponses des investisseurs américains aux risques et opportunités financières posés par le changement climatique.

Le développement du sans contact ne fait que commencer

Le sans contact entre dans une période riche en développements. Les cartes de paiements sont maintenant dans les mains des consommateurs, reste à les utiliser. L’année 2009 risque d’être difficile, mais on devrait aussi assister à d’importantes avancées, avec le déploiement de lecteurs et la sortie de différents formats de cartes mères. Les solutions de cartes de paiements ont enregistré de bons résultats en 2008. « Nous avons vu le marché grossir en termes d’utilisation et de demande », dit Charles Walton, vice-président exécutif, directeur des ventes et du marketing pour la division paiement d’Inside Contactless. « Pour Inside, cela a été une bonne année. Nous avons vendu 65 millions de puces pour les cartes Visa et MarsterCard., dont environ 90% pour les Etats-Unis où nous avons vendu 110 millions de puces depuis 2010″, ajoute-t-il.D’après Randy Vanderhoof, directeur exécutif de Smart card alliance, l’industrie s’attend à la production de 80 millions de cartes d’ici à 2009, et de 100.000 terminaux. « Le déploiement ne s’est pas ralenti », confirme-t-il. C’est notamment le cas en Europe et en Amérique latine, même si le principal marché reste les Etats-Unis. Bien que la situation économique pourrait compromettre certains projets de développement, les analystes rencontrés par Randy Vanderhoof prévoient une hausse pour les cinq prochaines années. Inside a révisé ses projections à la baisse pour 2009. « Cela risque d’être une année assez creuse à cause de la situation économique », indique Charles Walton.

Le déploiement des terminaux
D’après Randy Vanderhoof, les Etats-Unis vont demeurer leaders sur le marché des cartes sans contact. « L’infrastructure de paiement est déjà en place. Bien que des cartes soient distribuées au Royaume-Uni, à Singapour ou ailleurs, peu de commerçants acceptent les paiements sans contact. Nous allons probablement observer un volume significatif de cartes, mais les transactions resteront réduites. »[…] Bien que le nombre de cartes en circulation ait augmenté, il n’y a pas eu de croissance équivalente des terminaux. « Visa et MasterCard ont investi dans le déploiement des terminaux depuis des années mais je pense qu’en 2008, ils ont réalisé qu’ils ne pourraient pas continuer à investir ainsi. Les commerçants vont devoir s’en sortir seuls », commente Charles Walton. Sans aides, les détaillants vont remplacer leurs systèmes au fur et à mesure du renouvellement naturel, en ajoutant la technologie sans contact, selon Randy Vanderhoof. Les terminaux durent de cinq à dix ans. « En renouvelant leurs équipements, ils font un petit investissement supplémentaire même si l’utilisation du sans contact reste faible dans un premier temps, car ils savent qu’elle va prendre de l’ampleur dans quelques années, et notamment avec les progrès de la NFC (Near field communication, Communication en champ proche) qui va accélérer ce mouvement », explique Randy Vanderhoof.[…]
Et la prochaine killer app ?
Selon Charles Walton, les transports en commun constitueront la prochaine étape la plus importante dans le déploiement du sans contact. « Globalement, la plupart des réseaux de transport en commun utilisent le sans contact, par exemple aux Etats-Unis les villes d’Atlanta, Washington., New York ou Los Angeles. » Les cartes de transport pourraient être utilisées pas uniquement pour monter dans le train ou le bus. « Dans les gares, on peut aussi prendre un café ou acheter le journal », explique-t-il. « Il est logique de proposer une offre convergente d’applications sans contact, comme le paiement plus le transport sur une seule carte. » […]Une autre évolution consiste à dépasser complètement les tickets de transport en permettant l’acceptation des cartes Visa ou MasterCard dans le train. « C’est une tendance significative », décrit Walton. On constate aussi un plus grand intérêt pour le sans contact de la part des étudiants et des entreprises gestionnaires de campus pour l’accès aux bâtiments. « Il est très intéressant de combiner une carte de paiement avec une carte d’accès », insiste-t-il.

Fidéliser les clients
La fidélisation est un autre domaine où le sans contact pourrait se développer. « On peut imaginer présenter sa carte AAA (American automobile association) ou bien son numéro de fidélité Barnes and Noble et recevoir des réductions automatiquement, ou une carte co-brandée avec une banque ou une compagnie aérienne où l’on pourrait mettre des numéros de voyageurs fréquents », décrit Charles Walton. Pour Randy Vanderhoof, le couponing va se développer. « Comme de plus en plus de commerçants commencent à accepter le sans contact, ils peuvent ensuite cibler des clients spécifiques avec un système de couponing électronique ou un programme marketing lié à la carte », explique-t-il. « Il y a eu différents projets pilotes comme Bart (Bay area rapid transit district) à San Francisco avec Jack-in-the-box. J’espère que d’autres vont suivre. Avec les processeurs de paiements, dont la rentabilité diminue avec la valeur de la transaction, il faut chercher des moyens de promouvoir des services à valeur ajoutée. » Pour Legic, qui voit plus loin que les perspectives liées au paiement, il existe de nombreuses possibilités comme l’utilisation d’une carte identique pour le contrôle d’accès – logique et physique – et le mobile. A l’origine prévues pour une seule application, les cartes sans contact sont maintenant destinées à des applications multiples. « Les cartes destinées au login sur PC deviennent des cartes multifonctionnelles, offrant des applications sans contact comme l’ouverture des portes, l’accès aux infrastructures de l’entreprise ou l’utilisation du photocopieur », explique Urs A. Lampe, vice-président du marketing produit et développement pour le fournisseur suisse Legic Identsystems[…]Pour lire l’intégralité de l’article en anglais, écrit par Andy Willimas, associate editor, Avisian publications : Contactless is just getting started

L’Inria crée un club de PME pour favoriser les transferts de technologies

L’Inria va lancer en octobre un club des PME, qui sera constitué d’un premier cercle de start up issues de son incubateur, et plus largement des entreprises avec lesquelles il est en relation. « Il s’agit d’un outil pour maintenir un lien avec l’ensemble de nos partenaires », explique Philippe Gesnouin, en charge du projet et responsable du transfert technologique pour la santé, les sciences de la vie et les biotechnologies. « Le but est de favoriser le transfert de technologies et de connaissances. Une des missions d’un établissement de recherche consiste à participer au soutien des PME. » Concrètement, les membres du club auront accès à un portail d’informations sur la recherche dans les sciences et technologies de l’information et de la communication (Stic), les appels à projets, les activités au sein des pôles de compétitivité et les actions de communication dans le cadre de salons ou de conférences internationales. Le site Internet mettra également à disposition des PME partenaires des CV de jeunes diplômés, de doctorants ou de post-doctorants de l’Inria.

Networking
Au-delà de ce portail, l’Inria (Institut de recherche en informatique et automatique) compte favoriser le networking avec l’organisation d’au moins une réunion par an. « Le but est que des projets puissent naître, également entre les PME partenaires », complète Philippe Gesnouin. « Cela paraît simple, mais c’est probablement la première initiative de la sorte en France », conclut-il.Les membres du club viendront de tous les secteurs dans lesquels intervient l’Inria : santé, sciences de la vie, biotechnologie, énergie, transport et environnement, télécoms, réseaux et multimédia, édition de logiciels, systèmes embarqués et aéronautique, défense, spatial et sécurité.

Quelle est la durée de vie d’un panneau solaire ?

La durée de vie d’un module photovoltaïque est une donnée cruciale pour évaluer le coût de l’énergie solaire. La rentabilisation peut prendre plus d’une décennie en Europe du nord, même en tenant compte des subventions. Dans ces conditions, quelques années de vie de plus peuvent faire la différence. Une étude japonaise suggère que l’espérance de vie est plus longue que prévue [1]. Une société qui réutilise les vieux panneaux explique ainsi avoir testé 330 panneaux fabriqués en 1984. 90 % de ces modules ont encore un rendement équivalent à 80 % de leur production initiale.L’industrie espère que les produits fabriqués aujourd’hui auront une durée de vie encore plus longue. Les supports utilisés pour fabriquer des panneaux solaires devraient moins accuser la décoloration et une espérance de vie moyenne de 30 ans ou plus est envisageable.Ces découvertes sont importantes car elles vont permettre de mieux évaluer le coût financier des installations solaires et, tout aussi important, elle vont encourager les banques à prêter davantage d’argent et à demander à être remboursées moins rapidement. Autrement dit, si la banque était forcée de saisir des panneaux solaires en cas de défaillance de paiement de l’emprunteur, ces panneaux avec une durée de vie plus longue auraient plus de valeur aux yeux des futurs propriétaires.Coïncidence ou pas, le Ministère britannique de l’Energie et du Climat a annoncé que son tarif de rachat du solaire photovoltaïque courrait sur 25 ans et non sur 20 comme il l’envisageait en juillet 2009. L’attractivité des investissement dans les systèmes photovoltaïques en sera grandement augmentée.

Source :
[1] ‘Next Energy and Resources Co. Finds Use for 25 year-old Solar Panels’, Japan for Sustainability (www.japanfs.org) [consulté le 4 août 2009].Chris Goodall est l’auteur, entre autres, de 10 Technologies pour sauver la planète. Il est également éditorialiste pour The Independant on Sunday et le Guardian. Lire son blog.

L’Europe lance une consultation publique sur les TIC

La Commission européenne a lancé mardi 4 août une consultation publique sur les défis à venir pour l’Europe numérique. Il s’agit d’une première étape vers une nouvelle stratégie européenne des technologies de l’information et de la communication (TIC) que la Commission compte présenter en 2010 dans le cadre de la prochaine vague de l’agenda de Lisbonne.Le lancement de cette consultation publique a donné l’occasion de tirer un bilan du plan i2010 lancé en 2005. Les utilisateurs réguliers d’Internet sont passés de 43 % en 2005 à 56 % en 2008. Viviane Reding, membre de la Commission chargée de la société de l’information et des médias, a mis en avant les progrès effectués en matière de haut débit, de téléphonie mobile et de services publics en ligne. « L’économie numérique européenne dispose d’un formidable potentiel pour engendrer des profits considérables dans tous les secteurs, mais pour que cet avantage se traduise en croissance durable et en nouveaux emplois, les pouvoirs publics doivent montrer la voie à suivre en adoptant des stratégies coordonnées pour faire tomber les obstacles aux nouveaux services », a-t-elle déclaré. Malgré les progrès réalisés, un tiers des citoyens de l’Union européenne n’ont jamais utilisé l’internet. Seuls 7 % des consommateurs ont déjà fait des achats sur un site situé dans un autre Etat membre. Par ailleurs, l’Europe reste loin derrière les États-Unis et le Japon en ce qui concerne les investissements en R&D dans le secteur des TIC, des communications à haut débit et du développement de marchés innovants comme la publicité en ligne. Dans ce contexte, l’Europe a adopté le plus important budget jamais consacré au TIC. Dans le cadre du 7e PCRD (programme cadre de recherche et développement) et du plan de compétitivité, 10 milliards d’euros seront investis entre 2007 et 2013 pour les technologies de l’information et de la communication. La consultation publique, qui se tiendra jusqu’au 9 octobre 2009, s’articule autour de neuf questions :

  • Comment les technologies de l’information et de la communication peuvent-elles contribuer à la reprise économique et à l’agenda de Lisbonne en matière de croissance et d’emploi ?
  • Comment les TIC peuvent-elles aider à la transition vers une économie plus durable et moins émettrice de carbone ?
  • Comment créer au mieux une économie connectée à 100% qui offre un accès ouvert et haut débit pour tous ?
  • Comment l’Europe peut-elle accroître ses performances sur les sujets cruciaux de recherche et d’innovation ?
  • Comment renforcer le marché unique numérique dans le but d’apporter plus de croissance, d’innovation et de nouveaux services ?
  • Comment les services en ligne et les outils comme le Web 2.0 peuvent-il favoriser plus de créativité, de production de contenu et de services pour l’utilisateur ?
  • Comment le Web peut-il contribuer à la modernisation de services publics pour qu’ils soient facilement accessibles à tous les citoyens européens ?
  • Comment les TIC peuvent-elles améliorer la qualité de vie et l’ouverture culturelle des citoyens européens en les plaçant au centre de leur vie ?
  • Comment l’Europe peut-elle accroître son poids dans le Web mondial et dans la société globale de l’information ?
Pour participer : ec.europa.eu

Les giga promesses du marché des nano

L’échelle nano se situe au milliardième de l’unité de base, mais le marché des nano se compte lui en milliards. Entre 750 et 3.000 milliards de dollars en 2015. Le marché de l’infiniment petit a de quoi donner le vertige. Bien sûr les chiffres varient fortement d’une source à l’autre, mais tous les analystes sont d’accord sur un point : nous allons assister à un boom des nanotechnologies. D’après une étude des Entreprises du médicament (Leem), qui s’appuie sur des données du cabinet Cientifica, de la Commission européenne et du Nanoforum, le marché des nanotechnologies va connaître une accélération de la croissance à partir de 2010. Selon l’hypothèse basse, alors qu’il représente 3 milliards de dollars en 2008, il pèsera 750 milliards de dollars d’ici à 2015. Les plus optimistes avancent le chiffre de 3.000 milliards de dollars. Ces chiffres varient notamment à cause de la prise en compte ou non du coût total du produit qui intègre des nanoparticules. En 2008, les Etats-Unis représentaient les deux tiers du marché et l’Europe un cinquième. Rappelons que le Fonds fédéral américain pour les nanotechnologies aura investi 1,5 milliards de dollars en 2009. Quant à l’Union européenne, elle y consacre 3,5 milliards d’euros (5 milliards d’euros) dans le cadre du 7e PCRD (programme cadre de recherche et développement). Ce chiffre n’inclut donc pas les programmes nationaux comme Nano-Innov (70 millions d’euros) ou Nano 2012 (2,5 milliards d’euros sur cinq ans) en France. D’un point de vue sectoriel, le marché des nanotechnologies reste pour l’instant largement dominé par les produits chimiques, qui représentent plus de la moitié du marché en 2007. Ils sont suivis des semi-conducteurs (35%). Cependant, dans les années à venir, les produits chimiques vont perdre de leur importance en proportion, avec 9% de parts de marché en 2015. Les semi-conducteurs devraient perdre 4 points. Cette évolution se fera au profit de l’électronique (28%), de la médecine (17%), de l’aéronautique et de la défense (6%), et enfin de l’automobile (4%). L’enquête des Entreprises du médicament (Leem)Nanotechnologies appliquées à la médecine – Etat des lieux et recommandations pour l’attractivité de la France

Presque la moitié des grandes entreprises ont une politique de green IT

45 % des entreprises européennes ont mis en place une politique de green IT, d’après une étude que vient de publier HP (cf. encadré). La France est le pays le plus en pointe dans ce domaine, parmi les sept pays concernés. 46 % des entreprises françaises ont adopté une politique d’informatique verte et 54 % veulent investir dans ce domaine.L’enquête d’IDC parue en mars permet d’étudier plus en détail la situation dans l’Hexagone. Les résultats demeurent très contrastés selon la taille des entreprises. Ainsi, en 2008, 43 % des groupes de plus de 1.000 salariés menaient une politique de green ICT, ICT signifiant information and communication technologies. Ce chiffre tombe à 6 % pour les entreprises de 250 à 1.000 salariés et à 1 % pour les autres. Le segment des grandes entreprises est non seulement le plus avancé, mais c’est aussi celui qui progressera le plus en matière d’informatique verte. IDC prévoit des taux de pénétration de 51 % en 2009 et 61 % en 2010.Si le green IT séduit de plus en plus, ce n’est pas pour des motivations écologiques, complètement désintéressées. Ainsi, parmi les raisons pour adopter une telle politique en France, le coût de l’énergie arrive en tête, cité par 70 % des répondants. En seconde position, mais loin derrière, les entreprises évoquent l’augmentation des volumes des données (40 %). Un quart des répondants citent la régulation gouvernementale, la réputation et l’image de marque ainsi que l’augmentation des infrastructures serveurs. Ces résultats laissent entendre que le green IT devrait bien résister à la crise. Intuition corroborée par une étude du Gartner parue en avril, selon laquelle la crise n’a pas eu d’impact sur le green computing pour 67 % des entreprises européennes. Elle a même augmenté la priorité des initiatives pour 10 % d’entre elles. C.G.Les enquêtesIDC : Green ICT France, étude parue en mars 2009 et réalisée en octobre 2008, auprès de 392 entreprises de plus de 10 salariés, ainsi qu’une enquête spécifique portant sur les services de communications auprès de 150 entreprises de plus de 50 salariés réalisée en janvier 2009. HP : enquête parue en juillet, menée en mars 2009 auprès de 2.000 décideurs et utilisateurs en France, au Royaume-Uni, en Allemagne, en Belgique, au Pays-Bas, en Autriche et en Suisse.Gartner :The impact of recession on green IT, parue en avril 2009 et réalisée en décembre 2008, auprès de 620 responsables informatiques, développement durable et green IT aux Etats-Unis, en Europe et en Asie.

« Les risques nano ne sont pas suffisamment pris en compte »

Journaliste scientifique, Dorothée Benoit Browaeys est déléguée générale de Vivagora, une association pour l’engagement citoyen dans la gouvernance des technologies. Elle vient de publier Le meilleur des nanomondes, aux éditions Buchet Chastel.

Techniques de l’ingénieur : Quelle est la définition des nanotechnologies ?

Dorothée Benoit Browaeys : On arrive aujourd’hui à une stabilisation de cette définition avec les travaux de normalisation de l’Afnor et de l’ISO. Les nanotechnologies sont toutes les technologies qui conçoivent des objets dont au moins une dimension est inférieure à 100 nanomètres. Les nanomatériaux sont des produits intentionnellement fabriqués.

Les nanoparticules sont-elles des particules comme les autres ?

Non, sinon elles n’auraient pas d’intérêt ! Elles ont des propriétés nouvelles, qui impliquent des toxicités nouvelles. Avec une surface supérieure, on augmente la réactivité. Par ailleurs, les nanoparticules peuvent se diffuser dans les tissus profonds de l’homme. On entend souvent dire que les nanoparticules ont toujours existé, mais cela change la donne de les produire à grande échelle. Il faut également étudier l’usage que l’on en fait.

Le Grenelle de l’environnement va-t-il introduire plus de contrôle des nanotechnologies ?

Dans le cadre du Grenelle 1, un débat national sera mis en place à partir d’octobre 2009 et jusqu’en février 2010. La déclaration des nanomatériaux deviendra obligatoire. Cependant, d’après les juristes, les déclarations risquent de rester marginales dans la pratique.

Dans ces conditions, le contrôle est-il suffisant ?

Le Parlement européen a alerté la Commission européenne sur le fait que les conditions réglementaires ne sont pas suffisantes. Le risque porte notamment sur la santé des travailleurs.

Comment le nanoforum se positionnera-t-il par rapport au débat national ?

Le nanoforum a été voulu par un groupe interministériel en 2007. La prochaine séance aura lieu le 10 septembre 2009. Il s’arrêtera ensuite quelques temps pour laisser place au débat national. Le nanoforum apportera une contribution pour le document d’initialisation, à partir des études de cas au sujet de la nanocosmétique, du nanociment, de la nanofood et du nanoargent. Comme d’autres associations, Vivagora va publier un cahier d’acteur pour préciser son point de vue sur la gouvernance.

Quelle est la position de Vivagora sur la gouvernance ?

Pour que les projets soient développés de manière respectueuse, il faut proposer une information pluraliste et pertinente pour les différents acteurs, dont la société civile. Vivagora a depuis six mois mis en place une alliance citoyenne pour créer un portail d’informations issues d’ONG partenaires comme WWF, Attac, la Ligue des droits de l’homme ou encore l’Association santé environnement France (Asef).

Il faut aussi animer un débat public permanent, de type Grenelle, qui permette aux parties prenantes de contribuer aux choix scientifiques et technologiques. Enfin, il faut travailler sur une démarche d’innovation ascendante, qui ne soit pas strictement pilotée par les industriels et les intérêts économiques mais traversée par une demande sociétale. Cela correspond au concept d’innovation ouverte, qui suppose un changement structurel.

Ne faut-il pas organiser une gouvernance à l’échelle internationale ?

Il faut agir dans le sens d’une instance internationale, mais il faut aussi se positionner à des échelles très variées. On arrive à des solutions pragmatiques au niveau des territoires.

Le débat ne risque-t-il pas d’être instrumentalisé ?

Le dialogue implique un enjeu de manipulation permanent. Il existe des intérêts économiques et politiques colossaux. Il faut atteindre un équilibre entre les différents intérêts. Je ne crois pas en l’information indépendante par exemple, mais en l’information pluraliste.

La recherche sur les risques est-elle suffisante ?

Des rapports d’une grande expertise ont été rendus par l’Afsset, un autre est en cours sur l’exposition de la population en général. Cependant, les industriels avaient peu participé à la première étude, seuls 16 % avaient répondu aux demandes d’informations. Par ailleurs, il existe peu d’équipes de toxicologues, elles sont saturées de projets. L’investissement sur les risques reste très faible par rapport à l’investissement total en faveur des nanotechnologies.

Qu’est-ce qui vous a étonnée durant le nanoforum ?

Il existe un problème d’incompétence au sens de l’attribution d’un organisme. Par exemple, on ne se préoccupe pas des échéances. L’OCDE va présenter des travaux d’investigation sur un certain nombre de produits dans seulement cinq ans. On déplore aussi de nombreux points aveugles dans tous les champs. Que peut-on faire pour éviter que le nanoargent ne se retrouve dans les stations d’épuration ? Personne ne sait répondre à cette question. On constate des manipulations dans certains groupes de travail. Par exemple, tout est fait pour que l’on n’aborde pas la question de la nanofood. Il s’est avéré très difficile de faire participer aux débats des industriels comme Danone ou l’Oréal, qui n’ont pas répondu à nos invitations.

Si vous aviez des responsabilités politiques, quelles mesures prendriez-vous ?

J’ai travaillé auprès de Corinne Lepage au sein de la commission sur la gouvernance écologique. C’était un très beau groupe de travail, avec une expertise indépendante et pluraliste. Le constat le plus important est qu’il va falloir apprendre à gouverner en situation d’incertitude. Les rapports d’experts ne suffisent plus, il faut s’appuyer sur les parties prenantes et étudier les priorités, les bénéfices et les risques, les finalités… Les nanomatériaux répondent-ils à nos besoins ou à ceux de la grande distribution par exemple ? Il faut instaurer un dialogue permanent et trouver des procédures pour que l’innovation ne soit pas déconnectée de la demande sociale.

Finalement, êtes-vous optimiste ou pessimiste ?

Les urgences environnementales montrent combien on s’est mis dans l’impasse. Nous n’avons plus beaucoup de marge de manœuvre pour changer vite. Il faut trier les technologies utiles. Il faut donner la faveur aux nano vertes, ce qui n’est pas le cas aujourd’hui. Les instances publiques ne me donnent pas confiance. Mais, avec les nanotechnologies, on va peut-être enfin interroger le système dans son ensemble.

Propos recueillis par Corentine Gasquet

  • L’association Vivagora

Fondée en 2003, Vivagora est une association qui promeut la mise en débat et en culture de l’innovation. Elle développe une expertise sur les enjeux sociétaux des innovations technologiques par l’exercice du débat public et le déploiement d’interactions fortes entre les acteurs concernés, tant dans les domaines techniques, que dans les domaines économique, sanitaire, environnemental, sociétal ou philosophique. Elle agit pour l’engagement citoyen dans la gouvernance des technologies et considère que la montée en compétence et en influence de la société civile peut contribuer à faire des choix durables, humains et solidaires.
Site : www.vivagora.org

  • Le nanoforum

Pour favoriser le débat, le nanoforum a vu le jour en juin 2007 sous l’égide de la direction générale de la santé. Il se définit comme un lieu de libre parole permettant d’identifier les questions scientifiques éthiques et sociales. La prochaine séance aura lieu le 10 septembre 2009 de 18h à 20h au Cnam. Pour en savoir plus : www.vivagora.org

  • Le portail d’informations

Le portail d’informations ACEN ouvrira en octobre. En attendant, on peut accéder à un wiki collaboratif : acen-cacen.org

  • Le livre : Le meilleur des nanomondes, Dorothée Benoit Browaeys, Buchet Chastel, 263 pages, 20 euros

12 % de rendement pour les cellules solaires à couches minces

Les cellules photovoltaïques à couches minces de semi-conducteurs composites sont bien l’avenir du solaire, et le laboratoire de photovoltaïque de l’Université du Luxembourg l’a encore montré. En mettant au point des cellules à couches minces très performantes, avec une efficacité de 12 %, les chercheurs luxembourgeois entrent de plein pied dans la course au rendement.Les cellules solaires à couches minces sont la nouvelle génération de cellules photovoltaïques. La raison est simple : les coûts de fabrication sont beaucoup plus faibles que pour les modules solaires utilisés actuellement, car les besoins en matériaux et en énergie sont limités.Dans le cas des cellules photovoltaïques développées au Luxembourg, les chercheurs ont mis au point des semi-conducteurs à base de cuivre, d’indium, de galium et de sélénium, selon un processus permettant de hautes performances.

Des coûts de production à la baisse
Pour le professeur Siebentritt, qui s’exprime sur le site de l’Université du Luxembourg, il s’agit là d’une performance technologique de premier plan : « il y a quelques mois, nous avons déménagé dans nos nouveaux locaux. Ceci nous a finalement permis de démarrer la production de cellules photovoltaïques. Il s’agit réellement de nos premières cellules et elles atteignent déjà des niveaux d’efficacité très compétitifs. Je suis très fier de mon équipe ».Au-delà de ces cellules à couches minces très efficaces, l’Université du Luxembourg a également mis au point des cellules à couches minces constituées d’un matériau nouveau et peu couteux : en effet, ne contenant pas d’indium (l’indium est un élément rare et donc coûteux), leur prix de fabrication s’en trouve peu élevé. Produit par un processus de galvanisation, ces couches minces atteignent une efficacité presque record : 3,2 % d’efficacité. Le record mondial actuel, pour un processus de fabrication similaire, est de 3,4 %.

Une course à l’efficacité
Ces résultats, qui placent les couches minces produites par l’Université du Luxembourg parmi les plus efficaces jamais fabriquées, font du professeur Siebentritt et de son équipe des références au niveau mondial. Pourtant, le laboratoire n’est équipé que pour mettre au point la couche absorbante et la couche tampon. Ainsi, pour finaliser les couches minces, le laboratoire fait appel à un institut spécialisé en Allemagne. Ainsi, dans la course effrénée des chercheurs et des industriels pour atteindre au plus vite une efficacité et un coût de production en adéquation avec les impératifs du marché, un nouveau pas vient d’être franchi. Et on devine que de nouveaux paliers seront sans aucun doute bientôt franchis.

Des nouvelles ampoules LED à l’ADN de saumon ?

Selon un article paru dans le média britannique The Green Optimistic [1], des chercheurs de l’université du Connecticut auraient utilisé de l’ADN de saumon pour développer une nouvelle génération de LED.Cette équipe de chercheurs serait parvenue à ce résultat en ajoutant un colorant fluorescent à l’ADN d’un saumon puis en isolant les séquences d’ADN et en les transformant en nanofibres, créant ainsi un tout nouveau matériau qui dégage la lumière blanche et brillante caractéristique des ampoules à LED… et pas très agréable à l’œil d’ailleurs il faut bien le dire !C’est justement dans le but d’améliorer un peu cette couleur blanche que les chercheurs de l’UCONN ont commencé à mener leurs recherches. Ils pensent aujourd’hui qu’en agissant sur le pourcentage des colorants introduits dans l’ADN du saumon, ils peuvent parvenir à changer la qualité de la couleur émise par la LED elle-même.

l’ADN permet d’orienter les colorants de façon optimale
Alors que d’autres chercheurs essayent depuis un moment déjà, mais sans grand succès, de modifier cette couleur à partir de matériaux tels que des nanoparticules de silicium et des copolymères à blocs, cette nouvelle découverte des propriétés fluorescentes d’une séquence d’ADN du saumon a fait l’effet d’une petite bombe par la rapidité et l’efficacité des résultats obtenus.Selon David Walt, professeur de chimie à la prestigieuse Tufts University : « Lorsque les rayons UV tapent sur le matériel génétique, un colorant se met à absorber l’énergie et produit la lumière bleue. Si une molécule de colorant se trouve à une distance adéquate, elle va absorber une partie de l’énergie de la lumière bleue et émettre une lumière orange. L’utilisation de l’ADN permet d’orienter ses colorants de façon optimale ».Ceci posé, il faut tout de même rappeler qu’aujourd’hui aucune étude n’a réellement démontré que les ampoules à LED étaient plus économes en énergie et moins onéreuses que les ampoules basse consommation en ce moment dans le commerce (bien que souvent critiquées) ou que les bonnes vieilles ampoules à incandescence qui ne seront plus du tout possible à trouver dans le commerce d’ici peu. [1] Lire l’article du Green OptimisticFrancis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études. Il anime notamment Les énergies de la mer, spécialisé dans les énergies marines.

Les nano-ventouses des calmars

http://www.bulletins-electroniques.com/actualites/60137.htm

Les ventouses des calmars sont composées d’un matériau unique à la fois souple et extrêmement dur. Une étude menée par le professeur Henrik Birkedal du centre interdisciplinaire INano de l’Université d’Aahrus en collaboration avec l’Université de Californie à Riverside révèle qu’il s’agit en fait d’une nanostructure formée uniquement de protéines. Cette découverte pourrait ouvrir la voie à une nouvelle génération de matériaux commercialisables à grande échelle. Les résultats de cette étude ont fait la couverture de la prestigieuse revue Advanced Materials.

C’est au large de la Californie qu’est apparue à James Weaver (Université de Californie) l’idée d’étudier les structures architecturales et mécaniques des ventouses. Celui-ci participait à une expédition de capture de calmars lorsque les tentacules de l’un d’eux se sont enroulées autour de ses bras. Les dégâts causés par les ventouses du céphalopode fermement agrippé ont conduit le jeune chercheur à s’interroger sur les pouvoirs de cette structure si rigide.

Un nanomatériau protéinaire aux propriétés étonnantes

Chacune des ventouses des calmars se compose d’un disque rigide surmonté de dents triangulaires dont le pouvoir agrippant augmente considérablement pendant la chasse. L’étude qui a révélé leur composition a réservé aux chercheurs de nombreuses surprises. Jusqu’à présent, les biologistes pensaient en effet que les structures les plus dures du règne animal étaient soit minérales, comme nos propres dents, soit composées de chitine, que l’on retrouve notamment dans la carapace des invertébrés. Mais à la place de ce qu’ils s’attendaient à trouver, les chercheurs ont découvert un nanomatériau protéinaire aux propriétés étonnantes, maintenu grâce à des liaisons hydrogène et hydrophobes.

La structure tridimensionnelle est composée d’un réseau de nanotubes poreux qui confère aux ventouses leurs propriétés de résistance et de souplesse. Plus étonnant encore, les nanotubes situés parallèlement à l’axe principal des dents sont coniques et leur diamètre diminue de 250 à 150 nanomètres le long de la dent. Ils prennent cette forme grâce à une simple altération locale de leur porosité, sans modification du matériau qui compose le reste de la ventouse. Si les chercheurs parvenaient à reproduire industriellement ce matériau, il pourrait trouver des applications dans de nombreux secteurs.

Mais la route est encore longue car il reste aux chercheurs à identifier la composition des protéines nanoscopiques et à comprendre la manière dont les tubes deviennent poreux. Ils pourraient alors développer des matériaux beaucoup plus légers, souples et résistants, que par exemple ceux qui composent aujourd’hui les ailes des avions, les mains des premiers robots androïdes ou les carcasses de nos voitures. La découverte du premier matériau solide uniquement composé de matière organique pourrait ainsi ouvrir la voie à de nombreuses innovations.

Contact : P. Henrok Birkedal, Service de chimie, centre interdisciplinaire INano, Université d’Aarhus – Tél: 8942 3887 – Email : hbirkedal (a) chem.au.dk
Source : Université d’Aarhus, Volume 21 Issue 4, Page NA, Published Online: 14/01/2009 – http://www3.interscience.wiley.com/journal/121638168/abstract
Rédacteur : Jean-Baptiste Paquel
Origine : BE Danemark numéro 23 (28/07/2009) – Ambassade de France au Danemark / ADIT – http://www.bulletins-electroniques.com/actualites/60137.htm

 

« Nous développons un nanomatériau qui va révolutionner la radiothérapie »

Techniques de l’Ingénieur : Qu’est-ce qui vous a amené à créer Nanobiotix ?

Laurent Lévy : Je me consacre depuis une quinzaine d’années aux nanotechnologies. J’ai commencé dans la nanoélectronique dans le cadre d’un doctorat, puis je me suis orienté vers la biologie. Je cherchais comment utiliser les nanomatériaux pour soigner le cancer, à l’université de Buffalo aux Etats-Unis. Je suis rentré en France et j’ai travaillé dans l’industrie, dans la pharmacie et les biotechnologies. Nous avons créé Nanobiotix en 2003 avec Paras N. Prasad et Kader Boussaha, en bouclant un premier tour de table. Nous avons aussi bénéficié d’aides du ministère de la Recherche et de l’Union européenne. Depuis, des investisseurs nous soutiennent et nous aident à avancer.

Quelle est votre activité ?

Nous développons des nanoparticules pour la médecine. Deuxième thérapie la plus utilisée contre le cancer, la radiothérapie concerne la moitié des patients qui ont un cancer, mais elle présente des limitations techniques qui réduisent son efficacité. Pour pouvoir irradier une tumeur, il est nécessaire de passer par des tissus sains et donc de déposer aussi une dose dans ces derniers, ce qui entraîne des effets secondaires. Entre la probabilité de contrôler la tumeur et les risques d’effets secondaires, la fenêtre de tir pour administrer la bonne dose reste très étroite. Notre technologie consiste à injecter des nanomatériaux dans la tumeur pour améliorer l’efficacité des rayons X. Il s’agit d’objets cristallins à base de hafnium oxide (HFO2), très denses en électrons. Ils sont recouverts d’une couche qui permet de leur donner la biocompatibilité désirée. Grâce à ces nanomatériaux, plus de photons sont absorbés dans la tumeur. Une même dose de rayon X permet donc d’atteindre une efficacité plus importante.

A quelle étape du développement vous situez-vous ?

Nous avons déposé sept familles de brevets. Nous maîtrisons la fabrication des matériaux et de l’injectable. Nous avons fini la phase préclinique et nous passerons l’année prochaine aux essais cliniques, qui devrait durer trois à quatre ans. Nous prévoyons 1,5 million d’euros de chiffre d’affaires en 2009, généré grâce à des collaborations avec des partenaires industriels.

Quelles difficultés avez-vous rencontrées dans la création de Nanobiotix ?

Il faut s’entourer des bonnes personnes. Il faut aussi trouver les fonds nécessaires au développement de l’entreprise.

Avez-vous eu des difficultés pour définir le champ d’application de votre technologie ?

Le cancer a constitué un champ d’application facile à cerner. En revanche, il a fallu travailler sur le mode d’intégration dans la pratique médicale. En médecine, il faut que le produit développé soit accepté par les utilisateurs. Changer des pratiques médicales peut prendre des décennies. Nous avons donc choisi de développer un produit qui s’intègre à la radiothérapie, tout en la révolutionnant.

Comment l’Europe et la France se positionnent-elles en nanomédecine ?

Une plate-forme européenne de nanomédecine s’est créée au niveau européen, regroupant des industriels, des académiques et des médecins. Nous avons lancé le même type de plate-forme au niveau national. La France est bien placée, mais il faut poursuivre les investissements et accélérer les développements.

Quel regard portez-vous sur l’évolution actuelle des nanotechnologies ?

Bien plus qu’un effet de mode, les nanotechnologies font partie des technologies qui comptent. Des brevets sont déposés, des articles rédigés, des nouveaux produits développés…Cela représente des marchés existants importants, avec une croissance très élevée. Selon Cientifica, le marché va passer de 135 milliards de dollars en 2007 à 1.000 milliards en 2015.

Les craintes pour la sécurité vous semblent-elles fondées ?

Un débat public sur les nanotechnologies aura lieu à la rentrée. Il ne faut pas faire de généralité. Chaque particule est différente et, comme tout matériau, tout produit chimique, elle s’avère plus ou moins toxique. Les nanomatériaux sont déjà très présents dans notre quotidien, il faut en étudier les risques. Dans le domaine de la santé, la mise sur le marché est déjà très encadrée avec des études poussées entre le bénéfice et le risque pour le patient.

Propos recueillis par Corentine Gasquet

Liens utiles
nanobiotix.com
cientifica.eu

Contribution climat énergie : une révolution fiscale ?

La révolution verte sera avant tout une révolution fiscale. C’est ce qui ressort du rapport de la conférence des experts et de la table ronde sur la contribution Climat et Énergie rendu public le 28 juillet. Remis à Jean-Louis Borloo, ministre de l’Écologie, de l’Énergie, du Développement durable et de la Mer, et Christine Lagarde, ministre de l’Économie, de l’Industrie et de l’Emploi, ce rapport préconise la mise en place de la « taxe carbone » (aussi appelée CCE, Contribution Climat Énergie), qui devrait s’appliquer aux seules énergies fossiles (pétrole, gaz et charbon), et ceci dès 2010. La mise en place de cette taxe était déjà préconisée dans les conclusions du Grenelle de l’Environnement.Le but avoué est de dissuader le recours aux énergies fossiles, a expliqué Michel Rocard sur France Inter :  » on va taxer un certain nombre de comportements, principalement celui qui consiste à utiliser des énergies d’origine fossile émettrices de gaz à effet de serre responsables du réchauffement climatique. »Concrètement, les prévisions font état d’une facture comprise entre 300 et 400 euros, qui touchera la moitié des ménages français. Cette taxe sera aussi appliquée aux entreprises. Dans un premier temps, c’est-à-dire en 2010, le rapport prévoit une facturation de 32 euros à la tonne de CO2 émise, qui augmenterait pour atteindre 100 euros en 2030. Cette hausse, progressive pour des raisons d’acceptabilité, représente par exemple une hausse de 7,7 centimes par litre de carburant sans plomb.

La consommation électrique exclue de la taxe
De même l’augmentation du prix du gaz devrait être sensible. Celle-ci est évaluée à environ 15 %. La CCE ne s’appliquera pas à l’électricité, pour une raison simple. En France, la majorité de l’électricité produite l’est sans émission de CO2, puisque 76 % est d’origine nucléaire. Ensuite, vient l’hydraulique avec 12 % et l’éolien, 1 %. Au total, selon le journal Libération, l’Etat pourrait ainsi engranger la bagatelle de 9 milliards d’euros, dont la moitié proviendrait directement des ménages. Mais tous ceux émettant du CO2 sont concernés. Cela inclut les entreprises, hormis celles des secteurs industriels les plus émetteurs de CO2 (sidérurgie, cimenteries, papeteries), qui sont déjà sujets à des quotas spécifiques.Pourtant, même si l’assiette est large, la contribution Climat Énergie ne fait pas l’unanimité. Ainsi, proportionnellement, les foyers à revenus modérés seront les premiers pénalisés par la taxe carbone, en comparaison avec les foyers à revenus plus importants, comme l’affirme Jean-Christophe Le Duigou, le secrétaire général de la CGT :  » la contribution Climat Énergie ne doit pas accentuer les disparités sociales. Comme tout impôt indirect, la taxe carbone va peser plus lourd sur les ménages à faibles ou moyens revenus que sur ceux à revenus élevés. « 

Une taxe inégale et injuste ?
Autre problème : celui de la situation géographique. Les habitants des zones rurales, voire de la proche banlieue, qui se déplacent en voiture pour aller travailler, vont être pénalisés d’une manière qui peut être considérée comme très arbitraire. De fait, le rapport remis par Michel Rocard prévoit aussi des compensations financières, pour les entreprises comme pour les particuliers. Elles prendront la forme d’allocations forfaitaires ou de baisses des prélèvements, pour certains ménages (en fonction des revenus, de l’éloignement ou des horaires de travail) et pour certaines entreprises. On parle également de la mise en place d’un chèque vert pour les ménages, mais son montant, qui sera a priori le même pour tout le monde, reste à fixer. Pour l’instant, la mise en place de ces compensations reste assez floue et est la cible de nombreuses critiques.

Une opportunité pour accélérer la sortie de crise ?
Ainsi, ces propositions laissent perplexe les partisans les plus fervents de la CCE. Sur le site Internet dédié à sa fondation, Nicolas Hulot s’inquiète :  » si elle venait à être intégralement compensée par des cadeaux de toutes sortes, elle ne servirait strictement à rien. C’est là que les lobbies vont faire pression. « Au final, si tout le monde est favorable à la mise en place de cette taxe, son application, à savoir un impôt sur la consommation des ménages, fait débat quant à sa complexité et à son côté inégal. L’exemple suédois porte quand même à l’optimisme, puisque dans ce pays, où la taxe carbone a été mise en place en 1991, les émissions de CO2 ont baissé de 9 % depuis cette date.Enfin, au niveau économique, la taxe carbone peut jouer un rôle moteur au niveau de la croissance, comme le confie Corinne Lepage, l’ancienne ministre de l’Écologie :  » la contribution Climat Énergie pourrait être un accélérateur de sortie de crise, sous réserve d’une compensation sociale convenable.  » L’équation n’est donc pas simple, et il appartient désormais au gouvernement d’opérer les arbitrages nécessaires.P.T.

Les incontournables de la rentrée 2009

Forum Ocova 2009(Objets communicants et valorisation)Vendredi 11 et samedi 12 septembre Château de Charance, Gapwww.ocovab2b.comAtelier Prominas : « The convergence of conventional microelectronics and nanotechnology » Mardi 15 septembre Minatec, Grenoblewww.prominas.eu Odebit 2009Mardi 22 et mercredi 23 septembre (Solutions haut débit & applicatifs pour les collectivités locales)Cnit la Défense, Pariswww.salon-odebit.comSmart mobility 2009Du mardi 22 au vendredi 25 septembreAgora Einstein conference centre, Sophia-Antipoliswww.strategiestm.comIP convergenceDu mardi 6 au jeudi 8 octobre Paris Porte de Versailles, Palais des Expositionswww.ipconvergence.frForum de l’électroniqueDu mardi 6 au jeudi 8 octobreParc des expositions Paris-Nord, VillepinteMême lieu, mêmes dates : RF et hyper, Mesurexpo, Opto, Vision-show, Espace laser Pariswww.forum4s.comEmbedded systems weekDu dimanche 11 au vendredi 16 octobre Centre de congrès du World trade center, Grenoblewww.esweek.orgConférence francophone sur l’interaction homme-machineDu mardi 13 au vendredi 16 octobre 2009Minatec, Grenobleihm09.imag.frCartes & identificationDu mardi 17 au jeudi 19 novembreParc des expositions Paris-Nord, Villepintefr.cartes.comForum RFID Du mercredi 25 au jeudi 26 novembrePorte de Versailles, Pariswww.salon-forum-rfid.comRFID 2009Du mardi 8 au mercredi 9 décembre Cnit la Défense, Pariswww.rfid-show.com 
Pour signaler un événement ou un changement de date : [email protected]

La RFID devrait peser 5,6 milliards de dollars en 2009

Les différents cabinets d’études promettaient des taux de croissance pharaoniques pour la RFID. La crise est passée par là, les budgets ont fondu, les prévisions ont été revues à la baisse… mais le secteur reste malgré tout porteur.En 2009, la valeur du marché mondial de l’identification par radiofréquence devrait atteindre 5,56 milliards de dollars (3,9 milliards d’euros) selon IDTechEx, cabinet britannique indépendant spécialiste de la RFID. Ce chiffre inclut les radio-étiquettes (tags), les lecteurs et les services ou logiciels liés. Cela correspond à une hausse de 6 % par rapport à 2008 (5,25 milliards de dollars, soit 3,7 milliards d’euros). Le cabinet d’études marketing ABI research avance un chiffre d’affaires équivalent pour 2009 (5,6 milliards de dollars). VDC research prévoit un marché à 4,4 milliards de dollars, mais avec un taux de croissance de 11 % par rapport à 2008. Le cabinet d’études et de conseil s’attend à un retour à la hausse dans les prochaines années, de l’ordre de 28 % en 2012. Principal moteur de la croissance du secteur RFID, la Chine a enregistré 1,4 milliard de chiffre d’affaires en 2008 selon VDC research. Et les indicateurs restent au vert : 2,35 milliards de tags seront vendus cette année, contre 1,97 milliard l’an dernier.

Explosion des tags chipless
Le marché plus spécifique des radio-étiquettes se développe sous l’impulsion de plusieurs tendances. Dans la distribution, l’étiquetage des palettes et des caisses correspond à 225 millions de tags en 2009, dont une grande partie aux Etats-Unis, d’après IDTechEx. Les titres de transport représenteront 350 millions de radio-étiquettes la même année. L’étiquetage animalier (de porcs et de moutons principalement), devenu une obligation dans certains pays, devrait atteindre 105 millions de tags. Ces tags qui ne contiennent pas de puce silicium (appelés tags chipless) peuvent être imprimés directement sur les produits et devraient remplacer à terme les codes barres. Ce marché d’avenir qui ne représentera que 40 millions de dollars en 2009 devrait exploser, atteignant 624 milliards de dollars en 2019 selon IDTechEx, soit un tiers des revenus générés par les tags RFID. Dans le même temps, le prix de cette technologie devrait baisser jusqu’à 0,4 centime le tag. C.G.

« L’industrie automobile nécessite des batteries Li-ion beaucoup plus fiables que pour les TI »

Junichi Kawamura dirige le Groupe de recherche en physique des ions de l’Institut de Recherches Pluridisciplinaires en Science des Matériaux de l’Université du Tohoku. Son équipe travaille entre autres sur les batteries lithium-ion, et sur les usages de ces dernières.

Techniques de l’ingénieur : Quels sont les risques attachés aux batteries au lithium ?

Junichi Kawamura : La haute densité énergétique des batteries au lithium les expose à des accidents, comme cela est arrivé en 2006 pour les téléphones et les ordinateurs portables. Les batteries au lithium traditionnelles contiennent une solution organique de sels de lithium qui agit comme un électrolyte en permettant le passage du courant électrique par déplacement d’ions entre les électrodes positive et négative. Les autres batteries utilisent une solution aqueuse d’électrolyte. L’électrolyte organique est l’un des points faibles des batteries au lithium car elle peut facilement prendre feu et présente un risque d’explosion en cas de forte augmentation de la température de la batterie.

A la longue, l’utilisation des batteries au lithium entraîne des détériorations qui se traduisent par une perte de capacité et une perte d’énergie : non seulement la durée de vie des batteries diminue, mais les risques de surchauffe augmentent. Pour pallier à ces problèmes, les batteries au lithium modernes sont équipées d’une micro-puce qui contrôle la charge et la décharge. De plus, certains additifs dans l’électrolyte organique préviennent les phénomènes de décomposition, surcharge, ou surchauffe. Mais l’industrie automobile nécessite des batteries Li-ion beaucoup plus fiables que pour les technologies de l’information. La batterie d’une voiture est près de 1.000 fois plus grosse que celle d’un téléphone portable et elle est soumise à des conditions beaucoup plus difficiles.

En quoi les images prises à l’aide d’un scanner IRM peuvent-elles contribuer à améliorer la sécurité des batteries ?

L’IRM permet de voir l’intérieur du corps humain, mais également l’intérieur de dispositifs industriels comme les batteries à lithium. Traditionnellement, l’IRM sert à observer les noyaux d’hydrogène (protons) contenus dans la plupart des substances organiques et des molécules d’eau. L’électrolyte organique de la batterie au lithium constitue ainsi une bonne cible pour l’IRM.
Grâce à cette technique, nous avons réussi à voir les protons et les noyaux de lithium. Nous avons pu observer la décomposition du solvant organique en contact avec l’électrode négative, l’apparition de gaz ainsi que la répartition des ions Li dans la batterie. Cela devrait nous permettre de mieux comprendre comment l’électrolyte et les électrodes se dégradent, ainsi que les phénomènes de surchauffe ou d’incendie. Dans le futur, l’IRM sera un moyen d’évaluer l’état des batteries à lithium.

Quels sont les enjeux du stockage de l’énergie ?

Les dispositifs de stockage de l’énergie comme les batteries lithium-ion sont l’un des enjeux de la révolution énergétique verte. Ils ne sont pas seulement utilisés dans les voitures hybrides, électriques ou hybrides rechargeables, mais également dans le cas des cellules solaires ou des fermes à éoliennes pour assurer un flux régulier d’énergie. Toutefois, les batteries pour le stockage de l’énergie n’ont que 20 ans d’existence et nos connaissances des mécanismes et des problèmes éventuels sont encore limitées. Les questions de sécurité et de dégradation sont primordiales pour l’avenir car elles vont déterminer le coût total des énergies vertes.

Qu’en est-il des enjeux commerciaux des batteries au lithium ?

Je ne maîtrise pas l’aspect commercial. Mais pour ce que j’en sais, Mitsubishi et Fuji viennent de lancer leurs modèles électriques équipés de batteries au lithium sur le marché japonais. D’autres constructeurs automobiles ciblent les voitures hybrides rechargeables, qui peuvent être chargées la nuit à la maison. Ces modèles devraient aussi être équipés de batteries à lithium.
Le marché des batteries au lithium explose littéralement aujourd’hui. D’après une étude, 4,3 milliards de batteries au lithium seront vendues en 2013, ce qui correspond à mille milliards de yens au Japon [1]. Une autre étude avance la somme de 3 600 milliards de yens dans le monde entier [2].

Propos recueillis par Clémentine Fullias

 

Sources :

[1] http://www.spi-information.com/report/01036.html (en japonais)
[2] http://response.jp/issue/2008/1126/article117026_1.html (en japonais)

 

Junichi Kawamura dirige le Groupe de recherche en physique des ions de l’Institut de Recherches Pluridisciplinaires en Science des Matériaux de l’Université du Tohoku. Ses recherches sur la batterie à lithium s’inscrivent dans le cadre de l’Agence gouvernementale de promotion de la recherche (NEDO).

Renault-Nissan mise sur les batteries Lithium-ion

Renault-Nissan a fixé un objectif pour la voiture de demain : « Mobilité zéro émission ». Pour se faire, l’alliance des deux constructeurs automobiles mise sur une technologie pleine de promesses : les batteries lithium-ion. C’est ainsi que deux usines de fabrication de batteries lithium-ion verront le jour dans les prochains mois.

La première sera construite dans le nord-est de l’Angleterre, à Sunderland, où Nissan possède déjà un site de production. L’autre usine, au Portugal, où plusieurs sites sont en concurrence pour accueillir le projet. Quoi qu’il en soit, ces deux usines fourniront environ 60.000 batteries par an chacune, et l’ouverture d’usine supplémentaires est envisageable, selon l’évolution du marché. Il faut dire que ces projets sont soutenus au niveau étatique. Ainsi, le gouvernement britannique aidera Renault-Nissan, à hauteur de 200 millions d’euros, pour la mise en place de l’usine de Sunderland. Le Portugal, quant à lui, a déjà signé des accords avec le constructeur pour la mise en place, à partir de 2010, de 1.300 stations de chargement, avant de vendre des véhicules électriques dans le pays à partir de 2011.

A l’instar du Portugal et du Royaume-Uni, beaucoup de pays font actuellement les yeux doux aux constructeurs pour les convaincre d’investir dans leur pays. C’est encore plus le cas avec le Royaume-Uni, fermement décidé à devenir leader dans le domaine des voitures électriques : c’est en tout cas ce qui ressort du programme de lutte contre les émissions de CO2, présenté la semaine dernière par le secrétaire à l’énergie britannique Ed Miliband.

Un élan général des constructeurs

Renault-Nissan, à l’instar de Mercedes, Ford ou encore General Motors, a donc décidé de se positionner clairement sur le créneau écologique. Aussi, il semble désormais que pour l’alliance des constructeurs français et japonais, la batterie lithium-ion s’impose comme la pierre angulaire de tout véhicule hybride.

Les milliers d’heures de tests sur ces batteries lithium-ion montrent que cette dernière surpasse largement la classique batterie nickel hydrure métallique, que ce soit en termes de rendement, de fiabilité ou de sûreté. Ainsi, si la technologie lithium-ion est plein de promesses, la ruée vers ce type de batterie a quand même de quoi laisser quelque peu perplexe. En effet, de nombreuses interrogations subsistent. Au niveau de l’autonomie par exemple, l’autonomie de la batterie lithium-ion est à l’heure actuelle d’environ 160 kilomètres. On ne sait pour l’instant pas dans quelle mesure cette distance peut augmenter.

La recharge de la batterie est un des domaines où les recherches ont le plus abouti, puisque 20 minutes de charge permettent désormais d’obtenir une charge à 80 % pleine. Le problème est que pour obtenir une vitesse de chargement telle, il est indispensable de brancher la batterie sur une source haute tension. Des stations de charge vont voir le jour, mais les problèmes d’attentes aux stations de charge risquent d’être énormes, au moins au début. Une autre solution existe : charger sa batterie sur le courant délivré par une prise secteur, mais là le temps de charge est compris entre 6 et 8 heures.

Des problèmes épineux persistent

Le recyclage de ces éléments est également un casse-tête, que les ingénieurs n’ont à l’heure actuelle pas résolu.
Outre ces problèmes, la batterie lithium-ion présente des intérêts certains. Ainsi, le côté compact de ces batteries est une grande avancée, et permet de gagner de l’espace. Autre point essentiel, la longévité de ce type de batteries : en effet, la batterie lithium-ion est prévue pour supporter 5.000 charges.

Renault-Nissan, qui espère commercialiser ses voitures électriques à partir de 2010 au Japon et aux Etats-Unis, n’est pas seul à croire aux batteries lithium-ion. Ainsi, Nissan, aux Etats-Unis, vient de recevoir 1,6 milliard de dollars, sous forme de prêt, pour produire des voitures électriques et des batteries lithium-ion dans le Tennessee, où la marque est déjà présente.

Désormais, il convient donc de faire progresser les paramètres d’utilisation et les performances des batteries lithium-ion, mais ces investissements massifs montrent que la généralisation des véhicules hybrides n’est plus une vue de l’esprit.

« IPv6 : la transition est de plus en plus urgente ! »

IPv6 est né il y a plus de quinze ans car l’Internet allait manquer d’adresses à plus ou moins long terme. Avec le recul, l’expérience tirée de sa standardisation et de son intégration dans les réseaux et les équipements permet de mettre en évidence les forces et les faiblesses du réseau Internet. Au moment où les ministères de la Recherche et de l’Industrie ont lancé une consultation sur l’Internet du futur, il est intéressant de faire le point sur le positionnement de ce protocole face aux évolutions du réseau.Si l’on se penche sur le passé, les prévisions de l’organisme standardisant les protocoles de l’Internet (l’IETF) étaient relativement exactes. En 1994, lorsque les travaux ont débuté, la fin des adresses IPv4 était prévue pour 2012 ; les calculs récents fixent la pénurie pour fin 2011. En revanche, la stratégie d’introduction d’IPv6 n’a pas été conforme aux prévisions de ses concepteurs. Les modèles initiaux se fondaient sur une transition douce basée sur une double pile. L’ensemble des machines aurait pu dans un premier temps à la fois dialoguer dans les deux versions du protocole pour assurer une compatibilité, puis IPv4 aurait été lentement supprimé du réseau. C’est l’une des raisons qui avait poussé à développer une nouvelle version « incompatible » avec l’existante, la double pile assurant la transition. Mais le conservatisme du monde des réseaux n’avait pas été bien mesuré. En effet, peu importe le protocole pourvu que l’on puisse communiquer. Tant qu’IPv4 a fonctionné plus ou moins correctement, personne ne s’est soucié des problèmes liés à la pénurie d’adresses. Aujourd’hui, comme la pénurie est appréhendable et que la qualité du réseau IPv4 va se dégrader, la transition est de plus en plus urgente et parfois plus complexe.

Connecter des objets dont le réseau n’est pas la caractéristique essentielle
Pour les applications traditionnelles ou l’Intranet, comme pour la consultation de pages Web plus ou moins enrichies ou du courrier électronique, IPv4 pourra être utilisé encore pendant de nombreuses années. Cependant, la transition doit être envisagée lors du renouvellement des équipements. Si les systèmes d’exploitation, les applications et les routeurs intègrent de mieux en mieux IPv6, la question reste d’actualité pour les autres ressources qui manipulent des adresses. Est-ce que les pare-feux sont ou seront compatibles avec la nouvelle version du protocole IP ? Qu’en est-il des outils d’administration du réseau ou d’authentification des utilisateurs ? Il faut également envisager les stratégies d’intégration d’IPv6 dans l’entreprise en définissant des plans de numérotation et des politiques de sécurité.Pour les applications innovantes ou actuellement non connectées à l’Internet, il est urgent de prendre en compte l’arrivée inéluctable d’IP. Historiquement, le protocole IP n’était pas le choix initial des opérateurs, ni pour les données, ni pour la téléphonie. De même pour les applications grand public comme la télévision qui avait misé sur d’autres standards. Néanmoins ces acteurs se sont ralliés à l’Internet, car la richesse offerte par les possibilités d’interconnexion globale a supplanté tous les autres critères techniques. La nouvelle vague IP va permettre de connecter des objets dont le réseau n’est pas la caractéristique essentielle. Certaines industries ont bien compris l’importance de cette nouvelle version du protocole IP. Ainsi, les travaux sur les réseaux de capteurs se font uniquement sur IPv6. Zigbee a récemment annoncé que sa pile protocolaire allait l’inclure. Le secteur de l’automobile a également fait ce choix pour les transports intelligents. Il ne faudrait pas que les industriels et en particulier les PME ratent cette intégration.

Communiquer avec un équipement se trouvant autour d’une position donnée
La levée de la contrainte sur l’adressage va changer le modèle architectural client/serveur où les serveurs sont peu nombreux avec des adresses publiques et les clients protégés derrière un NAT (Network address translation). Cela conduira à la dispersion des grosses fermes de serveurs en laissant les données plus proches de leur lieu de production, et à la communication entre machines.A plus long terme, du point de vue recherche, IPv6 ouvre également de nouvelles voies. L’espace de liberté que permet un adressage non contraint permet d’envisager plusieurs évolutions. Dans un premier temps, l’adressage peut se structurer différemment. Le routage géographique est l’évolution la plus plausible. Les réseaux de capteurs, les systèmes de transports intelligents (ITS) et les applications militaires ont besoin parfois d’atteindre un équipement se trouvant autour d’une position donnée et non plus une machine bien identifiée. Une autre évolution est liée à la généralisation des moyens d’accès. Un site ou un équipement sera connecté à plusieurs opérateurs offrant des services différents. Il n’existe à l’heure actuelle aucune solution satisfaisante pour gérer ce type d’architecture, même si des briques de base sont étudiées (SCTP, Shim6…) principalement autour d’IPv6. Il est clair que le réseau que nous aurons dans une dizaine d’années sera structuré de manière différente et avec des trafics différents. Se préparer maintenant permettra de saisir les nouvelles opportunités en termes d’applications et de business.Par Laurent ToutainParcoursMaître de conférences au département réseaux, sécurité et multimédia de Télécom Bretagne, Laurent Toutain est un expert reconnu du monde de l’Internet. Ses thèmes de travail sont la qualité de service dans les réseaux IP, la métrologie des réseaux Internet, les protocoles de routage et le protocole IPv6. Il dirige le pôle IP du département RSM qui s’intéresse principalement aux nouvelles architectures et services pour les réseaux domestiques. Editeur du site http://livre.g6.asso.fr, il a notamment écrit Réseaux locaux et Internet : Des protocoles à l’interconnexion (Hermes Science Publications, 2003, 844 pages). Egalement auteur pour les Editions Techniques de l’Ingénieur, Laurent Toutain collabore à la rubrique Electronique et TIC.

En 2008, les TIC ont résisté à la crise

Pour mesurer l’innovation, la direction générale de la compétitivité de l’industrie et des services utilise différents critères comme le capital risque, les créations d’entreprises ou encore les brevets. La 21e édition du tableau de bord de l’innovation fait apparaître la prépondérance de l’informatique et des secteurs innovants comme les biotechnologies. Certes, les créations d’entreprises dans les secteurs technologiquement innovants (TIC, nouveaux matériaux et biotechnologie) connaissent une baisse de plus de 10 % au deuxième semestre 2008 par rapport au même semestre de 2007. Cependant, l’informatique reste le secteur dominant, avec 76 % des créations d’entreprises malgré un nombre de créations d’entreprises qui baisse de 3,7 % sur un an. Autre constat : alors que le capital investissement connaît un recul de 20 % par rapport à 2007, le capital risque, qui finance la création de start up à fort potentiel de croissance, se porte bien. Ainsi, en 2008, ce segment progresse de 12 % en valeur par rapport à 2007. Avec 758 millions d’euros, le capital risque atteint même un record historique, si l’on exclu l’année 2000. Le secteur des biotechnologies demeurent en tête des entreprises concernées, avec également un retour en force d’Internet. Les plus gros tours de table concernent les cleantechs. Globalement, l’activité des secteurs technologiquement innovants n’est pas pour l’instant affectée par la crise. Ainsi, le chiffre d’affaires généré est toujours en croissance au deuxième semestre 2008, gagnant 6% par rapport au même semestre de 2007. Les services informatiques suivent le même mouvement avec une hausse de 5,8 % au deuxième semestre, une croissance toutefois moins forte que durant les précédents semestres.En revanche, malgré une bonne tenue de l’activité, les effectifs ont tendance à décroître. Dans le domaine des technologies de l’information et de la communication, ils ont enregistré une baisse de -0,5 %. Ce chiffre résulte principalement d’une situation plus difficile dans les télécoms (-1,3 %). Dans les services informatiques, les effectifs augmentent de 0,6 %, soit un rythme ralenti par rapport au premier trimestre (+2 %). Reste désormais à voir ce que réserve l’année 2009. Car si en 2008, le secteur des TIC affiche une certaine résistance face à la crise, la situation risque d’être plus contrastée dans le tableau de bord 2009. C.G.

Communications unifiées, source de compétitivité pour les entreprises ?

Messagerie instantanée, visioconférence, partage de documents, portail d’information, … les usages du grand public s’imposent peu à peu dans le monde professionnel. Face à ces nouveaux modes de communication, comment réagissent les entreprises ? Comment répondre aux attentes d’innovation et de flexibilité des collaborateurs, tout en contribuant à accroître la compétitivité de l’organisation ? Les nouvelles technologies de l’information et de la communication s’inscrivent aujourd’hui dans cette démarche, sous réserve d’avoir une approche fonctionnelle et orientée métier, et d’accompagner le projet par une démarche de conduite du changement.

Nouvelle génération, la communication 2.0
L’émergence du Web 2.0 dans la sphère professionnelle a favorisé l’adoption de nouveaux modes de communication : messagerie instantanée, gestion de présence, visioconférence, groupes de discussion, réseaux sociaux, … Internet met en relation des personnes du monde entier, supprime les barrières géographiques, culturelles et sociales, et encourage ainsi les échanges à distance et la collaboration.Avec l’arrivée de la génération Internet dans le monde professionnel, les entreprises doivent anticiper l’introduction de ces usages, afin de répondre à la demande de flexibilité des jeunes collaborateurs tout en maîtrisant les flux de communication, et donc la sécurité, au sein de leur organisation.

Création de valeur par les communications unifiées
Les communications unifiées regroupent un ensemble de services, modulaires, dont l’utilisation doit être adaptée aux besoins de communication de chaque collaborateur, et apporter de la flexibilité et de l’efficacité dans les échanges.Elles doivent ainsi être définies en fonction de profils utilisateurs, afin de s’inscrire dans leur mode de communication :
  • échanges de messages instantanés entre les membres d’une équipe de développement ;
  • capacité d’un commercial à être joint sur un numéro unique ;
  • connaissance de la disponibilité d’un expert (identification d’une compétence et non d’une personne) ;
  • remontée du dossier client après identification d’un appel ;
  • partage de documents au sein d’un groupe projet.
 

Intégration dans les processus métier
La standardisation des technologies offre l’opportunité d’intégrer les outils de communication dans l’environnement métier de l’entreprise. L’interface privilégiée de communication pourra être l’application métier, la suite bureautique, la messagerie électronique, un client mobile ou un portail Web. Cette intégration permet d’apporter de l’ergonomie pour les utilisateurs, d’optimiser les processus de l’entreprise, et de renforcer la compétitivité de l’organisation.

Des solutions adaptées aux attentes des entreprises
Cette convergence des flux voix / données / images a été favorisée par l’évolution des constructeurs vers un modèle d’éditeurs, et par l’arrivée de nouveaux acteurs issus du poste de travail. Les solutions proposées permettent à présent d’envisager différentes stratégie d’évolution, en fonction de la diversité des usages et du niveau d’intégration souhaité : l’enrichissement de la téléphonie par des applications à valeur ajoutée, ou la mise en œuvre d’une solution globale et homogène (la téléphonie devient un service).

Conduite du changement
Il est important de souligner qu’un projet de communications unifiées doit être accompagné d’une démarche de conduite du changement. Sans l’adoption de ces nouvelles technologies par les utilisateurs, les outils resteront inadaptés à l’organisation, le ressenti sera négatif et aucune valeur n’aura été créée pour l’entreprise. La communication sur les enjeux du projet, les bénéfices pour les utilisateurs et le planning général doit être amorcée dès la phase amont. Des actions de sensibilisation et de formation sont nécessaires pour créer un contact de proximité auprès des collaborateurs. Enfin, le changement doit être accompagné dans le temps, avec, entre autre, une assistance à distance et un suivi de l’appropriation des nouvelles solutions.

Un modèle de services
La souplesse apportée par les communications unifiées offre aux responsables informatiques l’opportunité de mettre en œuvre un système de communication flexible, qui s’adapte à la stratégie métier de l’entreprise. Ce nouveau modèle renforce la position des responsables informatiques en tant qu’acteurs de l’innovation, avec notamment la capacité de proposer un catalogue de services aux utilisateurs, d’optimiser les processus de communication au sein de l’organisation et d’en renforcer la compétitivité. Force de proposition auprès des directions métiers, les responsables informatiques participent directement à la création de valeur pour l’entreprise.Par Fanny Goyot, Responsable marketing communications unifiées au sein de Spie Communication