La batterie aux algues vertes peut révolutionner l’industrie du stockage d’énergie

Selon le media Gas2.0 une équipe de chercheurs de l’Université d’Uppsala a découvert qu’une certaine variété d’algues vertes appelée Aegagropila linnaei de la famille des Cladophoraceae produirait une substance non toxique, facile à isoler et peu coûteuse, capable d’alimenter des batteries durables aussi flexibles et minces assure t-on que les batteries au lithium les plus évoluées utilisées aujourd’hui.La clé de la découverte réside dans la particularité de Aegagropilalinnaei à produire un type unique de cellulose à condition de la cultiver sur une très grande surface (1 gramme de matière produite par 80 m2). En recouvrant cette cellulose algale d’un polymère conducteur bien connu appelé polypyrrole (ppy), l’équipe a « réussi à produire une batterie d’une extrême légèreté qui bouleverse toutes les normes connues aussi bien en matière de capacités de stockage que de temps de charge », a précisé Gustav Nyström, étudiant en nano-technologies et l’un des principaux chercheurs de l’équipe découvreuse.

Une volonté d’optimisation

La batterie mise au point au cours de l’expérimentation n’a pas été complètement optimisée, mais les chercheurs ont déjà réussi à obtenir des capacités de stockage d’environ « 25 Wh/kg du matériau de la batterie en poids, soit 40 Wh/l du matériau de la batterie en volume ». Pour se faire une idée de ce que ces chiffres signifient, les chercheurs ont fourni comme échelle de comparaison les données des batteries au lithium-ion (optimisées elles depuis longtemps) existant sur le marché et qui sont de « 100-160 Wh/kg ou 250-360 Wh/litre ».Après optimisation de sa découverte, l’équipe de recherche de l’Université d’Uppsala s’attend à ce que sa batterie aux algues obtienne à peu près les mêmes caractéristiques de stockage d’énergie que le lithium-ion. Jusqu’à aujourd’hui, personne n’a vraiment été capable de mettre au point une batterie à base organique qui puisse rivaliser avec les meilleures batteries au lithium-ion (non-organiques). Pour ceux qui se posent la question de savoir à quoi cela servirait d’obtenir une batterie organique, la réponse tient en quelques données : facilité de fabrication, faible degré de toxicité, et surtout caractéristique naturellement flexible du matériau. Concrètement, selon les chercheurs d’Uppsala, cette batterie serait faite essentiellement de papier et d’eau salée, un procédé très simple à mettre en oeuvre « dans sa propre cuisine même avec un mixeur » a précisé la chercheuse Maria Stromme au média EurekAlert.

Une durabilité impressionnante

Les autres chercheurs confirment effectivement que seuls des moyens simples, des matériaux peu coûteux et abondants dans la nature et des produits chimiques éco-compatibles sont nécessaires à la fabrication de cette batterie. Mais malgré sa facilité de fabrication et son absence présumée de toxicité, cette batterie a des caractéristiques impressionnantes de durabilité.En gardant encore à l’esprit qu’elle n’en est pour l’instant qu’au stade expérimental, elle montre déjà une capacité étonnante à être rechargée rapidement et surtout un nombre impressionnant de fois, sans perdre, charge après charge, de sa capacité de stockage. Ces bons résultats préliminaires pourraient incliner l’équipe de recherche à se focaliser sur les applications dans le domaine des véhicules électriques. Mais elle préfère pour l’instant communiquer sur les propriétés uniques de cette batterie en matière de flexibilité et de faible toxicité.« Ces batteries, en raison de leur légèreté, pourraient être utilisées dans des textiles intelligents (vêtements ou, par exemple, capteurs surveillant les polluants, l’irradiation UV ou moniteurs mesurant portés sur soi à des fins de diagnostics médicaux), mais aussi dans les emballages, ou tout appareillage de diagnostic dans les pays en développement. L’avantage évident de ces batteries étant de pouvoir être fabriquées sans matériel de pointe, sur place, dans les pays en développement » a précisé l’équipe.A terme rien ne s’oppose, eu égard à ses performances, que ce type de batterie remplace purement et simplement les batteries au lithium-ion, plus chères et plus toxiques, dans leurs domaines d’application, y compris l’automobile électrique. Mais nous sommes loin d’en être là ! Lire l’article de Gas2.0 (en anglais)Francis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les Energies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

Des microcaméras toujours plus petites

http://www.bulletins-electroniques.com/actualites/60580.htm

Si les microcaméras intégrées sur les téléphones portables commercialisés aujourd’hui ont fait d’énormes progrès, tant en termes de taille et de consommation que de coût, leur capacité de traitement demeure encore limitée. En fonction de la résolution, elles disposent d’une optique à focale fixe ou d’un ensemble autofocus, d’un nombre de pixels réduit et ne sont pas accompagnés de dispositifs de traitement.

D’où l’intérêt du projet Minimage du pôle de compétitivité Minalogic. Regroupant des chercheurs de l’équipe Prima de l’INRIA, que dirige le professeur James Crowley, de l’Université de Saint-Etienne et du CEA List et Leti, ainsi que les industriels STMicroelectronics, Saint-Gobain, Varioptic et Dx0, ce projet vise à mettre au point à l’horizon 2010 des microcaméras avec autofocus, des images pouvant aller jusqu’à 12 millions de pixels et des logiciels permettant de reconstruire l’image, de l’analyser et de l’interpréter pour offrir des services. Tout cela sur un processeur multicoeur sur puce avec un coût de fabrication de quelques euros.

Cette nouvelle génération de caméras s’appuie sur des innovations qui ont révolutionné les logiciels embarqués au cours des cinq dernières années et pour lesquels les équipes de l’INRIA, dont les chercheurs de Prima, sont en première ligne.  » Nous avons développé un algorithme de calcul dit pyramide qui permet de réduire de façon très importante la complexité des calculs sans pour autant faire d’approximation « , explique James Crowley.

D’où la possibilité de réaliser des descriptions d’images ou de séquences d’images robustes, rapides et invariantes. Grâce à cet algorithme, la caméra d’un téléphone portable pourra, par exemple, détecter et extraire des visages dans un champ très grand et en fournir une image normalisée pour un téléphone visuel main libre. Autre possibilité pour un utilisateur, celle de scanner une image ou un texte en promenant son téléphone au-dessus, le logiciel reconstituant cette image ou ce texte en assemblant les séries d’images recueillies.  » Les tests que nous avons effectués sur la détection du visage ont montré que cette solution est plus rapide que celle des concurrents, tout en utilisant beaucoup moins de mémoire « , précise le chercheur de l’INRIA.

Contact :
INRIA/Grenoble – James Crowley : tél. +33 (0)4 76 61 53 96 – email : [email protected]

Rédacteur :
ADIT – Jean-François Desessard – email : [email protected]

Origine :
BE France numéro 232 (22/09/2009) – ADIT / ADIT – http://www.bulletins-electroniques.com/actualites/60580.htm

L’avenir de la pile à combustible passe par le train avant la voiture

La pile à combustible représente un changement moins révolutionnaire pour le réseau ferroviaire que pour la voiture dans la mesure où les trains sont déjà partiellement ou complètement électrifiés. Une pile à combustible n’est en effet qu’une autre manière de générer de l’électricité. Même les locomotives diesel que les locomotives à pile à combustible sont destinées à remplacer sont des hybrides diesel électrique.

L’idée d’alimenter les trains avec des piles à combustible a plusieurs avantages. Et un désavantage sérieux pour les compagnies ferroviaires et leurs actionnaires. Le bénéfice principal est la réduction substantielle des polluants locaux comme la suie, sans parler des nuisances sonores. Malheureusement, même si le train à pile à combustible évite les barrières rencontrées par la voiture en termes d’infrastructures, il coûte toujours extrêmement cher. La pile à combustible revient environ 10 fois plus cher au kilowatt que le diesel, qui reste relativement bon marché.

La problématique du stockage de l’hydrogène

Hormis le prix, il est beaucoup plus facile de développer sur une grande échelle le train que la voiture à pile à combustible. Le stockage de l’hydrogène, qui est le talon d’Achille de la voiture à pile à combustible, n’est pas un problème ici. Un train peut transporter tout un wagon d’hydrogène comprimé derrière la locomotive, sans conséquences sensibles en termes de performances ou de coût.

Cela rendrait également obsolètes les infrastructures dispersées qui ont aujourd’hui pour fonction de l’approvisionner. Un train pourrait ainsi transporter son propre système d’alimentation sous forme d’électrolyseur ou de compresseur. Il n’y aurait besoin pour cela que d’eau froide (ce qui rappelle les locomotives à charbon de jadis) et d’une prise électrique.

Mais le train à pile à combustible pourrait émettre plus de CO2 que les trains diesel qu’il remplacerait. Notre mix énergétique est en effet toujours dominé par les carburants fossiles. La donne n’est pas la même si l’hydrogène est produit à partir de gaz naturel (le cas le plus répandu pour l’H2 industriel aux Etats-Unis) ou du réseau électrique.

L’hydrogène produit à partir du gaz naturel

En fait, comme l’électrolyse de l’eau en hydrogène n’est qu’à 80 % efficace, les émissions de CO2 associées à l’électrolyse de l’hydrogène utilisé pour alimenter un train à pile à combustible, seraient 25 % supérieures à la moyenne calculée pour le réseau énergétique. Et même s’il est théoriquement possible de produire de l’hydrogène seulement à partir du réseau d’électricité renouvelable en période creuse (lorsque celui-ci n’est pas monopolisé en support d’autres sources d’énergies plus importantes), le coût serait plus élevé car il n’opèrerait qu’une petite partie du temps.

A court et moyen terme, la plupart de l’hydrogène sera produit à partir du gaz naturel. Aussi, plutôt qu’une pile à combustible à basse température (comme dans les voitures) qui nécessite une source d’hydrogène pur, une pile à combustible à haute température, du type utilisé dans les unités stationnaires, aurait plus de sens.

Non seulement cette dernière est plus efficace et émet donc moins de CO2, mais elle peut fonctionner directement à partir du gaz naturel et autres hydrocarbures légers en produisant l’hydrogène dont elle a besoin de façon interne plutôt qu’externe. Dans ce cas, le réservoir d’une locomotive à pile à combustible pourrait être un réservoir de propane ordinaire pour lequel toute la chaîne d’approvisionnement existe déjà.

Geoffrey Styles est gérant de GSW Strategy Group, LLC, une firme de consultants sur l’énergie et les stratégies environnementales. Il a également un blog : Energy Outlook.

SPEAR, un outil en ligne pour évaluer la pollution des cours d’eau

http://www.bulletins-electroniques.com/actualites/60429.htmLe Dr. Matthias Liess et son équipe du département d’écotoxicologie systématique à l’UFZ ont développé un calculateur et une plate-forme Internet qui permettent, en échange de quelques données scientifiques, d’obtenir une évaluation précise et directe de la contamination d’un cours d’eau. Pour ce faire, il est nécessaire de télécharger à l’adresse suivante – http://www.systemecology.eu/SPEAR/Start.html – un simple tableau Excel à remplir.Les informations à compléter concernent le type et l’abondance d’êtres vivants présent à un point précis du cours d’eau à tester. « Les autorités responsables des eaux disposent souvent de ce genre d’information », rappelle Matthias Liess. Une fois la feuille Excel complétée, celle-ci est traitée par le calculateur SPEAR sur lequel la zone d’échantillonnage a été préalablement paramétrée.
Identifier des zones à problèmes
Le système peut ainsi estimer la qualité de l’eau des cours d’eau dans plusieurs pays d’Europe (Allemagne, France, Finlande) et même en Sibérie occidentale. L’utilisation de SPEAR au Royaume-Uni et en Australie est actuellement en période d’essai.Les autorités responsables de la gestion des eaux dans les différents régions et pays cités peuvent se servir des résultats de SPEAR et ainsi prendre les mesures appropriées afin de diminuer la contamination des cours d’eau due aux pesticides. « Notre outil peut néanmoins faire plus qu’identifier les zones à problème », soulignent les scientifiques du Centre Helmholtz.SPEAR révèle également à quels endroits les sections de cours d’eau non contaminées compensent les sections polluées. Ce type de renseignements peut aussi influencer les décisions politiques en la matière et déterminer les mesures à employer. Enfin, le système SPEAR présente un avantage important : il est gratuit et libre d’utilisation. Grâce à SPEAR, il est même possible de se dispenser d’analyses chimiques approfondies souvent coûteuses. 

Source :
  •  BE Allemagne numéro 450 (10/09/2009) – Ambassadede France en Allemagne / ADIT http://www.bulletins-electroniques.com/actualites/60429.htm

En savoir plus :

  • Plus d’informations sur le projet SPEAR à l’adresse suivante : http://www.systemecology.eu/SPEAR/Start.html
  • Beketov M.A., Foit K., Schäfer R.B., Schriever C.A., Sacchi A., CapriE., Biggs J., Wells C., Liess, M. (2009): SPEAR indicates pesticideeffects in streams – comparative use of species- and family-levelbiomonitoring data. Environmental Pollution 157(6), June 2009,1841-1848 – http://dx.doi.org/10.1016/j.envpol.2009.01.021 

Débat public sur les nanotechnologies : c’est parti !

C’est parti. Le débat public national sur le développement et la régulation des nanotechnologies demandé le 23 février 2009 par sept ministères (voir encadré) conformément aux engagements du Grenelle de l’environnement a été officiellement lancé ce matin en présence de Jean-Louis Borloo, Ministre d’Etat, ministre de l’Ecologie, de l’Energie, du Développement durable et de l’Aménagement du territoire, Chantal Jouanno, Secrétaire d’Etat chargée de l’Ecologie, Philippe Deslandes, Président de la Commission nationale du débat public (CNDP) et de Jean Bergougnoux, Président de la Commission particulière du débat public (CPDP), l’instance chargée d’organiser les débats sur les nanotechnologies.   » Les nanotechnologies vont modifier considérablement nos modes de vie, avec des aspects très profitables pour un ensemble de domaines comme l’habitat, le traitement des eaux, le stockage d’énergie, la médecine ou encore la puissance de calcul, a précisé Jean-Louis Borloo en ouverture de la réunion d’information qui s’est déroulée au ministère de l’Ecologie mercredi 23 septembre 2009. Mais parallèlement, elles posent, à l’évidence, un certain nombre d’interrogations, notamment en termes de risques pour les salariés et les consommateurs, mais aussi en termes d’éthique autour de questions telles que les libertés individuelles ou du rapport entre l’humain et le non humain. Enfin, c’est un sujet qui va prendre une place considérable dans les années à venir. Selon les estimations de différents instituts ce segment qui génère 500 milliards d’euros aujourd’hui devrait atteindre les 4.000 milliards en 2014… Nous sommes au bon moment pour peser sur les choses.  » L’enjeu est donc de taille, les angles pour le moins multiples et les conflits d’intérêt, on l’imagine aisément, nombreux. D’où l’intérêt d’organiser un débat le plus large possible, réunissant aussi bien des chercheurs, que des industriels mettant en œuvre des nanotechnologies, des associations et le grand public. Objectifs : éclairer les autorités publiques qui prendront ensuite des décisions, mais aussi les scientifiques, les industriels, les associations ainsi que les citoyens, et faire en sorte que l’innovation en termes de nanosciences et de nanotechnologies ne soit pas déconnectée de la demande sociale. Pour ce faire, ce grand débat public national sera structuré autour de 17 réunions publiques, qui se dérouleront dans 17 grandes villes de France métropolitaine autour de thématiques prédéfinies par la CPDP. Au programme :

  • évaluer le rapport entre science et société civile afin d’aider à définir des segments prioritaire en matière de soutien à l’innovation en matière de nanotechnologies ;
  • caractériser les risques de toxicité et les éventuelles implications pour la santé des salariés et des consommateurs et plus largement, pour l’environnement ;
  • aider à l’organisation du contrôle, du suivi et de la gouvernance.

 » Il n’y aura pas de sujet tabou, a souligné lourdement Philippe Deslandes. Nous avons placé ce débat sous l’égide de trois principes : la transparence, l’équivalence des participations, et l’argumentation. Seules les opinions argumentées seront retenues.  » La première de ces réunions se déroulera le 15 octobre à Strasbourg, une manière de placer dès le départ cette initiative au sein d’un débat européen, tandis que la dernière aura lieu à Paris le 23 février 2010. Dès lors, la CPDP aura deux mois pour rédiger un rapport de synthèse, sans avis ou conseils, qui sera remis aux différents ministères concernés qui eux, auront trois mois pour décider des suites à donner à cette initiative.

Calendrier prévisionnel des réunions publiques

 

15 octobre 2009 Strasbourg Secteur : Matériaux nanostructurésThème : Gouvernance européenne
20 octobre Toulouse Secteurs : Transport / Matériaux / Santé-pharmacieThème : Cycle de vie des produits nanostructurés et protection de l’environnement
27 octobre Orléans Secteurs : Pharma-cosmétologie / ÉnergieThème : Nanotechnologies et protection des consommateurs
3 novembre Bordeaux Secteurs : Nanotubes de carbone et applications / SantéThèmes : Process industriels / Nanotechnologies et protection des travailleurs
10 novembre Clermont-Ferrand Secteurs : Pneumatiques / automobile Thème : Nanoparticules et pollution atmosphérique
17 novembre Lille Secteurs : Textile / RFIDThème : Nanotechnologies et textile
24 novembre Besançon Secteur : Micro-techniquesThème : Nanotechnologies et compétitivité
1 décembre Grenoble Secteurs : Informatique / Énergie / ClinatecThèmes : Informatique et libertés individuelles / Nano-Médecine
10 décembre Caen Secteurs : Nano-électronique / Nano-poudresThème : Matériaux de construction et applications multi-usage
15 décembre Metz Secteurs : Télécom / FibreThème : Habitat et énergie
7 janvier Rennes Secteurs : Agro-aliementaire / Matériaux nanostructurésThème : Nanotechnologie et sécurité alimentaire
14 janvier Lyon Secteurs : Applications médicales / OptroniqueThèmes : Nanoparticules dans l’organisme / Études de toxicité
19 janvier Marseille Secteurs : Optique / Photonique / SCSThème : Sécurité intérieure et défense nationale
26 janvier Orsay Secteurs : Nono-électronique / BiotechnologiesThèmes : Recherche et développement industriel / Convergence nantotechnologies biotechnologies informatique sciences cognitives
9 février Montpellier Secteurs : Eau / Alimentaire / SantéThèmes : Protection de l’environnement / Développement durable Nord-Sud
16 février Nantes Secteurs : Nano-poudres / AéronautiqueThème : Nouveaux matériaux pour les biens d’équipement
23 février 2010 Paris Thème : Ethique et gouvernance
Note : ces différentes villes ont été choisies en fonction de l’existence à proximité d’importants centres de recherche ou de pôles industriels utilisant les nanotechnologies.

 Afin de faciliter les débats et l’information du public, la CPDP a lancé ce jour un site Internet. Baptisé debatpublic-nano.org, celui-ci a vocation à héberger tout le matériel d’information et de communication autour du débat, notamment le dossier de présentation sur les options générales en matière de développement et de régulation des nano technologies, document réalisé par le maître d’ouvrage (les 7 ministères), mais aussi à compter du 15 octobre, le petit film qui sera diffuser en introduction de chaque réunion.  Conçu également pour nourrir le débat, il intègre également un volet participatif, avec la possibilité de déposer une contribution argumenté de quatre pages maximum. Baptisé cahier d’acteur, ces documents seront ensuite versés au dossier, tout comme la synthèse des débats. Pour l’instant, 45 contributions sont en préparation, mais la CPDP espère en avoir bien plus.  » Si nous tablons sur 10 à 15.000 personnes participant à chacune de nos réunions, nous espérons drainer des centaines de milliers de personnes sur notre site,  » ajoute Jean Bergougnoux.  Les objectifs sont lancés… A présent place au débat.A.L BEn savoir plus La Commission nationale du débat public (CNDP) a été saisie le 23 février 2007 par sept ministères : le ministère de l’Ecologie, de l’Energie, du Développement durable et de l’Aménagement du territoire, le ministère de l’Economie, de l’Industrie et de l’Emploi, le ministère du Travail, des Relations sociales, de la Famille, de la Solidarité et de la Ville, le ministère de l’Agriculture et de la Pêche, le ministère de l’Enseignement supérieur et de la Recherche, le ministère de la Défense, le ministère de la Santé et des Sports.  Ces sept ministères constituent le « maître d’ouvrage  » du projet. C’est lui qui a fixé les attentes des pouvoirs publics et c’est également à lui que sera rendu la synthèse des débats, au plus tard, deux mois après la fin des délibérations le 23 février 2010. Les réunions partiront toujours de concret avec une thématique prédéfinie. Chacune d’entre elle est organisée autour de deux tables rondes réunissant des chercheurs, des industriels, des utilisateurs, etc, qui parleront de leur expérience, l’objectif étant de lancer le débat avec la salle et de faire remonter tous les sujets connexes.

Un champ de pétrole qui marche au solaire !

L’installateur de centrales solaires thermiques BrightSource Energy pose une centrale de 29 MW sur un champ pétrolier du groupe Chevron à Coalinga, en Californie. Elle sera constituée de 7.000 miroirs qui réfléchiront les rayons solaires vers un réservoir de 90 mètres de haut rempli d’eau, qui, chauffée, produira de la vapeur. Le démarrage est prévu pour 2010.

Dans une centrale solaire thermique habituelle, cette vapeur ferait tourner une grande turbine qui produirait de l’électricité. Mais au fond, une centrale solaire thermique est d’abord une machine à fabriquer de la vapeur. Et cette fois, la vapeur sera injectée dans les puits de pétrole pour réchauffer l’épais pétrole brut californien, qui ainsi jaillira plus facilement. En général, les groupes pétroliers se procurent leur vapeur en brûlant du gaz naturel ou même du pétrole.

Baisser l’empreinte carbone grâce au solaire.

Le mariage du groupe pétrolier et de BrightSource, l’un des promoteurs des plus grands projets du soleil californien, ne date pas d’hier. Chevron a investi dans BrightSource, et l’utilisation du solaire pour son activité lui permettra d’afficher une baisse de son empreinte carbone, tout en évitant de recourir au gaz, au cours fluctuants. Deux autres grands groupes pétroliers ont injecté des fonds dans BrightSource : BP et le norvégien StatoilHydro.

Quant à BrightSource, qui a signé des contrats pour installer au total 2,6 GW de centrales solaires en Californie, en partenariat avec les compagnies d’électricité californiennes, ce contrat lui permettra une lucrative diversification technologique,et un test à grande échelle, lui qui en fait n’a installé réellement qu’une centrale pilote de 6 MW en Israël, en attendant que les rêves du désert californien se réalisent.

Deux concurrents de BrightSource, les groupes de solaire thermique Ausra et l’israélien eSolar, eux aussi courtisent les groupes pétroliers, qui essaient de réduire leurs coûts d’extraction en réduisant leur consommation de gaz. Mais le très bas prix du gaz au plus bas actuellement en Californie défavorise pour l’instant l’alternative du solaire auprès des pétroliers. Pour qu’il soit compétitif, il faudrait que le cours du gaz triple.

Source : Green Univers

Basware mise sur la facture électronique en mode service

La facturation électronique n’est plus une solution uniquement réservée aux grands comptes disposant d’un ERP. Les PME-PMI travaillant avec un grand nombre de fournisseurs pour effectuer leurs achats généraux ou les petites entités rattachées à de grands groupes peuvent désormais, elles aussi, avoir accès à des solutions d’e-facturation.  Un segment qu’a investi depuis peu en France l’éditeur d’origine finnoise Basware. Spécialiste des solutions d’automatisation des processus liés aux achats et à la comptabilité fournisseurs pour les grands comptes, celui-ci propose depuis mars 2009 une nouvelle gamme de services permettant d’effectuer des transactions électroniques. Son nom : Basware Connectivity.  » Avec cette solution, nous ciblons tout type de clients et de fournisseurs, quelle que soit sa taille, hormis les toutes petites PME, explique Bertrand Aumoite, directeur général Europe du Sud de Basware. Son modèle est donc différent de ce que nous proposons habituellement. Il ne s’agit plus d’un logiciel qu’il faut implémenter au sein de l’environnement informatique de l’entreprise, mais d’un SAAS (Software as a service). «  La facturation se fait donc à l’acte et son montant dépend avant tout du volume de factures entrantes traitées chaque mois.  » Pour donner un ordre d’idée, grâce au Web-portail, il peut atteindre 10 centimes d’euro par facture,  » ajoute Bertrand Aumoite. Testés et déployés depuis déjà quelques mois en Europe du Nord, Europe centrale et Amérique du Nord, Basware Connectivity repose sur quatre briques.  La première est le service d’activation fournisseurs externalisé dont l’objectif est d’aider les acheteurs à encourager leurs fournisseurs à adopter l’envoi de factures électroniques. Dans ce cadre, Basware propose deux services aux fournisseurs de ses clients : l’envoi par e-mail de leur facture en utilisant leur propre logiciel de messagerie, et l’impression de leur facture électronique après un cryptage complet des données grâce à une imprimante virtuelle pré-configurée fournie par Basware. Ces services, conformes aux exigences en matière de signature électronique, permettent non seulement de vérifier l’état de la facture, mais fonctionnent également pour des envois vers des clients connectés à n’importe quel «  service provider  » partenaire du réseau global Basware. La deuxième brique est plus traditionnelle et permet essentiellement de réduire les frais de traitement en interne des factures papier. Baptisé Basware Scan and Capture, il s’agit d’un service externalisé de  » scanning  » des factures pour pouvoir les mettre au format électronique et les envoyer aux acheteurs.  Business Transaction est lui un service complet. Il traite les factures électroniques et les redirige vers un système de traitement de la facture ou vers un service d’impression selon le choix du destinataire, il s’assure qu’elles sont envoyées aux différents clients et fournisseurs, il convertit les factures et autres documents d’achat, comme les e-commandes, en un format correct et gère les accusés d’envoi. Autant de fonctions qui permettent de traiter rapidement les factures et de limiter les erreurs. Enfin, à cela s’ajoute une quatrième brique, Supplier Portal. Il s’agit en fait d’un interface Web proposant aux fournisseurs des solutions clé en main pour recevoir des commandes électroniques, envoyer la confirmation des commandes ou encore, charger et créer des catalogues électroniques.  Autant de solutions qui semblent rencontrer une véritable demande et soutiennent l’activité de Basware. Au deuxième trimestre 2009, la contribution des SAAS au chiffre d’affaires de l’entreprise a augmenté par rapport à celle, historique, de la vente de licences. Au cours de cette période, les ventes nettes de services ont progressé de plus de 73 % sur une année glissante, et de 55 % au premier trimestre, soit 60 % au total au premier semestre. Résultat, malgré le contexte difficile, Basware compte réaliser un chiffre d’affaires de 100 millions d’euros en 2009 et un profit d’exploitation compris entre 10 et 15 % des ventes nettes. A.L B Pour en savoir plus 

  • Le site de Basware France
  • Le site Basware Connectivity

Une solution liquide pour réduire le coût des piles à combustible

Le platine reste le meilleur catalyseur pour les piles à combustible mais ces dernières sont aujourd’hui inabordables en raison de la rareté et du prix de ce matériau. Or, une société britannique vient de mettre au point un procédé, dit FlowCath®, qui permet de réduire de 80 % la quantité de platine et de 40 % le prix des piles à combustible. Son inventeur, le Dr Andrew Creeth, revient sur les perspectives offertes par ce procédé. 

Techniques de l’ingénieur : En quoi le système FlowCath® est-il innovant par rapport aux piles à combustible qui ne contiennent pas de platine ?
Andrew Creeth : Dans les cathodes des piles à combustible de type PEM ainsi que dans les autres cathodes sans platine, une électrode à air est utilisée. L’air passe à travers une couche d’électrode qui contient le catalyseur et l’oxygène est réduit en eau.FlowCath® remplace une partie des métaux précieux dans les catalyseurs que l’on utilise dans les piles à combustible conventionnelles par un catalyseur liquide. Un catalyseur et un médiateur sont dissouts dans une solution à base d’eau. Celle-ci traverse la région de la cathode de la pile à combustible et le médiateur est réduit à l’électrode. Il est diffusé jusqu’à un régénérateur où l’oxygène réagit avec le catalyseur pour oxyder le médiateur.Cela permet :
  • de réduire les coûts en remplaçant la majorité du platine dans la pile à combustible (80 % du platine dans une pile à combustible conventionnelle se trouve dans la cathode).
  • d’augmenter la durée de vie et la fiabilité de la pile à combustible grâce à la simplification du système et à l’élimination des mécanismes de défaillance les plus fréquents (il n’y a plus besoin d’humidifier la membrane, ou encore le liquide agit comme refroidisseur).
 

Existe-t-il un prototype ?
Nous sommes en train de fabriquer un prototype pouvant produire 1 kW d’énergie. Nous avons déjà obtenu une production continue de 600 W avec un modèle réduit et nous visons 1,5 kW. 

Pourrez-vous un jour vous aligner en termes de puissance sur le marché des voitures à pile à combustible ?
Nos projets actuels de développement consistent en la fabrication de modules comprenant des piles spécialement conçues et un système de régénération, prêts à être intégrés dans des applications stationnaires pouvant produire de 1 à 10 kW. A long-terme, des modules seront disponibles pour des applications stationnaires de plus grande envergure, des systèmes chaleur et énergie combinées (Combined Heat and Power – CHP) mais également les transports. 

A combien estimez-vous l’impact sur le coût des piles à combustible ?
Nous avons calculé que la diminution des quantités de platine et la simplification du système devraient permettre de réduire jusqu’à 40 % le coût des piles à combustible. L’impact sur leur commercialisation devrait être important. Propos recueillis par Clémentine FulliasAndrew Creeth est l’inventeur de FlowCath®. En août 2004, il a créé AcalEnergy pour développer et commercialiser ce procédé.

Pour le développement des nanosciences

(Cette interview a été actualisée le 3 mars 2010) C’Nano GSO Aquitaine, Midi-Pyrénées, Languedoc-Roussillon est un réseau unique regroupant trois régions pour le développement des nanosciences et nanotechnologies dans le Grand Sud Ouest de la France. C’Nano GSO cherche à améliorer les partenariats entre la France, l’Espagne et le Portugal, basés sur des liens scientifiques forts entre les pays du Sud Ouest de l’Europe et le C’Nano GSO.

Techniques de l’Ingénieur : Que sont les C’Nano ?

Charlotte Bernard-Fouché : Les C’Nano sont des centres de compétences qui rassemblent la communauté scientifique active en nanosciences. Ils regroupent un nombre important de chercheurs, d’enseignants chercheurs et d’ingénieurs de recherche qui font progresser sur le même front les connaissances et savoir-faire indispensables au développement des nanotechnologies (4100 équivalents temps plein, permanents et non permanents). Le C’Nano GSO (Grand Sud Ouest), regroupant les régions Aquitaine, Midi-Pyrénées et Languedoc-Roussillon, s’inscrit dans le cadre de ces centres de compétences répartis dans toute la France.

Quels sont les objectifs du C’Nano GSO ?

Comme la plupart des réseaux se concentrant sur le développement des nanosciences et nanotechnologies, C’Nano GSO agit sur trois domaines majeurs : recherche fondamentale enseignement et formation, transfert technologique et renforcement des partenariats avec les entreprises.Dans le détail, les objectifs du C’Nano GSO sont les suivants :

  • Animer les activités scientifiques de la communauté Grand Sud-Ouest dans le domaine des nanosciences et nanotechnologies ;
  • Favoriser l’émergence de thématiques fédératrices ;
  • Mettre en commun des outils et équipements performants ;
  • Mettre en place des partenariats avec les régions trans-frontalières européennes et/ou nationales ;
  • Développer des partenariats efficaces avec le monde industriel ;
  • Participer à des actions de formation initiale ou permanente ;
  • Informer le grand public des développements des nanosciences et nanotechnologies.

Les thèmes de recherche les plus représentés dans le Grand Sud Ouest sont :

  • Nanomatériaux et molécules ;
  • Techniques de champ proche, spectroscopie et imagerie sur nano-objet ;
  • Nano-sonde, nano-manipulation et nano-machine, nanomécanique.
Quelles sont les actions de formation réalisées par le C’Nano GSO?

Dans le cadre de son volet formation, le C’Nano GSO a mis en place un groupe de travail pour l’élaboration d’un master inter-régional entre les trois régions constituant le GSO (Aquitaine, Midi-Pyrénées et Languedoc-Roussillon). Ce master sera consacré aux nanosciences et nanotechnologies. Un groupe de travail a été constitué pour réfléchir à l’élaboration de ce master, afin de définir le corps d’un enseignement pour physiciens et chimistes en identifiant les spécificités de chaque région. En parallèle avec ces travaux, nous développerons une action vers nos collègues espagnols afin d’étendre ce master « nano » à l’Espagne. Cette action trans-frontalière est soutenue par les ministères français et espagnols.

Quel rôle joue le C’Nano GSO dans le développement de partenariats avec le monde industriel ?

Dans le cadre de partenariats avec le milieu industriel, C’Nano GSO travaille en relation avec une Action Collective Transrégionale Nanomatériaux, baptisée ACT Nano. Cette action collective a été mise en place par la Direction Générale des Entreprises afin d’accélérer la diffusion des technologies « nanomatériaux » dans le tissu industriel et leur acquisition par les PME/PMI.ACT Nano a ainsi pour objectif d’évaluer les besoins des PME, d’apporter des solutions « nanomatériaux » et d’accompagner les PME dans leur projet de développement ou de partenariat avec des laboratoires de recherche. ACT Nano vient en quelque sorte compléter le dispositif C’Nano en apportant une dimension transfert et partenariat de recherche technologique avec les PME dans le domaine des nanomatériaux.

Quels sont les évènements auxquels participera C’Nano GSO ?

Suite à la session consacrée au C’Nano GSO lors de la conférence NanoSpain 2008 (Braga, Portugal, 14-18 avril 2008), une conférence franco-espagnole, NanoSWEC (Nano South West European Conference), organisée par le C’Nano GSO, a eu lieu à Bordeaux en novembre 2008 (3-6 novembre) afin d’initier et de renforcer des collaborations entre l’Espagne et le C’Nano GSO.Lors de l’année 2009, cette collaboration franco-ibérique a été maintenue avec la participation du C’Nano GSO à la conférence NanoSpain 2009 (Saragosse, Espagne, 9-12 mars 2009), et l’organisation du workshop NanoSWEC 2009 sur le thème plus précis des nanosystèmes et nanomatériaux bioinspirés (Bordeaux, 2-4 novembre 2009). Le succès de ces différents événements montre bien la complémentarité des recherches menées de chaque côté des Pyrénées.  » En savoir plusAujourd’hui, Charlotte Bernard-Fouché n’est plus chargée de mission pour C’Nano GSO. Depuis octobre 2009, elle est chargée de mission Nanosciences à l’Agence Nationale de Recherche à Paris.

Des nanotubes pour auto-réparer des circuits

Parvenir à ce que des conducteurs électriques, comme les connecteurs des batteries Lithium-ion des ordinateurs ou des mobiles, se réparent tout seuls et éviter ainsi des courts-circuits pouvant mettre le feu à l’appareil, de la science-fiction ? Pas si sûr. Une équipe de chercheurs de l’université de l’Illinois à Urbana-Champaign, conduite par Jeffrey Moore, a mis au point une technique permettant de réparer, presque automatiquement, un fil conducteur coupé. Comment ? Grâce à des microcapsules en polymère contenant des nanotubes de carbone (à simple paroi), car ceux-ci sont de très bons conducteurs d’électricité et leur forme allongée permet de combler efficacement les brèches. Lors d’un choc entraînant une rupture du circuit électrique, les microcapsules, qui recouvrent les contacts d’une batterie, vont se rompre pour libérer les nanotubes de carbone. Il suffit pour cela de secouer l’appareil. Les nanotubes vont alors s’agglutiner sur les extrémités du fil coupé, former un pont et rétablir le passage du courant électrique. 

Pour l’instant, bien sûr, cette application industrielle, qui pourrait être très précieuse pour des appareils où les réparations sont difficiles, voire impossibles à faire tels que les satellites ou les sous-marins, est de l’ordre de la prospective. Les chercheurs en sont encore au stade de l’expérimentation dans des conditions spécifiques relatées dans le  » Journal of Materials Chemistry  » : les microcapsules sont saupoudrées entre les extrémités de deux fils métalliques, séparées de 100 nanomètres.  Mais ces expériences sont déjà riches d’enseignements. Pour que le processus fonctionne, il faut des microcapsules ni trop grosses, ni trop petites. La taille optimale oscille entre 280 et 350 nanomètres. Plus petites, elles sont trop résistantes, et plus grosses, elles sont trop fragiles. De même, il n’est pas nécessaire de recouvrir tous les composants avec ces microcapsules, car les ruptures ont tendance à se produire toujours au même endroit.
En haut : nanotubes en suspension dans des microcapsules de polymères. En bas : surface de ces capsules de polymères. © J. Mat. Chem./RSC Publishing
Photo vignette © Eric Brown, University of IllinoisPour en savoir plus Ces expériences s’appuient sur d’autres recherches que mènent l’université de l’Illinois à Urbana-Champaign sur les matériaux capables de s’auto-réparer. Jusqu’à présent, ces recherches portaient sur des matériaux capables de combler automatiquement des fissures survenues lors d’un choc. Toutes ces expériences reposent sur l’utilisation de monomères, inclus dans des capsules ou des réserves, qui polymérisent dans la fissure à l’aide d’un solvant, d’un catalyseur ou bien d’énergie. Sur ce principe, l’équipe de Scott White et Kathleen S. Toohey ont mis au point un matériau vascularisé.Site de l’université de l’Illinois A-L. B

Les bons élèves de la deuxième génération de biocarburants

Robert Rapier traitait dans une précédente tribune des imposteurs de la deuxième génération de biocarburants : ces technologies qui drainent des capitaux considérables alors même qu’elles ne sont pas commercialement viables. D’un autre côté, nous explique-t-il aujourd’hui, il existe un certain nombre de carburants renouvelables qui soit ont prouvé être de bons candidats soit n’ont pas montré jusqu’à aujourd’hui de défaut majeur susceptible de les disqualifier dans la course. C’est notamment le cas du BTL (« Biomass to Liquid »), un carburant synthétisé à partir de la biomasse.J’entends par bon candidat, un biocarburant capable de fournir 20 % de nos besoins actuels de carburants fossiles. Si ce nombre est arbitraire, il permet d’éliminer de nombreux petits contributeurs potentiels. Je me focaliserai ici sur les Etats-Unis dont je suis plus familier, mais ces arguments sont valables ailleurs.Imaginez un instant la quantité d’énergie enfermée dans les 1,3 milliards de tonnes de biomasse sèche que le Ministère de l’énergie estime pouvoir être produites durablement chaque année. La biomasse forestière et les résidus des récoltes contiennent environ 7.000 BTU par livre. Un baril de pétrole contient lui près de 5,8 millions de BTU.L’énergie contenue dans 1,3 milliards de tonnes de biomasse équivaut ainsi à 3,1 milliards de barils de pétrole, soit 42 % des 7,32 milliards de barils consommés en 2008 aux Etats-Unis.En réalité, ce nombre est bien inférieur à 42 % car le processus de raffinage de la biomasse consomme une quantité importante d’énergie. Toutefois, il existe au moins deux technologies qui permettent d’obtenir une quantité de carburant liquide supérieure à 50 % de la valeur en BTU de la biomasse sèche :

  • La pyrolyse flash
Il s’agit de chauffer rapidement la biomasse à une température proche de 500 °C. La réaction a lieu en deux secondes et les produits sont de l’huile de pyrolyse ou bio-huile et du char (résidu carboné issu de la valorisation des pneus usagés non réutilisables). Près de 70 % de la quantité initiale de BTU est capturée dans l’huile avant soustraction de l’énergie consommée dans le processus.La pyrolyse flash présente des inconvénients certains. Chauffer la biomasse à 500 °C consomme beaucoup d’énergie. De plus, l’huile brute ne peut pas servir de carburant à cause de son acidité. Sans raffinage, elle ne peut être mélangée à l’essence. Malgré cela, la pyrolyse flash reste un bon candidat.
  • La gazéification
L’exemple suivant est l’une des raisons pour lesquelles je pense que la gazéification a un rôle important à jouer dans l’avenir. Pendant la Deuxième Guerre Mondiale, les Allemands ont manqué de réserves de carburant. Ils ont alors eu recours à la liquéfaction du charbon (« coal to liquids » ou CTL) qui contient deux étapes : la gazéification du charbon suivie du procédé Fischer-Trops (catalyse de monoxyde de carbone et d’hydrogène en vue de les convertir en hydrocarbure).Au sommet de leur production, lesAllemands produisaient plus de cinq millions de gallons de carburant synthétique par jour. Pour mettre les choses en perspective, c’est plus que le total des productions d’éthanol de cellulose et de biocarburant algal à ce jour. Cette technologie a donc déjà fait ses preuves par le passé. Ce n’est pas le cas de beaucoup des technologies dans lesquelles nous plaçons nos espoirs (et nos dollars). Il existe plusieurs usines de CTL et de GTL (« gaz to liquids ») en activité dans le monde. Shell construit actuellement la plus importante usine de GTL au monde avec une capacité de 140.000 barils/jour.L’efficacité de la transformation de la biomasse en carburant liquide par gazéification tourne autour de 70 %, un nombre que l’éthanol de cellulose n’approchera jamais. A ma connaissance, il n’existe pas d’autre technologie capable de convertir un pourcentage plus important de l’énergie contenue dans la biomasse en carburant liquide.Bien sûr, il y a toujours un « mais ». Malgré des réserves importantes de charbon, les Etats-Unis ne se sont pas tournés vers la gazéification. Pourquoi ? A cause du coût élevé du capital. Le désir de conserver le carburant au prix le plus bas prend le dessus sur notre désir de sécurité énergétique.Pour moi, la question n’est pas de savoir si le BTL peut remplacer 20 % du pétrole que nous consommons. La réponse est oui sans aucun doute. Mais elle est de savoir si nous sommes prêts à accepter un carburant national dont la production revient plus cher. A long terme, si le prix du pétrole continue d’augmenter, les usines de BTL construites aujourd’hui deviendront rentables. Lire l’article original en anglais dans son intégralité
Source :
R-Squared Energy BlogRobert Rapier a voué sa carrière à l’énergie. Il a travaillé sur l’éthanol de cellulose, la production de butanol, le raffinage du pétrole, la production de gaz naturel et le GTL. Il était auparavant directeur ingénierie chez Accsys Technologies et se trouve actuellement à Hawaii où il participe à la création d’une société sur la bioénergie.

Les chercheurs de l’institut IBN découvrent une nouvelle méthode de synthèse de nanoparticules

http://www.bulletins-electroniques.com/actualites/60448.htm Une équipe de l’Institute of Bioengineering and Nanotechnology (IBN) vient de mettre au point une méthode respectueuse de l’environnement permettant la synthèse à bas coût de plusieurs variétés de nanoparticules. Les chercheurs de l’institut singapourien ont développé un protocole de transfert d’ions métalliques d’une solution aqueuse vers une solution organique telle que le toluène en mélangeant une solution de sels métalliques dissous dans de l’eau avec une solution de dodecylamine (DDA). Cette méthode permet aux ions métalliques de se lier au DDA pour être extrait avec un solvant organique. Elle ne produirait pas de produits chimiques toxiques et permettrait l’utilisation de métaux et matériaux rares pour la synthèse de nanoparticules et de matériaux nanostructurés. Comparée aux techniques de synthèse de nanoparticules traditionnelles, celle d’IBN permet une fabrication de nanoparticules à partir de précurseurs métalliques solubles dans l’eau. En plus de son faible coût et de son fort rendement, cette méthode présente l’avantage d’être potentiellement utilisable pour la fabrication de semi-conducteurs et le traitement des eaux et sols pollués. Selon le Dr Jun Yang,  » Une fois contaminé, il est souvent difficile et cher de purifier l’environnement et d’extraire les polluants. D’ailleurs les métaux très toxiques tels que le mercure et le plomb et d’autres métaux précieux tels que l’or, l’argent, l’iridium et l’osmium, sont souvent solubles dans l’eau. «  Un article concernant cette découverte a d’ailleurs été publié dans la revue scientifique Nature Materials (FI 23.132)  » A General Phase-Transfer Protocol for Metal Ions and its Application in Nanocrystal Synthesis. «  Source : Communiqué de presse A*STAR, 14 juillet 2009Rédacteur : Catherine GuermontOrigine : BE Singapour numéro 64 (15/09/2009) – Ambassade de France à Singapour / ADIT – http://www.bulletins-electroniques.com/actualites/60448.htm

Une méthode de dépollution par les plantes pour les rizières polluées au cadmium

http://www.bulletins-electroniques.com/actualites/60387.htm

Une équipe japonaise a mis au point une méthode de dépollution par les plantes ou phytoremédiation permettant de traiter les rizières polluées au cadmium via l’utilisation de certaines variétés de riz. Pour rappel, l’Agence Européenne de Sécurité des Aliments (l’EFSA) avait déjà recommandé en avril dernier la réduction de la dose tolérable de cadmium dans l’alimentation.Le cadmium est un métal qui entre dans la chaîne alimentaire à la suite d’une pollution industrielle : les rizières sont contaminées par les eaux usées ou les fumées émanant d’usines proches. La toxicité du cadmium pour l’homme est connue depuis les années 50. Cependant, dès 1946, dans la préfecture de Toyama au Japon, un empoisonnement chronique au cadmium causé par des effluents miniers a été à l’origine d’une épidémie de la maladie « itai-itai » [1], caractérisée par une insuffisance rénale, une ostéomalacie (décalcification osseuse) et des fractures très douloureuses.Les chercheurs sont parvenus à identifier trois cultivars de riz, nommés Chokoukoku, IR8 et Mohretsu, capables d’absorber du cadmium en quantités importantes. Ils ont constaté que cultiver ces variétés sur un sol pollué pendant 3 ans permet d’abaisser de 20 à 40 % la concentration en cadmium.

Développer la méthode à l’international

Cette méthode permet de décontaminer les terrains cultivables pour un coût plus bas que celui des solutions existantes. Elle peut par ailleurs s’avérer cruciale, à l’heure où les autorités étudient la possibilité d’abaisser la concentration maximum de cadmium autorisée dans les aliments à 0,4 g/kg (contre 1 g/kg aujourd’hui). Pour l’instant, l’équipe japonaise songe à rechercher des partenaires à l’étranger afin de développer sa méthode à l’international.Ce résultat est le fruit d’une coopération entre recherches publique et privée : l’équipe regroupe en effet des chercheurs de Mitsubishi Chemicals, de l’Institut National pour les SciencesAgro-Environnementales de Tsukuba et des instituts préfectoraux de recherche agricole de Yamagata, Niigata, Fukuoka et Akita. [1] « itai » signifie « j’ai mal » en japonais.

Source :
BE Japon numéro 512 (4/09/2009) – Ambassade deFrance au Japon / ADIT http://www.bulletins-electroniques.com/actualites/60387.htm
Jean-Baptiste Bourdin est rédacteur pour la rubrique environnement des bulletins électroniques de l’ambassade de France au Japon.

RFID – NFC : les 13 projets soutenus par l’Etat

Cinq mois après le lancement par Luc Chatel, alors ministre chargé de l’Industrie, d’un appel à projet baptisé  » Usages innovants de la RFID et services mobiles sans contacts  » (avril 2009), 13 projets mettant en oeuvre des technologies sans contact (Near Field Communication ou RFID) ont finalement été retenus. La somme totale qui leur sera allouée n’a toutefois pas été divulguée. Seule information : ils s’agit de plusieurs millions d’euros. Maintenant, ce financement atteindra-t-il les 3,5 millions d’euros prévus initialement ? Pour l’instant, ce chiffre n’a pas été confirmé. Au total, 38 projets intervenant dans des domaines aussi variés que les transports, la ville, les musées, la santé, les services à la personne ou encore l’agroalimentaire ont été déposés entre avril et juin 2009. L’éventail des initiatives retenues reflète d’ailleurs cette diversité.

Projets Thématiques Porteur Descriptif
Bpass+ Transport Véolia Environnement Communauté Nice Côte-d’Azur. Proposer à l’usager un service de rechargement et de stockage de son titre de transport directement sur son téléphone mobile NFC. Partenaire : Connecthings
Mobemo Accès entreprises et services Gemalto Proposer aux entreprises ou aux collectivités une solution clé en main de migration des différents badges sans contact de leurs employés (accès aux bâtiments, badge de cantine, etc.) sur un téléphone mobile NFC. Partenaires : Ingelis Transatel SA et le Conseil Régional de Basse-Normandie
NFC SCM Services grande distribution, transport, tourisme Cassis International Europe Mettre en place un système interopérable et standard pour la billettique et les coupons de fidélité sur téléphone mobile NFC.Partenaires : High Co 3.0, Sagem Orga, Digitick, Université de Nice (Master MBDS)
Nice Future Campus Services aux universités / étudiants Extelia Créer la première carte d’étudiant virtuelle multiservice en Europe embarquée dans des téléphones mobiles avec 3 approches innovantes complémentaires: le téléphone NFC, le sticker NFC externe actif et  » l’add-on  » NFC interne.Partenaires : Université de Nice , Orange, BMS (PME Hors BN), Mobile Distillery, Cassis Int , ASK
Smart Muse Musée Connecthings Permettre de mettre en place dans les musées (expérimentations prévues au Centre Pompidou et dans le Vieux Nice) un système de visite intelligent reposant sur la lecture de tags RFID pour accéder à des contenus contextualisés.Partenaires : Centre Pompidou, Mairie de Nice, Inside Contactless, Sagem Wireless
Must Téléphone NFC sur Android France Télécom Création d’un terminal mobile 3G/NFC s’appuyant sur Androïd de Google et développement de service d’e-tourisme dédié au Mont Saint Michel.Partenaires : CEV Group, Digital Airways , Intelligéré , Inside Contactless , Gemalto , Renesas, Conseil Général de la Manche 50, Université de Caen BN, IUT de Cherbourg, Manche Numérique
Altess Paiement sans contact Atos Wordline Créer une architecture sécurisée, couplée au lecteur NFC grand public de chez Violet pour développer un bouquet de services de type paiement en ligne sans contact, chargement de titres de transport, identification automatique, reconnaissance/fidélité en ligne, authentification et de signature électronique.Partenaires : Violet, BMS, Neowave
NFC 2UI Services mobiles sans contact Cassis International Europe Développer des interfaces utilisateur de services mobiles sans contact (paiement, transport, fidélité) portables sur toutes les plate-formes de terminaux.Partenaires : Mobile Distillery, RATP, Crédit Agricole, Sagem Orga, Université de Nice (Master MBDS)
STAM-RFID Santé Lamap Développer une solution au profit des établissements hospitaliers pour améliorer la traçabilité des archives médicales par l’utilisation de la RFID.
La Vitrine Intelligente Commerce Cleor S.A. Développer une solution de traçabilité et de gestion de stock en temps réel dans les magasins pour le secteur de l’horlogerie, bijouterie, joaillerie par RFID Ultra haute fréquence.
Digiprice Commerce, distribution MPE Technology Développer un système destiné aux surfaces de vente de textiles, combinant les fonctions d’inventaire en temps réel, d’affichage dynamique des informations sur les produits, d’antivol et localisation, et de fidélisation de la clientèle.
IDViandes Agroalimentaire SVA Jean Rozé Permettre la diffusion des technologies RFID dans la chaîne logistique des viandes de boucherie afin de l’optimiser (traçabilité en temps-réel, etc.).
Matrice Service à la personne (CESU) Apologic Informatique Applications Développer et expérimenter l’utilisation des chèques emploi service universels (CESU) mobiles à la place du papier, permettant ainsi le traitement de l’information sur le nombre d’heures réalisées au domicile via la lecture de badges sans contact par l’intervenant à domicile et le paiement de la prestation correspondante.

Autre constat : bien qu’apparue plus récemment, force est de constater que les projets mettant en oeuvre la technologie Near Field Communication sont loin d’être minoritaires. Bien au contraire ! Sur 13 dossiers retenus, 8 utilisent la NFC ce qui traduit bien les espoirs que les pouvoirs publics mettent dans cette technologie. En savoir plusCompte tenu des multiples opportunités qu’offrent les technologies RFID, le ministère de l’Economie, de l’Industrie et de l’Emploi a lancé en 2007 un plan d’actions pour soutenir le développement et l’appropriation de cette technologie. En 2008, un premier appel à projets IPER ( » Innovation dans les processus d’entreprises par la RFID « ) a permis de financer 5 projets innovants, chacun susceptible de diffuser ce type de technologie auprès des entreprises de son secteur d’activité (distribution, logistique, transport, santé, alimentaire).Dans le même temps, le MINEFE a créer fin 2008 une agence dédiée à la RFID. Baptisée Centre national de référence de la RFID (CNRFID), cette association loi 1901a pour objectif de faciliter le développement et l’usage de la technologie RFID afin de soutenir à la fois les  » Offreurs de solutions  » (concepteurs, fabricants de matériels, intégrateurs, juristes, etc…) et les  » Utilisateurs  » (entreprises de la distribution, de l’aéronautique, de l’électronique, PME et TPE, associations, etc.).Une démarche comparable d’analyse prospective et de concertation avec les acteurs économiques autour du NFC a conduit le ministère à lancer un plan d’actions pour soutenir le développement sur mobile de nombreuses applications et nouveaux services. Ce plan s’est traduit également par la création le 26 mai 2008 du Forum des services mobiles sans contact, et par le lancement de nombreux pilotes de  » mobile sans contact  » dans différentes villes de France tels que Paris, Strasbourg, Caen ou encore Nice (lire Le mobile sans contact à l’heure de la pré-commercialisation).

  • Voir l’appel à projet 2009 du Minefe.
  • voir le site du CNRFID

La rédaction

Le point sur le développement des énergies renouvelables marines au Royaume-Uni

lusieurs projets continuent d’enregistrer des développements significatifs au Royaume Uni, tandis que d’autres on été abandonnés ou transposés. Cette rentrée me fournit l’opportunité de faire un point en ce qui concerne l’énergie des vagues et courants :

  • Wave Hub
Le Projet appelé UK’s Wave Hub qui est un site d’essai consacré entièrement à l’énergie des vagues continue à être développé au large des côtes de Cornouailles. Selon le media Engineer on line (ICI), un contrat d’un million de livres sterling a été signé avec l’antenne locale de Powermann à Poole pour procéder à l’installation de tout le matériel nécessaire à relier le site de production d’énergie des vagues au réseau électrique national. Le projet qui a reçu un apport spécial du gouvernement britannique de 9.5 millions de Livres devrait s’en voir attribuer 10 millions supplémentaires dans le cadre d’un soutien global à l’ensemble des projets énergétiques marins dans le sud-ouest.D’autres sources de financement sont attendues comme l’European Regional Development Fund Convergence Programme (£ 22,93 millions) et le RDA (£ 12.5 millions). Selon le média Water Power Magazine, le premier équipementier dont le matériel sera rélié au réseau ne sera pas anglais puisqu’il s’agit de la compagnie américaine Ocean Power Technologies (OPT), avec sa célèbre technologie de bouée capteuse d’énergie des vagues PowerBuoy®.Les autres projets développés dans le cadre du Wave Hub et sur lesquels les compagnies communiquent moins seraient toujours : le projet du Norvégien Fred Olsen Renewables avec sa technologie de type bouées, et le projet de l’Australien OceanLynx dont j’ai déjà beaucoup fait état auparavant. Selon le média devon.co.u, le projet E.ON-Ocean Prospect qui consiste à installer 7 récupérateurs Pelamis dans le Wave Hub de Cornouailles a été déplacé le 29 avril 2009 vers un projet similaire aux Iles Orcades dans le cadre de l’European Marine Energy Center (EMEC), qui est le grand centre de développement des énergies marines au Royaume-Uni et dispose de moyens visiblement plus importants que le WaveHub Project.
  • Aquamarine
Le récent matraquage médiatique de la compagnie écossaise Aquamarine Power pour sa technologie de récupération d’énergie des vagues Oyster® (« Huître » en français) pourrait laisser penser que cette technologie qui a remporté les £ 60 millions attribués par la British Renewable Energy Association à la « Meilleure innovation de l’année 2009 » est LA technologie de récupération d’énergie des vagues du futur. Quand on voit la taille de l’engin, on a des doutes. Et pourtant on a tort car son avantage majeur est d’avoir rapatrié la plupart des équipements de transformation à terre, ce qui évite des problèmes d’entretien en mer insurmontables et hors de prix.Autre avantage et non des moindres, la constance de la ressource sur les fonds de 12 à 16 mètres où le dispositif doit être posé et surtout le fait qu’Oyster® utilise pour fonctionner uniquement des ressources hydrauliques, à l’exclusion de tous hydrocarbures ou autres substances toxiques,ce qui n’est pas le cas de toute les technologies marines dites « propres » existantes. Ce type de technologie constitue en tout cas l’antithèse des dispositifs légers de type Anaconda. Fort des sestrophées et de l’appui du Ministère britannique de l’environnement, Aquamarine Power prévoit d’ailleurs de déployer aussi sa grosse huître d’ici l’automne à l’EMEC (Centre européen d’énergie marine) !
  • Marine Current Turbines (MCT)
La compagnie Marine Current Turbines pionnière de l’exploitation commerciale de l’énergie des courantsmarins avec son SeaGen de 1,2 MW déployé depuis plus d’un an àStrangford Lough en Irlande du Nord, malgré quelques incidents deparcours inhérents à la mise en place de toute technologie nouvelle,est bel et bien le premier projet à l’échelle commercialed’exploitation de l’énergie des courants. A ce titre il a reçurécemment son accréditation ROC (Renewables Obligation Certificates)qui régule l’exploitation commerciale de l’énergie au Royaume-Uni.
  • Orecon
Avec sa technologie MRC, l’équipementier britannique Orecon devrait fournir au réseau portugais une électricité au tarif de 33 cents/kWh, tarif spécialement accordé par les autorités portugaises à l’électricité d’origine marine renouvelable. D’après le media GreenBang (ICI), Orecon aurait passé un accord avec le chantier naval portugais Estaleiros Navais Do Mondego (ENM) pour construire et développer un récupérateur de 1,5 MW d’ici à Février 2011.Cette annonce en complétait une autre faisant part de l’intention d’Orecon de développer un site de récupération d’énergie des vagues de 4,5 MW avec le portugais Eneolica. Quand on questionne le britannique Orecon sur son choix de développer sa technologie plutôt au Portugal qu’ailleurs, la réponse est claire : « Les raisons sont stratégiques. Outre son exceptionnelle ressource en vagues, le Portugal est le seul pays d’Europe qui ait à la fois mis en place une politique tarifaire claire en matière d’énergie d »origine renouvelable marine et qui en facilite le raccordement au réseau national ».
  • Pulse Tidal
Le développement des technologies de récupération de l’énergie des courants n’est pas en reste. Ainsi la compagnie britannique Pulse Tidal qui développe un récupérateur assez astucieux répondant au nom de npower juice (video de démo ICI); cette technologie est basée sur les mouvements des nageoires degrands cétacés. La compagnie a pu construire son prototype (en test àHumber près de Immimgham Dock) de 100kw grâce à un financement publicde £ 878.000 mais aussi grâce a l’apport du privé du géant industrieljaponais Marubeni qui s’intéresse de plus en plus à ce secteur des énergies renouvelables marines. 

Source :
Les Energies de la merFrancis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études. Il anime notamment Les énergies de la mer, spécialisé dans les énergies marines.

Virtualisation : les limites en termes de détection et de prévention des intrusions

Le principe est simple et efficace. L’hébergement des systèmes d’exploitation et des services sur des environnements virtuels permet une flexibilité et une réactivité aux besoins informatiques jusqu’ici inégalées. Pourquoi ces avantages que nous procurent les environnements virtuels poseraient-ils problème à nos systèmes de prévention et de détection des intrusions ? Tout d’abord, en raison justement de leur caractère flexible. Le problème majeur de l’IDS/IPS étant le faux positif, la configuration d’un IPS (Intrusion Prevention System) doit refléter exactement la couverture des vulnérabilités présentes dans le réseau afin de limiter les erreurs. Si un service nouveau et différent des autres démarre (version différente / éditeur différent), il est donc nécessaire de mettre un “coup de tournevis” sur l’IPS afin de garantir le maintien du niveau de sécurité et d’éviter le risque de faux positif. Le recours aux environnements virtuels dynamise énormément le réseau ce qui alourdit fortement la tâche des exploitants de l’IPS. Pour se prémunir contre ce surcoût d’exploitation de la sécurité, il est recommandé d’utiliser un IPS dit “ adaptatif ”, capable de cartographier le réseau en temps réel et d’adapter son profil de protection en suivant le dynamisme du réseau. L’IPS “ adaptatif ” est capable de découvrir,en temps réel, le démarrage d’un service sur un environnement virtuel. Plus ennuyeux encore, s’il y a système virtuel et / ou application virtuelle, il y a bien souvent, et de plus en plus, un réseau virtuel… Au sein d’un même environnement virtuel, les systèmes et applications peuvent communiquer entre eux / elles sans être contrôlés par les systèmes IPS qui sont très largement déployés à l’extérieur de l’environnement virtuel et souvent hébergés sur un boîtier appliance. En bref, les IPS classiques sont sourds et aveugles devant les attaques réalisées au sein même de l’environnement virtuel. De quoi nourrir l’imagination des hackers… La solution s’impose d’elle même. S’il y a réseau virtuel, il suffit de déployer une sonde IDS virtuelle au sein même de l’environnement afin d’y contrôler le trafic et d’y détecter les attaques et anomalies qui nous intéressent dans le monde réel. En bref, appliquer les mêmes règles de sécurité aux réseaux virtuels et physiques. Le caractère adaptatif de l’IPS reste évidemment intéressant.  En conclusion, un IPS classique uniquement basé sur appliance fera mauvais ménage avec une politique forte de virtualisation. La démarche de virtualisation d’une partie du système d’information nécessite une prise en compte particulière de ce sujet afin de contrôler les coûts d’exploitation et d’éviter une détérioration du niveau de d’efficacité des IPS. Les technologies évoluent mais la logique de gestion des événements de sécurité reste inchangée. Par Cyrille Badeau, directeur Europe du Sud Sourcefire

Le règlement Reach, fait comme un rat ?

Le défi que représente Reach, le règlement européen sur les produits chimiques, a-t-il été sous-estimé ? C’est ce que suggère une tribune publiée le 27 août dernier dans la célèbre revue Nature, par le toxicologue Thomas Hartung de l’Université Johns Hopkins (Baltimore, Maryland), ancien directeur du Centre européen pour la validation des méthodes alternatives, et Costanza Rovida, une chimiste italienne.Selon les auteurs, le coût des analyses toxicologiques prévues par le règlement, tout particulièrement celles liées à l’expérimentation animale, serait bien plus élevé que l’estimation de 2004, lorsque le projet de loi avait été présenté par la Commission européenne.Ainsi, au cours de la prochaine décennie, ce ne sont pas 1,6 à 2 milliards d’euros mais 9,5 milliards qui seront requis pour l’expérimentation animale. Quant au nombre d’animaux de laboratoire nécessaire pour effectuer les tests de toxicité, il s’élèverait non pas à 2,6 millions mais à 54 millions ! Une tribune qui relance la polémique sur l’expérimentation animale alors que se tient jusqu’au 3 septembre, à Rome, le septième Congrès mondial sur les alternatives à l’utilisation des animaux en sciences de la vie.Reach, victime de son succès ?Rappelons en premier lieu que le règlement Reach, dont l’entrée en vigueur date de juin 2007, contraint les industries chimiques à démontrer que les produits mis sur le marché depuis 1981 et qui sont toujours en vente, ne présentent pas de risques pour la santé publique mais aussi pour l’environnement, et ce, lorsque leur volume de commercialisation excède une tonne par an.Dans le cadre du calendrier d’application du règlement, qui s’étale jusqu’en 2018, les produits concernés doivent faire l’objet d’une demande d’enregistrement auprès de l’Agence européenne des produits chimiques (Echa), qui gère les procédures d’évaluation, d’autorisation et de restriction d’utilisation des dits produits. Cela dit, comment expliquer un tel écart entre le coût estimé en 2004 et celui avancé par l’étude publiée dans Nature ? Eh bien, le nombre de demandes d’enregistrement a été très largement supérieur à celui attendu.Ainsi, comme le relate le Journal de l’Environnement, « ce sont 143.000 substances, au lieu des 29.000 initialement prévues, qui ont été pré-enregistrées par l’Agence européenne des produits chimiques (Echa) ». Sans compter que le coût de Reach a été évalué pour une Europe à 12 et non à 27.Des tests sur la selletteDès lors, pour Thomas Hartung et Costanza Rovida, non seulement le règlement Reach coûtera trop cher mais ses objectifs seront tout simplement intenables : « La toxicologie réglementaire n’a ni les méthodes haut-débit ni les techniques alternatives à l’expérimentation animale pour tenir l’objectif » rapporte Le Monde. Particulièrement pointés du doigt, les tests de toxicité pour la reproduction qui, rappelle le Journal de l’Environnement, « nécessitent deux générations de deux espèces animales distinctes » et représentent à eux seuls, selon l’étude, « 90 % des cobayes et 70 % des coûts de Reach ».Un vrai « goulot d’étranglement » pour les auteurs qui appellent à « un moratoire sur les tests de toxicologie de la reproduction tant que des alternatives ne seront pas approuvées », selon Le Monde. Des résultats qui ne sont pas au goût de tous. Parmi les voix discordantes rapportées par Hervé Morin et Philippe Ricard dans LeMonde, l’Echa estime que « l’analyse publiée dans Nature est inexacte » et que le coût de ces tests ne dépassera pas le montant prévu même si l’Agence admet que le nombre d’animaux nécessaires sera bien de « 9 millions et non 2,6 millions ». Bref, les estimations abondent mais ne se ressemblent pas. Dernier détail… L’un des objectifs de Reach est bien de réduire, à terme, le nombre d’animaux utilisés. Mais pour ce faire, comme l’explique Eric Thybaud, de l’Institut national de l’environnement industriel et des risques (Ineris), au journal Le Monde, « il va falloir augmenter l’expérimentation animale… », aussi paradoxal que cela puisse paraître.En définitive, la situation serait-elle inextricable ? Pas si sûr puisque, selon Le Figaro, la « Commission européenne et l’industrie cosmétique vont débloquer chacune 25 millions d’euros afin de trouver d’autres moyens que le recours aux animaux pour évaluer l’innocuité de produits cosmétiques ». Cette annonce, certes restreinte à l’industrie cosmétique, a été faite ce lundi 31août, dans le cadre du septième Congrès mondial sur les alternatives à l’utilisation des animaux en sciences de la vie, qui se tient à Rome jusqu’au jeudi 3 septembre. Un Congrès dont le président n’est autre que… Thomas Hartung.  

Source :
Revue de presse de la Mission Agrobiosciences du 2 septembre 2009

Le nucléaire : une opportunité pour les femmes

L’ingénierie nucléaire est à la recherche de nouveaux talents pour faire face à la fois aux prochains départs à la retraite (40 % du personnel d’ici 2015), à l’allongement de la durée de vie des centrales existantes et au déploiement de cette énergie dans le monde (environ 300 nouveaux réacteurs seront construits dans le monde d’ici 20 ans). Les besoins sont donc importants.  » Au total, pas moins de 6 à 700 ingénieurs sont et seront embauchées dans cette branche chaque année « , annonce Serge Massart, directeur de la Division Production Nucléaire d’EDF (DPN). Parmi eux, des femmes… Mais en nombre insuffisant, alors qu’elles représentent un véritable gisement de compétences.  » Aujourd’hui, il y a environ 25 % de femmes dans les écoles d’ingénieurs, mais seules 15 % postulent à des postes de la Division Production Nucléaire, ajoute Monique Lucas-Garra, directrice des ressources humaines de la DPN. Ce n’est pas suffisant. «  

Les lauréates du prix Fem’energia 2009 (de gauche à droite) : Amélie Kleinclauss, Kimberly Colas, Chloé Crès, Christelle Foucher. Elles sont accompagnées de Monique Lucas-Garra, directrice des ressources humaines de la Division Production Nucléaire, Dominique Mouillot, présidente de Win France, et au deuxième plan, de Dominique Lagarde, directeur général délégué Ressources Humaines et Communication d’EDF.
 D’où l’idée, en collaboration avec Win France (Women in Nuclear), un réseau de femmes travaillant dans les domaines du nucléaire (énergie, espace, médecine, biologie, art…), de lancer le prix Fem’energia. Objectifs : mieux faire connaître les métiers de cette branche ; encourager et accompagner les jeunes femmes qui souhaitent s’investir dans ce secteur ; promouvoir les carrières scientifiques et techniques chez les femmes ; faciliter l’accès au premier emploi pour les jeunes, en particulier les lycéennes et étudiantes ; et contribuer à développer la diversité et la mixité dans les métiers du nucléaire. Au total, pour cette première édition, EDF et Win France ont reçu 250 dossiers. Quatre d’entre eux ont retenu l’attention du jury et ont été primés saluant ainsi l’implication de ces femmes dans ce secteur et l’excellence de leur parcours. Il s’agit d’Amélie Kleinclauss, 19 ans, récompensée dans la catégorie lycéennes en bac pro « environnement nucléaire  » ; Chloé Crès, 20 ans, titulaire d’un BTS CIRA (contrôle industriel et régulation automatique CFAI Aquitaine) pour la catégorie étudiantes en bac +2/+3 ; Kimberly Colas, 23 ans, qui réalise un doctorat en ingénierie nucléaire à l’université de Pennsylvanie et est récompensée dans la catégorie étudiantes en bac + 4/+5 et plus ; et de Christelle Foucher, 34 ans, appui management du service logistique du CNPE de Tricastin, pour les femmes en activité dans le secteur du nucléaire ayant, au plus, 35 ans. Enfin, un cinquième prix exceptionnel a été attribué à la Bulgare Anna Encheva, ingénieure, diagnostic division, et spécialiste d’ITER.A la clé, un prix certes, mais pas que cela ! Pour les étudiantes et lycéennes, il s’accompagne d’une bourse de 2.000 euros et, selon le profil de la lauréate, soit d’un stage, soit d’un contrat d’apprentissage, d’un contrat de professionnalisation ou d’une aide à l’accès au premier emploi dans une entreprise du secteur du nucléaire. Pour les femmes en activité, il est assorti d’un voyage aux Etats-Unis pour deux personnes et d’un accompagnement dans le parcours professionnel. Mais bien au delà, il a une tout autre signification : celle de l’exemple. Les femmes au sein d’EDFA ce jour, EDF SA compte 60.991 personnes, dont 43.133 hommes (70,7 %) et 17.858 femmes (29,3 %). Des chiffres légèrement inférieurs dès lors que l’on considère le collège des cadres. En 2008, les femmes représentaient en effet, 21,2 % des cadres du groupe EDF et 22,7 % des cadres d’EDF SA. Mais l’inflexion est perceptible : en 2008, 28 % des personnes recrutées au sein d’EDF étaient des femmesL’emploi dans le nucléaire10.000 postes sont à pourvoir dans la filière d’ici 2012. Les besoins sont considérables et de toutes nature depuis le CAP au bac +2 en passant par l’ingénieur (50 % des postes). Dans les années à venir, EDF recrutera environ 1.000 personnes par an dans le secteur du nucléaire.Les sites à connaîtreLe site de recrutement d’EDFLe prix Fem’energiaLe site de Win France A.L B

Investir dans le numérique, c’est bien. Ne pas se tromper de cible, c’est mieux.

Le 10 septembre dernier, le Secrétariat d’Etat à l’Economie Numérique organisait un séminaire sur le thème  » Numérique : investir aujourd’hui dans la croissance de demain.  » L’initiative est louable. Les sujets inscrits à l’ordre du jour – relevé des besoins dans les divers domaines de l’économie numérique, sans oublier l’encouragement à l’investissement des entreprises françaises dans les technologies de l’information – sont importants et doivent être traités. Mais il est navrant de constater que la principale cause de la faiblesse relative de l’économie numérique française semble avoir été pour le moins éludée. Je veux parler du financement de l’industrie du numérique elle-même. Car motiver les entreprises à investir dans le numérique c’est bien, mais investir dans les entreprises françaises du numérique c’est encore mieux.

En France, on ne sait pas financer les porteurs de projets
C’est enfoncer des portes ouvertes que réaffirmer que l’industrie high tech française possède de réels atouts. Oui, en France, on a des techniciens, des ingénieurs et des chercheurs compétents (même si beaucoup finissent par partir à l’étranger). Oui, on a des idées, souvent novatrices et à fort potentiel. Oui, on sait faire preuve de dynamisme et faire avancer l’industrie en introduisant des avancées majeures. Mais ne nous voilons pas la face. En France, on a aussi deux cruelles faiblesses, toujours les mêmes. Dans le high tech on ne sait pas ce que marketing veut dire. Et surtout on n’a pas d’argent, ou plus exactement on ne sait pas financer les porteurs de projets. Car le premier problème à résoudre pour l’industrie du numérique en France, c’est le financement. Une seule comparaison suffit pour s’en convaincre. En France, les entreprises achètent deux fois moins de technologies numériques que leurs homologues américaines, un chiffre cité par Hervé Novelli, Secrétaire d’Etat chargé du Commerce, de l’Artisanat, des Petites et Moyennes Entreprises, de Tourisme et des Services et de la Consommation. Mais beaucoup plus inquiétant encore, les entreprises françaises du high tech reçoivent non pas deux, mais dix à vingt fois moins d’investissements que leurs homologues américains. Du coup, le développement de leurs idées, si innovantes soit elles, s’en trouve inexorablement freiné et finit le plus souvent aux mains de sociétés étrangères… Sur ce point, le constat est amer, et aucun progrès ne se profile à l’horizon. Qui sait ? Espérons simplement que le séminaire qui s’annonce amorce une prise de conscience salutaire dans ce domaine… 
Des  » tickets  » encore désespérément faibles
Les banques françaises ne se sont jamais précipitées pour financer le développement de nos entreprises high tech – à part quelques cas de projets compliqués de LBO à rentabilité quasi immédiate – et ce n’est certainement pas aujourd’hui qu’elles commenceront à le faire. Côté capital risque, même si le nombre d’acteurs ne cesse d’augmenter dans ce secteur en France, le montant des  » tickets  » reste encore désespérément faible. Au cours de vingt dernières années, les plus gros montants pour un premier tour d’investissement dans une société n’ont pas dépassé 15 millions d’euros, voire 20 millions, et les projets qui ont bénéficié de ces montants se comptent sur les doigts d’une main. Alors qu’aux Etats-Unis, des premiers tours à 50, 100 voire 150 millions de dollars sont réguliers. Ils viennent de la part d’investisseurs, mais aussi de banques qui prennent le risque de soutenir des entrepreneurs, alors qu’en France il est parfois difficile pour un créateur de trouver même une banque qui veuille bien de son argent ! Alors oui à des tables rondes du numérique, mais n’oublions pas les vrais sujets. A l’instar d’une guerre moderne qui ne peut se gagner que sur le renseignement sur les forces adverses et sur l’approvisionnement en matériel et en carburant, la guerre économique dans le numérique se gagnera avec de l’intelligence industrielle et de l’argent en guise de carburant. Sinon, ne nous étonnons pas de voir de moins en moins d’entrepreneurs et de moins en moins d’entreprises réussir et tenir la dragée haute à leurs concurrents étrangers. Par Jean Michel Laveissière, CEO, Ipercast International

Télétravail : quel kit technologique pour être efficace ?

Le télétravail est déjà une réalité pour de nombreux chefs d’entreprise et d’indépendants. Il le devient de plus en plus pour les profils itinérants tels que les commerciaux ou les acheteurs et pour les collaborateurs des entreprises soucieuses de réduire les temps et coûts de transport. Pour être efficace, le télétravail nécessite une organisation personnelle stricte mais également des outils adaptés en termes de communication informatique et électronique. Un accès Internet grand public s’avère souvent insuffisant. 

Des besoins spécifiques
Les besoins du télétravailleur sont en réalité divers :
  • Communiquer via la messagerie de l’entreprise et accéder à Internet ;
  • Se connecter aux ressources de l’entreprise : annuaire, base clients, intranet…;
  • Accéder à distance à son poste de travail s’il en a un dans l’entreprise ;
  • Téléphoner et être joignable par tous les collaborateurs de l’entreprise ;
  • Faire des réunions en visioconférence lors de présentation par exemple ;
  • Ne pas utiliser les ressources personnelles pour des usages professionnels ;
 Ces besoins sont en général couverts par des offres distinctes sur le marché des Télécoms.En ce qui concerne l’accès à Internet, il s’avère nécessaire d’envisager une connexion, en général ADSL professionnelle, avec, si nécessaire, un accès Wi-Fi. Ce choix conditionne en effet la possibilité de relier le télétravailleur à l’entreprise de manière sécurisée. Le fournisseur d’accès Internet professionnel peut ainsi établir une interconnexion SSL sécurisée au travers d’un réseau privé entre le site du télétravailleur et les sites de l’entreprise. Il pourra également mettre en œuvre une priorisation des flux afin de distinguer l’utilisation de la connexion pour l’accès à Internet et pour la Téléphonie et améliorer ainsi la performance de l’installation du télétravailleur. Ce dernier pourra ainsi en même temps téléphoner et accéder aux données de la société sans lenteur. 

La virtualisation offre de nouvelles opportunités
Concernant le partage des données de l’entreprise, la virtualisation des ressources informatiques de la société offre également de nombreuses avancées au télétravailleur. Ainsi le  » groupware  » permet un travail collaboratif entre les membres d’une entreprise quelle que soit leurs localisations. De chez lui, le télétravailleur accède à la messagerie de l’entreprise, aux agendas partagés mais aussi aux annuaires et peut gérer ses tâches ou partager ses fichiers avec ses collègues sans soucis de sécurité. Par ailleurs, des solutions existent pour accéder directement à distance à son poste de travail, en utilisant la technologie de virtualisation. Une image de votre écran s’affiche alors sur un poste distant. Enfin, en matière de téléphonie, le plus important est de constuire une solution en fonction de son organisation. La téléphonie sur IP permet désormais d’être indépendant de la localisation. En effet, si l’entreprise dispose d’une téléphonie de type Centrex IP, le poste du télétravailleur est géré exactement comme tous les autres postes au sein de l’entreprise ou sur ses sites distants : numéros court et long, partage de l’annuaire, interception des messages, musiques d’attente… et évidemment, gestion par un standard centralisé. D’ailleurs dans certains cas, comme pour les astreintes, on peut même imaginer de déporter le standard de l’entreprise chez le télétravailleur. Mais l’élément le plus appréciable de ce kit est le visiophone qui permet de participer  » en vrai  » aux réunions. Il suffit de deux téléphones visiophone (un dans la société, un chez le télétravailleur) et les échanges deviennent tout de suite plus conviviaux. Par Nicolas Aube, Président de Celeste, fournisseur d’accès haut débit dédié aux professionnels

37,7 millions d’euros pour l’industrie des semi-conducteurs

C’est parti. IMPROVE (Implementing Manufacturing Science Solutions to Increase Equipment Productivity and Fab Performance), le nouveau projet de recherche européen pour l’amélioration de l’efficacité dans l’industrie des semi-conducteurs est sur les rails. Et ceci pendant au moins 36 mois, de fin 2009 à fin 2011.  Doté pour l’ensemble de la période de 37,7 millions d’euros, financés à hauteur de 50 % par les partenaires industriels et scientifiques et pour l’autre moitié par la Commission européenne ainsi que les Etats membres via l’ENIAC (European Nanoelectronics Initiative Advisory Council) dans le cadre du programme  » SP4 Nanoelectronics for Energy & Environment « , son objectif est clair : aider l’industrie européenne des semi-conducteurs à rester compétitive, en améliorant la productivité des process de fabrication, mais aussi en baissant les coûts et les temps de traitement.  En effet, en raison de l’intégration continue de nouvelles fonctionnalités aux puces électroniques, leur process de fabrication devient sans cesse plus complexe. Ce qui induit des temps de production plus long en raison de l’apparition de nouvelles étapes dans le process de fabrication et du temps nécessaire pour conduire de nouveaux développements. Aujourd’hui, selon Infineon, la fabrication d’un circuit intégré avancé inclut en moyenne 550 étapes de procédés, ce qui peut s’étaler sur 12 à 16 semaines. Le lot typique pour un produit donné est de 50 à 100 tranches, avant de changer les réglages des machines pour le lot du produit suivant.  Autant de paramètres qui seront le terrain de recherche d’IMPROVE dont l’objectif est de fournir à l’industrie des méthodes et des outils permettant un meilleur contrôle des procédés et une réduction des temps de production. Dans cet optique, le projet s’articule autour de trois axes de développement :

  • les techniques de mesure virtuelle (Virtual Metrology) pour permettre un contrôle des process de fabrication et gagner du temps en supprimant les techniques de mesure standard ;
  • la maintenance anticipée (Predictive Maintenance) pour améliorer la fiabilité des équipements, et optimiser la fréquence des contrôles de maintenance ;
  • et la planification du contrôle adaptatif (Adaptive Control Planning).
A ce jour, IMPROVE regroupe aussi bien des entreprises informatiques, des sociétés européennes spécialisées dans les semi-conducteurs que des fournisseurs de circuits intégrés. Parmi ceux-ci figure AP Technologies (Allemagne), Atmel (France), Austria Microsystems (Autriche), camLine (Allemagne), CNR-IMM (Italie), Critical Software (Portugal), Infineon Technologies (Allemagne), InReCon (Allemagne), Intel (Irlande), iSyst (Allemagne), LAM (Italie), Lexas Research (Irlande), Numonyx (Italie), PDF Solutions (France), Probayes (France), STMicroelectronics (France), Straatum (Irlande) ou encore Techno Fittings (Italie).  A ces derniers viennent s’ajouter des partenaires académiques et universitaires tels que le CEA LETI (France), l’université de Dublin (Irlande), l’Ecole des Mines de Saint Etienne (France), Fachhochschule Wiener Neustadt (Autriche); Fraunhofer Institute for Integrated Systems and Device Technology (IISB, Allemagne), GSCOP (France), Italian National Council of Research (Italie), LTM CNRS (France), les universités allemandes de Augsburg et de Erlangen-Nuremberg et les universités de Milan, Padoue et Pavie.A-L.B

Des tuiles en verre pour chauffer son habitation

Henrik Bage est manager chez SolTech Energy, une entreprise suédoise qui vient de mettre au point une tuile en verre, qui permet d’accumuler de la chaleur. Au final ,le but est d’économiser de l’énergie de chauffage. Henrik Bage nous explique le principe de fonctionnement de ces tuiles innovantes estampillées « SolTech System ».

Techniques de l’ingénieur : Quels sont les principes de fonctionnement de « SolTech System » et les ajustements à faire pour raccorder ce système au chauffage d’une habitation ?

Henrik Bage : Notre système de tuile permet à un support passif, comme un toit par exemple, de devenir actif et de participer efficacement au système de chauffage global d’un bâtiment. Pour une plus grande efficacité, nous intégrons « SolTech System » au système de chauffage central du bâtiment en question. Se faisant, la chaleur récupérée peut servir à chauffer le bâtiment ou l’eau utilisée.

Est-il possible de quantifier les économies réalisées grâce à l’utilisation du SolTech System, au niveau financier et énergétique ?

En nous basant sur installations déjà effectuées en Suède, nous avons pu en tirer quelques résultats intéressant, mais bien sûr ces résultats ne sont pas transposables en l’état. Quoi qu’il en soit, la mise en place de nos tuiles sur le toit d’une maison de 160 m², habitée par une famille et construite dans les années 60, permettra d’économiser 30 à 40 % de l’énergie nécessaire au chauffage et à l’eau chaude. Financièrement, il est impossible d’estimer l’économie réalisé, mais elle correspond à environ 15.000 kWh/an. A titre d’estimation, on peut penser que sur les 20 prochaines années, le kWh coûtera environ 0,2 €.

Est-ce que ce genre l’utilisation de ce genre d’équipement est restreint par les conditions climatiques, où peut-on imaginer une application à travers toute l’Europe par exemple ?

Chez nous en Suède, les économies réalisées sont substantielles. Ainsi, nous sommes persuadés que notre invention peut être utilisée avec succès dans toute l’Europe du Nord. Si on se fait dans une situation de remise à neuf, où les propriétaires d’une maison doivent refaire le toit entièrement (cette opération a lieu tous les quarante ans pour un toit en général), la pose de notre SolTech System sera amortie en dix années (chiffre vérifié en Suède), et ceci sans la moindre subvention. Cela laisse présager des résultats spectaculaires, pour des régions plus ensoleillées comme la France ou les pays méditerranéens.

Propos recueillis par Pierre Thouverez.

Technologies vertes : levée de fonds record aux Etats-Unis

Une chose est sûre, c’est que la crise financière mondiale, aussi profonde soit elle, ne freine pas totalement les investisseurs. C’est encore plus vrai quand on considère le domaine des technologies vertes dans son ensemble. Pour preuve, la décision du fonds américain de capital-risque Khosla Ventures, l’un des fonds « verts » le plus actif au monde. Khosla Ventures vient de boucler deux fonds d’un montant total de 1,1 milliard de dollars, destinés à être très largement réinvestis dans les cleantechs.Le premier fonds, de 275 millions de dollars, sera consacré au capital d’amorçage dans de très jeunes sociétés, avec des mises de fonds moyennes de l’ordre de 2 millions de dollars. Le second, de 800 millions de dollars, apportera du capital d’expansion à des sociétés plus développées, avec des apports moyens de 5 à 15 millions.

Accompagner le développement des énergies renouvelables
Selon le blog TechCrunch, spécialisé dans l’actualité des nouvelles technologies, il s’agit là de la plus grosse levée de fonds depuis 2007 aux Etats-Unis. Dans un communiqué faisant suite à cette levée de fonds massive, Vinod Koshla, fondateur de Sun Microsystems et instigateur du fonds, l’objectif de cette levée est d’accompagner le développement des énergies renouvelables et des technologies propres, quelles qu’elles soient. Mais ce n’est pas tout. Le fonds d’amorçage prendra des risques sur des projets « là où personne d’autre n’en prendrait », selon Mr Khosla. Une décision audacieuse donc, dans un climat contexte refroidi par la crise, bien que les technologies vertes gardent un pouvoir d’attraction certain auprès des investisseurs. Il est vrai que le premier semestre américain a montré un léger recul au niveau des levées de fonds consacrées aux technologies propres : selon le cabinet de conseil PricewaterhouseCoopers, 513 millions de dollars ont été placés dans 83 entreprises de cleantech au premier semestre 2009, contre 2 milliards dans 139 entreprises pour le premier semestre 2008. Quoi qu’il en soit, et de façon plutôt surprenante, la stratégie audacieuse de Koshla fonctionne à merveille, au-delà des espérances. En effet, le fonds d’amorçage a attiré davantage de demandes que le fonds dédié aux entreprises plus matures.

Une stratégie audacieuse
Ainsi, de très sérieux fonds de pensions, comme CalPERS ou encore le Tennessee Consolidated Retirement System, ont investi de façon conséquente dans les deux fonds Koshla. Au total, ce sont près de 5 partenaires qui se sont manifestés, investissant chacun plus de 100 millions de dollars pour accompagner le développement de technologies innovantes vertes.Koshla adopte donc une stratégie audacieuse, conscient que le financement de projets ne sera pas couronné de succès à chaque fois. Cependant, les sommes à investir ne sont pas colossales pour évaluer l’intérêt d’une nouvelle technologie. D’ailleurs, Koshla, qui ne croît pas aux voitures électriques, va à contre courant, puisqu’il investit massivement depuis quelques années dans le développement de différents biocarburants.

Source :
TechCrunch

Agroforesterie et agriculture durable : un fort potentiel pour le stockage du CO2

Selon la définition donnée par le World Agroforestry Centre, l’agroforesterie est « un système dynamique de gestion des ressources naturelles reposant sur des fondement sécologiques qui intègre des arbres dans les exploitations agricoles et le paysage rural, et permet ainsi de diversifier et de maintenir la production afin d’améliorer les conditions sociales, économiques et environnementales de l’ensemble des utilisateurs de la terre ».
Le secteur agricole représente aujourd’hui « l’option la plus importante de stockage du CO2 si de meilleures pratiques de gouvernances sont adoptées », selon un rapport du PNUE (Programme des Nations Unies pour l’environnement) publié en juin. Six gigatonnes équivalentes de CO2 ou 2 Gt de CO2 pourraient être capturées et stockées chaque année d’ici 2030. D’après le rapport, cela correspond aux émissions actuelles dans l’agriculture.
Travailler à cet objectif est d’autant plus prometteur que beaucoup de ces pratiques agricoles « vertes » peuvent être appliquées à peu de frais. De plus, 70 % de ce potentiel est réalisable dans les pays en développement, toujours selon le PNUE.

Réduire la demande d’engrais commercial

« Si elle était appliquée dans les cinquante prochaines années, l’agroforesterie pourrait permettre de supprimer 50 milliards de tonnes de CO2 dans l’atmosphère, soit près d’un tiers des objectifs de réduction des émissions dans le monde », a déclaré Dennis Garrity, directeur général du World Agroforestry Centre et co-président du Congress Global Organizing Committee, dans un communiqué de presse du PNUE.
Une étude réalisée par les chercheurs du World Agroforestry Centre sur les fertilisants pour arbres qui capturent le nitrogène dans l’air et le transfèrent dans le sol, montre que leur utilisation peut réduire la demande d’engrais commercial à base de nitrogène de 75 % tout en doublant ou en triplant la surface des champs cultivés. « Ces résultats devraient rendre l’agroforesterie attractive aux yeux des fermiers », note Garrity.
Mais l’incapacité d’obtenir des mesures fiables, de superviser, anticiper et vérifier la quantité de CO2 capturée et stockée par les fermiers constitue un obstacle majeur.
En mai, le PNUE, le World Agroforestry Centre et le General Environment Facility de l’ONU dirigé par la Banque Mondiale ont lancé le projet dit « Carbon Benefits Project » pour combler ce manque en croisant différentes données (teneur en CO2 des sols obtenues par télédétection, mesures souterraines et statistiques).

Sur la route de Copenhague

Le sous-secrétaire général des Nations Unies et directeur exécutif du PNUE, Achim Steiner, a mis l’accent sur la nécessité d’adopter une approche naturelle et humaine tout en vantant les mérites de pratiques agricoles durables en ce qui concerne la nourriture, l’énergie, la sécurité de l’emploi ainsi que la pauvreté et la préservation de la biodiversité.
Steiner a également pressé les responsables politiques d’adopter de telles mesures dans chaque accord sur le changement climatique qui suivra le protocole de Kyoto. L’enjeu est crucial au regard de l’urgence d’aboutir à un accord global sur le climat à Copenhague en décembre prochain : « l’avenir de l’agriculture et du mode de vie des fermiers est en jeu.
Les nations doivent s’entendre sur la réduction des émissions issues de la déforestation et de la dégradation des forêts (REDD). Un tel accord ouvrira la voie à la préservation des forêts et autres écosystèmes et réduira les inégalités dans la demande mondiale de bois durable en déplaçant la production de la forêt à la ferme. L’agriculture sera soit une partie du problème soit une partie importante de la solution. »
 

Sources :

Andrew Burger a étudié la géologie à l’Université du Colorado et possède un MBA en finance. Il travaille aujourd’hui pour une importante banque japonaise et collabore au blog Global Warming is Real.

L’Europe investit 18 millions d’euros dans la LTE Advanced

L’été aura été fructueux pour la dernière née des technologies sans fil, la LTE (Long term Evolution). A compter du 1er janvier 2010, l’Union européenne investira 18 millions d’euros dans les travaux de recherche qui serviront de base aux futurs réseaux mobiles 4G. Objectif : atteindre rapidement des débits suffisants (100 mégabits par seconde en lien descendant et 50 mégabits par seconde en lien ascendant) pour assurer le fonctionnent optimal et à moindre coût de l’Internet mobile et permettre à l’Europe, via la recherche  » de continuer à exercer une influence déterminante sur le développement des services et appareils mobiles dans le monde entier, comme cela a été le cas avec la norme GSM au cours des dernières décennies « , pour reprendre les termes de Viviane Reding, membre de la Commission chargée des télécommunications et des médias.  Ces 18 millions d’euros viendront s’ajouter aux quelques 25 millions d’euros déjà versés, entre 2004 et 2007, par l’Union européenne pour financer des travaux de recherche sur l’optimisation et la normalisation de la LTE. Les projets Winner I et Winner II, exécutés par un consortium de 41 sociétés et universités européennes entre 2004 et 2007, ont d’ailleurs abouti à l’élaboration d’un premier concept d’infrastructure de réseau. Concept aujourd’hui devenu réalité puisque la LTE est actuellement testée par des opérateurs européens en Finlande, en Allemagne, en Norvège, en Suède, en Espagne, en France et au Royaume-Uni et devrait être disponible pour un usage commercial en Suède et en Norvège au premier semestre 2010.  A présent, il s’agit d’aller plus loin en finançant la recherche sur une version améliorée de la LTE, LTE Advanced. Objectif : atteindre un débit de 1 gigabit par seconde afin d’assurer le développement de services avancés de l’Internet mobile tels que la vidéo à la demande ou la télévision. D’ici là, rendez-vous est pris en septembre, date à laquelle la Commission commencera à négocier avec les consortiums de projets réunissant des entreprises du secteur 4G et des chercheurs de toutes origines.  RepèresDans l’ensemble, entre 2007 et 2013, l’Union européenne va investir plus de 700 millions d’euros dans la recherche et les futur réseaux, la moitié de cette somme étant allouée à des technologies sans fil qui contribueront au développement des réseaux 4G.Pour en savoir plus sur les travaux de recherche sur les réseaux et la LTE : http://cordis.europa.eu/fp7/ict/future-networks/ 

L’IFP teste sa technologie de captage post-combustion du CO2 en Italie

C’est sur une centrale thermique à charbon que va être testé, à l’échelle industrielle, la technologie de captage post-combustion du CO2 développée par l’IFP (Institut Français du Pétrole). Située dans le sud de l’Italie, à Brindsi, cette centrale thermique est pour l’instant exploitée par l’énergéticien italien Enel.Pour l’IFP, cette collaboration sera l’occasion, pour la première fois, de déployer son procédé de captage avec un industriel à un stade de pré-industrialisation. A l’heure actuelle, les problématiques de captage et de stockage du CO2 sont un enjeu de recherche majeur, et de nombreux instituts industriels et de recherche mènent des projets sur ces technologies.Ainsi, Alstom, en collaboration avec un groupe norvégien, teste actuellement une technologie de captage du CO2 sur une centrale électrique au gaz, en Norvège. De nombreux fournisseurs d’énergie développent également des collaborations à travers toute l’Europe, malgré le coût encore très élevé de ces technologies. Un prix qui devrait d’ailleurs, selon une étude du cabinet McKinsey, baisser et devenir compétitif économiquement aux alentours de 2030.

Mise en route prévue pour 2010
En ce qui concerne le projet mené de front par l’IFP et Enel, la technologie développée est le captage par post-combustion. L’entreprise italienne est actuellement en train de construire un centre pilote de captage du CO2 de 2,25 tonnes/h, ce qui permettra de traiter une partie de flux de Brindsi. Prévu pour être mis en route en 2010, le procédé innovant de l’IFP sera ainsi expérimenté in situ et comparé à d’autres technologies, pour avoir le plus d’informations possibles sur son efficacité. Aujourd’hui, le captage par post-combustion, à l’aide de solvant, a déjà été testé au Danemark, dans le cadre du projet européen CASTOR. Des difficultés subsistent, comme les coûts, très élevés, et la teneur en ammoniac des fumées, très élevée.Le captage en postcombustion consiste à séparer le CO2 des autres constituants des fumées (vapeur d’eau, azote…). Dans ce domaine, l’IFP travaille principalement sur les procédés de captage par solvant chimique, qui ont un fort potentiel de réduction des coûts et peuvent être implantés sur des centrales existantes, pour autant que leur rendement initial (sans captage) soit suffisamment élevé, de l’ordre de 45 %.

La nécessité de réduire les coûts
L’IFP croit beaucoup à cette technologie, mais pas seulement elle. En effet, outre le captage post-combustion, d’autres technologies sont développées par l’IFP pour capter et stocker le CO2 :
  • Captage par oxycombustion
  • Combustion en boucle chimique
  • Cogénération à partir de biomasse
  • Transport et injection du CO2
De plus, l’IFP est également impliquée dans la réalisation de l’unité de stockage qui va être mise en route dans quelques jours à Lacq dans les Pyrénées-Atlantiques. Preuve que ces technologies de captage intéressent les industriels et les chercheurs, L’IFP collabore sur ce projet avec Total, BRGM et Air Liquide. Qu’est-ce que le captage par post-combustion ?Cette voie technologique repose sur l’adaptation des procédés déjà développés par l’IFP pour la désacidification du gaz naturel, et c’est ce type de captage qui a été étudié par le projet européen Castor, piloté par l’IFP et retenu par la Commission européenne comme l’une des six success stories du sixième Programme cadre de recherche et développement (6ème PCRD). Fort de son acquis, l’IFP a développé un procédé optimisé de captage par amine qui utilise en particulier des additifs antidégradation du solvant très efficaces.Une deuxième voie de recherche est explorée, qui vise à identifier de nouveaux solvants nécessitant moins d’énergie de régénération, tout en étant économiques à produire et compatibles avec les contraintes environnementales.Enfin, l’IFP travaille sur des procédés de rupture destinés à diminuer très significativement le coût du captage, comme les amines démixantes, procédé qui fait l’objet d’un brevet. La démixtion contrôlée permet de n’envoyer au régénérateur que l’amine qui a réagi, réduisant ainsi fortement l’énergie nécessaire à sa régénération par chauffage. En outre, cette amine se trouve, après séparation, en dehors de la zone d’équilibre thermodynamique et libère de ce fait une partie du CO2 qu’elle a capté. Cet effet naturel réduit encore la quantité de chaleur nécessaire à la régénération. 

Les imposteurs de la deuxième génération de biocarburants

Les imposteurs de la prochaine génération de biocarburants sont les sociétés ou les groupes qui promettent monts et merveilles de leur technologie malgré les obstacles considérables (et souvent méconnus) liés à sa commercialisation.Voici quelques exemples :L’hydrogène : ses partisans ferment les yeux sur les réalités pratiques, à savoir le coût d’une voiture à piles à combustible (estimé à un million de dollars). Le fait que la majeure partie de l’hydrogène est produit à partir de gaz naturel, la faible densité énergétique de l’hydrogène par rapport à l’essence, les problèmes liés à son stockage et à son transport… Ils comptent en effet sur le progrès technologique pour pallier à ces problèmes.Mais les chances de succès diminuent rapidement alors que le nombre d’avancées technologiques requises ne cesse d’augmenter. Imaginons que les coûts de production, de stockage et de transport ont respectivement 25 % de chance de devenir économiquement viables au cours des 20 prochaines années. La probabilité de réussite pour l’ensemble tombe alors à 1,5 %. Dans ces conditions, la grande majorité des technologies nécessitant encore de multiples avancées ne sera pas commercialisée, ou alors dans beaucoup plus longtemps.L’éthanol de cellulose : cet exemple est similaire. La raison fondamentale pour laquelle l’éthanol de cellulose ne remplacera pas l’essence est sa faible efficacité énergétique. La cellulose est décomposée en sucres qui fermentent avec de la levure avant distillation. Le processus pour éliminer l’eau consomme beaucoup d’énergie. Même si celle-ci est fournie par les produits secondaires comme la lignine, la quantité de carburant liquide obtenue à l’issue du processus est plus faible que les quantités de départ.Prenez 10 BTU de biomasse (1 BTU est la quantité de chaleur nécessaire pour accroître la température d’un degré Fahrenheit par unité de masse de 1 livre d’eau, soit une masse de 0,4535924 kg). Son transport et sa transformation consomment de l’énergie. Aussi brûle-t-on une partie de la biomasse pour fournir l’énergie nécessaire au processus. On obtient alors environ 3 BTU de carburant liquide à partir des 10 BTU de biomasse initiaux.La situation du schiste bitumineux est analogue. C’est pourquoi j’ai pu comparer les deux dans un précédent article. Il peut bien y avoir un trillion ou plus de barils de schiste bitumineux dans le Colorado, l’Utah et le Wyoming. Mais si l’extraction de ces barils consomme l’équivalent d’un trillion de barils en énergie et des quantités considérables d’eau, alors ce schiste bitumineux pourrait tout aussi bien se trouver sur la lune. Cela signifie qu’un trillion de barils ne représente pas vraiment un trillion de barils et que dans le cas du schiste bitumineux, un milliard de tonnes de biomasse est moindre qu’il n’y parait lorsqu’il s’agit d’éthanol de cellulose.Le biocarburant algal : comme beaucoup, je me suis enthousiasmé à l’idée de débarrasser le monde des carburants fossiles en utilisant du carburant produit à partir d’algues. Malheureusement, l’histoire est plus complexe que cela. Le Département Américain de l’Energie a financé pendant plusieurs années une étude sur le potentiel des algues comme carburant. Le problème vient une fois de plus de la nécessité de surmonter de multiples obstacles techniques, comme le souligne le rapport. Alors qu’il est prouvé que l’on peut produire du carburant à partir d’algues, John Benneman, l’un des co-auteurs du rapport, écrit qu’il est même impensable de pouvoir acheter du biocarburant algal à $100/gallon. Pour distinguer la réalité du battage publicitaire, il nous met au défi d’arriver à trouver quiconque qui accepte de signer un contrat d’approvisionnement en biocarburant algal.La première génération de biodiésel : cet article traite en priorité de la deuxième génération de biocarburants et je ne vais pas rentrer dans le sujet de l’éthanol de maïs. Mais je voudrais dire un mot du biodiésel. En bref, il s’agit de transformer de l’huile végétale ou de la graisse animale par un procédé de transestérification en la faisant réagir avec du méthanol (principalement dérivé d’énergies fossiles).La production de la plupart des huiles utilisées comme matière première demande beaucoup d’efforts (énergie, coût). Il faut ensuite les faire réagir avec du méthanol qui consomme une quantité importante d’énergie fossile. Jusqu’à aujourd’hui, les producteurs de biodiésel ont bénéficié de mesures protectionnistes (allant jusqu’à pénaliser la seconde génération de producteurs pourtant plus efficace). Mais même avec le protectionnisme et les subventions, les producteurs luttent encore pour survivre.En brefPour résumer, les imposteurs des biocarburants tombent dans plusieurs catégories. Les principales sont :

  • L’hydrogène
  • La plupart des futurs producteurs d’éthanol de cellulose
  • La plupart des futurs producteurs de biocarburant algal
  • La plupart des producteurs de biodiésel de première génération
Je ne veux pas dire par là qu’aucune de ces technologies n’aboutira jamais mais je suis persuadé qu’aucune n’est une solution viable à notre dépendance aux énergies fossiles. Le problème est que les dirigeants politiques ont été ou sont toujours convaincus du grand potentiel de certaines et que nous gaspillons des milliards pour des chimères. Source : R-Squared Energy BlogRobert Rapier a voué sa carrière à l’énergie. Il a travaillé sur l’éthanol de cellulose, la production de butanol, le raffinage du pétrole, la production de gaz naturel et le GTL. Il était auparavant directeur ingénierie chez Accsys Technologies et se trouve actuellement à Hawaii où il participe à la création d’une société sur la bioénergie.

Lancement d’un projet sur la sécurité des robots assistants

http://www.bulletins-electroniques.com/actualites/60285.htm

La NEDO (Organisation pour le Développement des Energies Nouvelles et des Technologies Industrielles) a débuté le 3 août un « Projet de mise en oeuvre des robots assistants ». Ce projet se décline en cinq volets. L’objectif du premier est d’effectuer de la R&D sur les méthodes de vérification de la sécurité de ce type de robots, d’établir des normes de sécurité et, à terme, de proposer ces normes au reste du monde, le but final étant de lancer les robots japonais sur le marché international. Les quatres autres volets concernent le développement en parallèle de quatre types de robots :

  • des robot favorisant l’autonomie des personnes âgées et des handicapés (Panasonic) ;
  • des robots capables de se déplacer seuls dans les espaces publics : applications à la vie quotidienne (Fuji Heavy Industry) et à la surveillance (Alsok, Hokuyo, Mitsubishi Electric Tokki System Corporation) ;
  • un vêtement robot « HAL », prodigant une assistance musculaire (CYBERDYNE, Université de Tsukuba) ;
  • un véhicule robot à l’aide duquel un utilisateur handicapé peut se déplacer (Toyota Motor, National Center for Geriatrics and gerontology, Four Link Systems).

Les résultats intermédiaires des processus de développement de robots viendront nourrir l’avancement du projet sur les normes de sécurité, et inversement.

Le projet doit durer cinq ans, de 2009 à 2013, sous la direction de M. Hirohisa Hirukawa, directeur du « Intelligent Systems Research Institute » de l’AIST (National Institute of Adanced Industrial Science and Technology), en collaboration avec le Centre de recherche sur la sécurité des robots, qui sera mis en place au sein de l’AIST dans le cadre du budget supplémentaire de 2009 [1]. Le budget pour la première année (2009) est de 1,6 milliard de yen (près de 12 millions d’euros).

Pour ens avoir plus :
[1] « Un centre de recherche sur la sécurité des robots assistants » – BE Japon numéro 501 (18/05/2009) – UEHARA Kumiko – Ambassade de France au Japon / ADIT – http://www.bulletins-electroniques.com/actualites/59111.htm

Source :
Nikkan Kogyo – 04/08/2009 ;
Site web NEDO – 03/08/2009 ;
Site web AIST – 03/08/2009 ;

Rédacteur :
Kumiko UEHARA – interprete(point)sst(arobase)ambafrance(tiret)jp(point)org ;
Jean-Baptiste Bourdin adjoint(point)sdv(arobase)ambafrance(tiret)jp(point)org 511-STIC-2487;

Origine :
BE Japon numéro 511 (28/08/2009) – Ambassade de France au Japon / ADIT – http://www.bulletins-electroniques.com/actualites/60285.htm

Nissan présente une voiture électrique rechargeable sans contact

Nissan a dévoilé fin juillet 2009 son nouveau système pour recharger sans contact des batteries de voitures électriques lorsque celles-ci sont en stationnement dans des parkings spécialement aménagés. Le modèle de démonstration était une Hypermini électrique. Le système a été développé en collaboration avec la société Showa Aircraft Industry Co Ltd.

Le principe, simple, utilise l’induction électromagnétique entre deux bobines. La circulation d’un courant dans la bobine émettrice crée un champ magnétique qui induit un courant dans la bobine réceptrice située sous le châssis de la voiture. Le modèle présenté a une puissance de 10 kW mais la compagnie prévoit de développer un modèle de 3 kW pour les particuliers. Nissan annonce une commercialisation du système en 2010. Vous trouverez un schéma en anglais du dispositif à l’adresse suivante.
A l’avenir, la compagnie espère développer un système qui fonctionne avec un haut rendement même en cas de décalage des deux bobines l’une par rapport à l’autre dans un plan horizontal. La marge d’erreur d’alignement tolérable serait de 10 cm.

Des autoroutes dédiées aux voitures électriques ?

Nissan envisage la création de voies d’autoroutes dédiées aux voitures électriques, équipées de plaques situées sous le revêtement, permettant aux conducteurs de recharger leur véhicule tout en continuant de rouler.

Le développement d’un tel projet nécessite d’embarquer des batteries qui puissent être rechargées très rapidement. La solution pourrait venir des super condensateurs. La compagnie semble d’ailleurs s’intéresser à ceux fournis par la société ukrainienne APowerCap.
Pour rappel, la NEDO [1] avait présenté début 2009 un autre projet de recharge sans contact de voiture électrique [2]. Sons système utilisait un magnétron pour envoyer des micro-ondes (2,45 GHz) au véhicule, qui étaient ensuite reconverties en énergie électriques.
[1] NEDO (Organisation pour le Développement des Energies Nouvelles et des Technologies Industrielles) : agence gouvernementale de financement de la recherche.

 

Source :

http://www.bulletins-electroniques.com/actualites/60287.htm

La révolution nanocarbone pointe le nez dans la radioélectronique

http://www.bulletins-electroniques.com/actualites/60202.htmLes études menées à la Faculté de physique de l’Université d’Etat de Moscou (MGOu) permettent d’avancer que les lampes radio, tubes de télévision et autres types d’instruments qui semblaient être relégués aux oubliettes pourraient bien revenir en force, car ils pourraient s’avérer plus efficaces que les semi-conducteurs solides.Le principe de fonctionnement d’une lampe radio consiste à diriger un flux d’électrons, qui passe entre les électrodes d’une lampe. Pendant longtemps, la science et la technique ont utilisé, pour créer ces faisceaux d’électrons, ce que l’on appelle des cathodes « chaudes », qui envoyaient des électrons après les avoir portés à une température très élevée. Pour les chauffer ainsi, on dépensait une quantité d’énergie assez importante. Puis, le rendement des lampes radio s’est avéré nettement inférieur à celui des semi-conducteurs. Mais, en dépit de tout le progrès que représentent les matériaux semi-conducteurs, la bonne vieille lampe radio, malgré tous ses défauts, est toujours utilisée en radioélectronique.L’utilisation des matériaux en nanocarbone comme source d’électrons permet d’obtenir un flux d’électrons sans chauffage, autrement dit à la température ambiante. Il en résulte que les appareils électroniques sous vide qui peuvent être construits avec de telles cathodes, voient immédiatement leur taille réduite et peuvent être un peu plus économiques que les transistors habituels. Cela permet de créer un tube de télévision de forme plate, un peu comme les écrans plats à cristaux liquides largement répandus aujourd’hui. Et les appareils d’éclairage construits selon ce principe sont plus économiques que les lampes lumière du jour que chacun connaît. De plus, ces nouvelles ampoules ne contiennent pas de mercure. Pour en savoir plus : Victor Sadovnitchy, Recteur de la Faculté de physique de l’Université d’Etat de Moscou Contact : (MGOu) – Tel: +7 495 939 10 00, Fax: +7 495 939 01 26 – Site web: http://www.msu.ru – E-mail: [email protected]Source : strf.ru – 08/07/09Rédacteur : Nicolas QuenezOrigine : BE Russie numéro 23 (25/08/2009) – Ambassade de France en Russie / ADIT – http://www.bulletins-electroniques.com/actualites/60202.htm