Ouverture à Craiova du premier laboratoire pour la mesure des radiations émises par les téléphones portables

http://www.bulletins-electroniques.com/actualites/60986.htmLe premier laboratoire de Roumanie de mesure des radiations produites par les téléphones portables a été ouvert à Craiova. Dans l’Institut National de Recherche, Développement et Essais pour l’Electrotechnique (ICMET), toute personne peut se renseigner auprès de ce laboratoire pour savoir si l’utilisation quotidienne de ces appareils est nuisible, et quels pourraient être les effets de leur utilisation à long terme.Ce laboratoire a été conçu entre 2007 et 2009 comme une partie du projet SAREMF, financé par l’Autorité Nationale pour la Recherche Scientifique (ANCS).  » C’est un laboratoire indépendant qui appartient à un organisme de l’état et qui n’a pas d’accords avec les distributeurs ou les producteurs des téléphones portables « , a déclaré l’ingénieur Andrei Marinescu. 
Appareil de mesure des radiations SAR
Les spécialistes de Craiova vont collaborer avec l’Autorité Nationale pour l’Administration et la Réglementation dans les Communications (ANCOM). Et lorsqu’il y aura des doutes concernant le niveau du taux spécifique d’absorption des radiations électromagnétiques (SAR) de certains appareils, ceux-ci seront essayés dans le laboratoire. Plus précisément les études suivantes seront réalisées :
  • l’évaluation et la validation de la conformité aux normes européennes et internationales en vigueur des produits vendus ;
  • la réalisation d’études et d’essais comparatifs de niveau international (y compris la participation aux schémas d’intercomparaison) ;
  • la création des conditions de participation de la communauté scientifique roumaine au développement des systèmes de communications modernes à taux de pollution électromagnétique réduit dans le cadre de projets européens.
Il y aura enfin en Roumanie la possibilité de mesurer la valeur SAR indépendamment des données des constructeurs. Si dans un pays de l’Union européenne des analyses montrent qu’un type de téléphone portable n’est pas conforme aux normes européennes, les résultats seront communiqués aux autres pays où les essais seront refaits. Si les résultats sont les mêmes, des mesures seront prises pour retirer du marché ces portables. Pour en savoir plus : Institut National de Recherche, Développement et Essais pour l’Electrotechnique (ICMET)Source : http://www.HotNews.roRédacteurs : Mlle Adriana STOENESCU – Assistante et Traductrice, Coopération Scientifique, [email protected]M. Antoine CHOUINARD – Chargé de mission, Coopération scientifique, [email protected]M. Michel FARINE – Attaché de Coopération Scientifique et Universitaire, [email protected]Origine : BE Roumanie numéro 6 (29/10/2009) – Ambassade de France en Roumanie / ADIT – http://www.bulletins-electroniques.com/actualites/60986.htmImage : bulletins-electroniques.com/actualites/60986. Crédit : Andrei Marinescu

Pollutec : quels seront les temps forts de l’édition 2009 ?

Dans un peu moins d’un mois désormais, le salon Pollutec Horizons ouvrira ses portes à Paris. L’occasion pour les organisateurs de dessiner, avec plus de précision, les contours et les grandes tendances de cette édition.A commencer par les chiffres. Malgré la conjoncture difficile, marquée par une forte contraction industrielle depuis septembre 2008, le salon affiche des chiffres similaires à ceux de l’édition 2007 (l’édition 2008 s’étant déroulée à Lyon). Au total, il s’étendra sur 43.860 m² et accueillera 1.347 exposants, dont, chose nouvelle, une part croissante d’étrangers (30 % au total soit 5 points de plus qu’en 2007).  » Notre objectif est de proposer aux visiteurs une offre diversifiée, tant au niveau des technologies que des origines des exposants, commente Sylvie Fourn, commissaire générale de Pollutec Horizons. Car aujourd’hui, l’apport international est indispensable, en particulier sur les problématiques énergétiques.  » A signaler également, la forte présence des régions françaises (+ 2 % par rapport à 2007) dont l’Ile de France, la Haute Normandie, la Réunion et la Champagne-Ardenne, qui aujourd’hui jouent un rôle crucial en matière de soutien aux éco-acteurs.Côté tendances sectorielles, tout comme l’édition 2008, le traitement des pollutions représente un axe majeur de Pollutec Horizons 2009. Avec des angles innovants toutefois. Le traitement de l’air se focalise sur la problématique de la qualité de l’air intérieur et fait la part belle à la photocatalyse. Le traitement de l’eau, lui, met en avant les technologies biologiques. Dans ce cadre, il y aura d’ailleurs un village dédié aux biotechnologies auquel s’ajoutera un parcours identifiant très clairement tous les exposants utilisant des biotechnologies. De la même manière, le salon fera un éclairage spécifique sur les membranes et les fluides supercritiques qui permettent de traiter les pollutions sans utiliser de solvants nocifs ou de produits chimiques. Côté sites et sols pollués, ce sont les problématiques de reconquête des friches urbaines et de bioremédiation qui constituent cette année le fil rouge de ce segment. Quant aux déchets, il sera fortement question de leur valorisation énergétique aussi bien par la biomasse que par le biogaz. Autre secteur en très forte croissance cette année (+ 22 % d’exposants par rapport à 2007), le segment de l’énergie. Une thématique très vaste puisqu’elle recouvre quatre problématiques : l’efficacité énergétique, le contrôle des émissions de gaz à effet de serre, les énergies renouvelables et la mobilité durable. Ce dernier thème, inscrit dans le plan climat, bénéficiera d’un village dédié. Organisé par le pôle francilien Advancity, son objectif est de mettre en avant les solutions existantes permettant d’optimiser le transport des hommes et des marchandises tout en étant plus économes, moins polluantes et plus responsables. Une problématique qui va des solutions de maintenance des rails utilisés par les transports collectifs, en passant par les nouvelles formes de transport, jusqu’aux solutions de logistique urbaine (transport des hommes et des marchandises) et d’outils d’aide à la mobilité (GPS, flux d’information, etc.) Pour en savoir plusPollutec Horizons se déroulera du 1 au 4 décembre 2009 sur le site de Paris-Nord Villepinte. Pour plus d’informations, consultez le site pollutec.comA cette occasion, un numéro spécial d’Instantanés Techniques, édité par les Editions Techniques de l’Ingénieur, sera publié fin novembre 2009 et sera consacré aux techniques de dépollution.Enfin, sur la problématique de la Chimie verte, les Editions Techniques de l’Ingénieur propose en novembre 2009 un cycle complet sur la chimie industrielle et durable (voir les conférences). Parmi les thématiques abordées :– Etablir le bilan développement durable de ses produits – procédés– Bâtir une stratégie de développement durable– Bio plastiques– Les COV– Gaz à effet de serre A.L B

Le SaaS s’invite aussi sur le terrain de la téléphonie

Véritable révolution technologique, le SaaS continue sa croissance dans de nouveaux domaines et se positionne désormais comme un nouvel axe de développement pour les professionnels de la téléphonie. Oui mais voilà, en quoi le SaaS et la téléphonie peuvent-ils se rejoindre ?Premier élément de réponse. Il convient tout d’abord de ne pas oublier que la téléphonie est désormais un pan à part entière du système d’information et se positionne comme une composante informatique majeure, notamment avec les technologies de téléphonie sur IP. Nous sommes bien loin des schémas de télécommunications historiques. De plus, en cohérence avec l’évolution des autres applicatifs, la téléphonie est aujourd’hui intégrée à d’autres technologies. Les exemples ne manquent pas : CRM, outils de gestion… En ce sens, la téléphonie est considérée comme un applicatif et peut être intégrée dans une approche SaaS.Des éléments organisationnels viennent également expliquer l’essor de la téléphonie en mode SaaS. N’oublions pas que la téléphonie est un poste stratégique dans le développement de l’entreprise et souvent le premier achat réalisé. Il faut pouvoir communiquer rapidement avec ses clients et partenaires. Imaginons un responsable commercial sans téléphonie… impensable. De plus, l’accès à la téléphonie doit être immédiat pour tous les collaborateurs. Ce constat est encore plus évident pour les entreprises justifiant d’un positionnement multisites ou travaillant avec un groupe de collaborateurs temporaires pour répondre à leur pic d’activité…Dans ces différents cas, le pilotage sur-mesure des coûts des accès de télécommunication est un élément stratégique. Il est fondamental de pouvoir ajouter et supprimer des lignes en temps réel et en fonction des besoins. Or aujourd’hui, au même titre que d’autres applicatifs, il est possible de mettre en place de la téléphonie en mode SaaS depuis une simple interface Web. Il s’agit bien entendu d’associer performances et flexibilité. L’idée est de consommer la téléphonie selon ses besoins, de ne pas avoir à attendre pour déployer de nouveaux postes et de piloter ses coûts télécoms au plus près. Plus qu’un simple concept ou une tendance à moyen terme, ce constat est d’ores et déjà opérationnel. Différents déploiements ont déjà été réalisés sur le terrain (centres d’appels et PME).Cette approche en mode SaaS de la téléphonie devrait donc continuer à se positionner comme un nouveau standard sur le marché. En cette période où les entreprises recherchent des solutions rationnelles, économiques et professionnelles, la téléphonie en mode SaaS apparaît comme une approche pertinente. Son approche sur-mesure explique son succès dans les grandes entreprises mais également au sein des PME qui peuvent ajuster en temps réel leurs infrastructures en fonction de leurs besoins.Par Marc Benoist, président de VOIP Télécom

Green IT : la norme Energy Star plus sévère avec les écrans

La norme Energy Star qui s’applique aux ordinateurs, photocopieurs, imprimantes et serveurs (lire Green IT : la norme Energy star de plus en plus exigeante) augmente de nouveau ses exigences. De nouveaux critères, beaucoup plus ambitieux que les précédents, ont été adoptés par la Commission européenne et l’Agence de protection de l’environnement américaine (US Environnemental Protection Agency, EPA) jeudi 29 octobre 2009. Cette fois-ci, ces nouvelles spécifications techniques concernent la consommation d’énergie des dispositifs d’affichage et notamment, des moniteurs. Effectifs dès aujourd’hui, ces nouveaux critères qui sont définis par la norme « displays 5.0 » devraient permettre d’économiser dans les cinq ans à venir, 9TWh dans la seule UE, soit l’équivalent de la consommation annuelle des ménages de Bulgarie. Ce chiffre se base sur les projections d’achat de matériels pour les trois années à venir et tient compte du cycle de vie de ce type d’équipement, soit quatre à cinq ans.Cette norme, en perpétuelle évolution, devrait être d’ailleurs prochainement amendée pour revoir à la baisse la consommation d’énergie d’autres catégories d’équipements de bureau. En juillet dernier, les experts européens et américains s’étaient penchés sur la consommation électrique des ordinateurs, photocopieurs et imprimantes, tandis qu’en mai 2009, ils avaient planché sur le cas des serveurs. Pour en savoir plusLe site européen Energy StarLe site de l’EPA A.L B

Retour sur le Forum rencontre : avancer malgré la crise

Les 14 et 15 octobre derniers se déroulait le trentième « Forum Rencontre », au sein de l’École Centrale de Lille. L’occasion pour les étudiants des grandes écoles d’ingénieurs et de commerce du Nord de la France de rencontrer les recruteurs, pour nouer les premiers liens de potentielles collaborations futures. Cette année, ce sont pas moins de 75 entreprises qui se sont déplacées sur le salon : Vinci, Altran, Areva, L’Oréal… avec des opportunités professionnelles de toutes sortes.

Présidente du Forum Rencontre, Mathilde Pinard est très satisfaite du déroulement de ces deux jours : « Près de 2.000 étudiants se sont déplacés sur le salon, pour échanger aves les représentants RH de 75 entreprises. Évidemment, avec la crise, les entreprises présentes sur le salon sont moins nombreuses que d’habitude. Mais les entreprises de secteurs comme l’informatique, les SS2I, le bâtiment sont bien présentes, avec des opportunités réelles en termes d’emploi ». Mathilde Pinard nous éclaire également sur une tendance assez récente chez les recruteurs, liée au contexte, aujourd’hui moins favorable pour les candidats au recrutement : « il est certain qu’il est plus difficile de trouver un emploi aujourd’hui que l’année dernière, mais des opportunités plus variées sont proposées. Ainsi, les recruteurs ont beaucoup d’offres de stage, et les offres de VIE, qui permettent aux étudiants d’élargir leurs compétences à l’international, sont de plus en plus nombreuses ».

La crise mobilise les étudiants

Des étudiants nombreux donc, qui saisissent la chance qui leur est donnée de rencontrer et de s’entretenir, CV à la main, avec les recruteurs des plus grandes entreprises.

Du côté des recruteurs également, le salon est l’occasion de rencontrer des étudiants aux profils très variés, venus en nombre cette année. Christophe Caux, directeur de pôle pour l’entreprise Apside : « les ingénieurs que l’on trouve ici sont plutôt polyvalents, ils ont une ouverture d’esprit que l’on ne retrouve pas chez les étudiants d’écoles plus spécialisées ». Des profils intéressants donc, mais pour quels types de postes ? « Nous cherchons essentiellement des ingénieurs bac+5, ou des ingénieurs en stage de fin d’étude, pour leurs proposer des stages de pré-embauche. Cela nous permet également de former les étudiants à nos technologies ». Christophe Caux, qui vient au Forum depuis 21 ans, souligne l’évolution de la fréquentation cette année : « les entretiens avec les étudiants sont très instructifs. L’année dernière, nous avions vu peu d’étudiants. Aujourd’hui, avec la crise, ces derniers se déplacent beaucoup plus nombreux. »

Chez le leader français du BTP, Vinci Construction, on fréquente aussi assidument ce genre de rendez-vous : « nous nous rendons sur tous les salons qui accueillent les élèves ingénieurs… nous rencontrons près de 10.000 étudiants chaque année par ce biais, nous explique la représentante de Vinci sur le Forum. Aujourd’hui, nous avons besoins de plus en plus d’ingénieurs travaux, méthodes, études… mais nous recrutons également des ingénieurs commerciaux. Les stages sont très importants pour nous, que ce soit en première, deuxième ou troisième année. Nos métiers nécessitent des emplois stables : 50 % des stagiaires de troisième année se voient proposer des contrats à durée indéterminée. Aussi, les CDI constituent 95 % de nos propositions d’embauche, malgré la crise. L’année dernière, nous avions embauché 5.000 personnes. Cette année ce chiffre devrait tourner autour de 2.500 ».

Un bilan positif donc, et surtout l’occasion pour les étudiants de découvrir les opportunités professionnelles qui s’offrent à eux. Certains d’entre eux ont même eu la chance de se voir formuler des propositions de stage ou d’embauche concrètes. Rendez-vous donc l’année prochaine, dans un contexte global plus favorable espérons-le !

Une nouvelle base de données pour la reconnaissance faciale

La création d’une base de données destinée aux systèmes de reconnaissance faciale est une tâche complexe. Le grand nombre de facteurs qui permettent l’acquisition de données, exige l’application stricte d’un protocole afin que les images d’individus obtenues puissent être comparables entre elles. La preuve de cette complexité est la grande variété de bases de données faciales bidimensionnelles et l’absence d’homogénéité entre elles. Une équipe de recherche de l’Université Rey Juan Carlos de Madrid a conçu cette nouvelle base de données appelée FRAV3D qui est d’ores et déjà à la disposition de la communauté scientifique.Il existait jusqu’à présent très peu de bases de données tridimensionnelles. Dans ces dernières, l’information tridimensionnelle est représentée par des cartes de gris représentant la profondeur (l’image est de gris clair à gris foncé selon la profondeur) et non par des pointillés en 3D. Elles fournissent donc une information tridimensionnelle sous forme d’image bidimensionnelle, avec la perte d’informations qui en découle. L’autre limite des bases de données était la faible quantité d’images disponibles par individu. Le but étant de créer des bases de données avec un grand nombre de personnes, le nombre d’images par individu restait relativement faible. Toutes ces raisons ont conduit à la création d’une nouvelle base de données, appelée FRAV3D. Actuellement, il est possible d’obtenir deux types de données faciales : les images d’intensité, afin d’obtenir la texture du visage, et les données tridimensionnelles qui redessinent la structure géométrique du visage. De plus, il faut savoir que l’information tridimensionnelle peut être représentée de différentes manières : à travers une image contenant des variations de gris où l’intensité de chaque pixel représente la profondeur de l’objet ; ou à travers un nuage de points dans l’espace.

Image 2 D Image 2.5 D Image 3D

Dans le premier cas, il s’agit d’une image en 2D (bidimensionnelle) où des points en 3D ont été projetés à plat. Puisqu’il s’agit d’une représentation bidimensionnelle d’une information en 3D, elle se fait appeler l' »image 2.5D ». Cependant la principale limite des systèmes basés sur une représentation de la texture d’un visage est sa variation selon les conditions de luminosité et de position du visage. Au contraire, la représentation 3D n’est pas soumise à ces variations.La nouveauté de la base de données FRAV3D est de pouvoir combiner deux types d’information : l’information bidimensionnelle ou de texture et l’information tridimensionnelle. L’obtention de celle-ci s’est faite au moyen d’un scanner laser. Cette nouvelle base de données comporte des images de 105 individus (81 femmes et 24 hommes), tous volontaires avec 16 clichés chacun : 4 images frontales, 8 images dans des inclinaisons différentes, deux expressions du visage et deux illuminations différentes. Cette base de données FRAV3D est d’ores et déjà disponible pour la communauté scientifique à des fins de recherche non commerciales.Images : © FRAV3DEn savoir plus : – FRAV (Face Recognition and Artificial Vision Group) : http://www.frav.es/databases/FRAV3D- Observatorio Tecnológico de Informática (ITI) https://observatorio.iti.upv.es/resources/new/5213Source : Servicio de Infomación y Noticias Cientificas (SINC), 27/09/2009: http://www.plataformasinc.esRédacteur : Sophie Palmier, chargée de mission, [email protected]Origine : BE Espagne numéro 87 (28/10/2009) – Ambassade de France en Espagne / ADIT – http://www.bulletins-electroniques.com/actualites/60962.htm

La virtualisation, déjà une réalité en matière d’hébergement

Virtualisation… Cette technique qui consiste à faire fonctionner sur une seule machine plusieurs systèmes d’exploitation et/ou plusieurs applications, séparément les uns des autres, comme s’ils fonctionnaient sur des machines physiques distinctes, s’impose de plus en plus dans les domaines où l’informatique et le Web sont au coeur de l’activité des entreprises. Et pour cause. Ce système permet en effet une flexibilité et une réactivité aux besoins informatiques jusqu’ici inégalées. Mais qu’en est-il de l’hébergement qui, à lui seul, peut représenter 15 à 25 % de leur budget ?Selon la société d’études et de conseil Markess International qui vient de mener une enquête sur le sujet auprès de 150 sociétés, ce poste n’échappe pas à la tendance (voir méthodologie). Bien au contraire, cette pratique est déjà une réalité. En 2009, 56 % des 150 responsables interrogés déclarent avoir déjà recours à la virtualisation dans le domaine de l’hébergement de leurs infrastructures et de leurs applications informatiques. Dans ce cas, la virtualisation consiste à partager un serveur en plusieurs serveurs virtuels indépendants ayant chacun les caractéristiques d’un serveur dédié.Un chiffre qui atteint 69 % dès lors que l’on y ajoute les 13 % de responsables qui ont prévu de le faire d’ici 2011. Au total, seuls 9 % des personnes interrogées déclarent ne pas s’y intéresser et 5 %, ne pas savoir ce qu’est cette technique.Tous les domaines ne sont toutefois pas concernés de la même manière par la virtualisation. Les entreprises s’attachent avant tout à virtualiser leurs serveurs (90 % d’entre elles). Elles s’attellent maintenant aux environnements de stockagedans un objectif de meilleure maîtrise de leurs volumes de données (54 %). La virtualisation des postes de travail et celle des environnements applicatifs est moins prioritaire (32 % et 30 % des organisations), mais préfigure, du moins pour les applications, une forme ou une autre d’évolution ver le PaaS (Platform as a Service).Pourquoi un tel engouement ? La raison est avant tout budgétaire. Pour 55 % des entreprises, il s’agit de baisser les coûts. Tout de suite après, elles invoquent la nécessité de gérer et d’administrer plus efficacement leur environnement informatique (45 %) et leurs serveurs (40 %), puis de garantir la continuité de leur activité en optimisant les plans de continuité d’activité (PCA) ou de reprise d’activité (41 %). Enfin, le recours à des machines virtuelles pour s’adapter plus facilement à l’évolution de leur activité à un instant T et à leur charge applicative arrive en dernier avec 26 % des déclarations.Une dynamique qui dans le contexte actuel a donc de fortes chances de perdurer, voire de s’accentuer. Une opportunité sans doute pour de nouveaux acteurs.  En savoir plusCette enquête a été réalisée entre juin et septembre 2009 par Markess International. Celle-ci repose sur l’interview de 150 responsables et décisionnaires d’organisations publiques et privées basées en France répartis dans les secteurs suivants : 29 % IT/Télécoms, 19 % secteur public, 15 % banque/assurance, 13 % industrie, 6 % distribution, 18 % autres. 37 % représentaient des entreprises de plus de 2.000 salariés, 24 % des sociétés entre 250 et 1.999 salariés et 39 % des structures de moins de 250 employés. A cela s’ajoute l’interview de 23 prestataires actifs sur le marché des services d’hébergement et de cloud computing, dont 38 % d’hébergeurs, 22 % de SSII intégrateurs, 13 % de constructeurs, 9 % de fournisseurs de solution SaaS, 9 % d’opérateurs de télécoms et 9 % autres.Télécharger la synthèse de l’étude. A.L B

Vers une nouvelle méthode entièrement « verte » pour la production d’hydrogène

http://www.bulletins-electroniques.com/actualites/60899.htmUne équipe de quatre chimistes à l’université de Rochester étudie depuis quelques temps un nouveau système permettant de produire de l’hydrogène à partir d’eau en utilisant seulement la lumière du soleil. Le projet a attiré l’intention de l’U.S Department of Energy (DoE) qui a alors décidé de supporter le projet à l’aide d’une bourse d’un montant de 1.7 million de dollars.Selon Kara Bren, professeur de chimie à l’université de Rochester : « Tout le monde parle d’utiliser l’hydrogène comme un super carburant vert, mais générer ce fuel sans utiliser dans le processus d’autres énergies dites non verte n’est pas aisé. Certains ont déjà utilisé la lumière du soleil pour obtenir de l’hydrogène à partir de l’eau, mais le challenge est de rendre le processus entier suffisamment efficace pour être utile. »L’équipe se penchera sur de nouvelles photosynthèses artificielles. Par ailleurs, à la différence des prototypes précédents, celui de l’équipe de Rochester devrait être divisé en trois modules qui permettront à chaque étape du processus de manipuler et d’optimiser beaucoup plus facilement les caractéristiques du système.
Utiliser les électrons pour former de l’hydrogène
Le premier module utilisera la lumière visible pour créer des électrons libres. Une molécule naturelle complexe appelée chromophore, que la plante utilise pour absorber la lumière du soleil, sera modifiée pour générer des électrons réducteurs. Le second module sera une membrane à base de nanotubes de carbone qui agiront comme des fils moléculaires si fins que leur taille ne sera qu’un millionième de l’épaisseur d’un cheveu.Pour empêcher les chromophores de réabsorber les électrons, la membrane de nanotubes conduira les électrons hors des chromophores en direction du troisième module. Dans ce dernier, des catalyseurs utiliseront les électrons pour former de l’hydrogène à partir de l’eau. L’hydrogène pourra ensuite être utilisée par les voitures, les maisons ou l’alimentation de centrales.

Séparer les processus
En séparant le premier et le troisième module avec la membrane de nanotubes, les chimistes espèrent séparer le processus de récolte de la lumière du processus de génération de l’hydrogène. Cette séparation, permettra à l’équipe de maximiser le rendement de l’absorption de lumière sans altérer les capacités de génération de l’hydrogène et vice-versa.Bren nous explique que cette compartimentation en modules est avantageuse par rapport aux autres systèmes intégrés. En effet, dans ces derniers, un changement améliorant une caractéristique peut en dégrader une autre de façon imprévisible et significative. Cependant Bren concède que ce projet peut prendre plusieurs années avant que l’équipe ne parvienne à un système plus efficace que les designs actuels.Et même si ceci se produit, le système devra être assez performant pour être commercialement viable. « Mais si nous réussissons, nous pouvons être en mesure non seulement de créer un combustible qui brûle proprement, mais la production du combustible pourrait elle-même être propre ». A suivre donc Origine : BE Etats-Unis numéro 181 (23/10/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/60899.htmArnaud Souillé est attaché adjoint pour la Science et la Technologie au Consulat général de France à San Francisco.

L’ordinateur connecté à nos muscles : bientôt une réalité ?

Pour utiliser un ordinateur, il n’est plus forcément nécessaire d’utiliser un clavier et une souris. Les écrans tactiles se multiplient et il existe désormais des logiciels, tels que OpenVibe (lire l’article OpenVibe, un logiciel français pour agir par la pensée), permettant de concevoir et d’utiliser des interfaces cerveau-ordinateur (ICO) pour commander un PC sans un geste. Des chercheurs de Microsoft ainsi que des universités de Washington à Seattle et de Toronto au Canada ont, quant a eux, exploré une autre voie. Celle d’une interface « muscles-ordinateur » qui permet, tout en ayant les mains libres, d’interagir avec une machine.Comment ? Grâce à des électrodes positionnés sur l’avant-bras de l’expérimentateur et qui sont capables de retranscrire l’activité électrique des muscles. Ces signaux sont ensuite corrélés à des gestes spécifiques, tels que joindre le pouce et l’index ou encore saisir un objet fermement. Cette technique n’est toutefois pas totalement nouvelle. Elle est déjà utilisée pour permettre à des personnes amputées de contrôler les mouvements d’une prothèse. Par ailleurs, elle a également été employée par des chercheurs pour explorer les possibilités d’interaction entre l’homme et la machine. Mais jusqu’à présent, les résultats de ces travaux ont été relativement limités. Car recomposer de manière fiable des gestes à partir de l’activité électrique des muscles demeure difficile, si bien que les interfaces muscles-ordinateur sont souvent restreintes à la reconnaissance de quelques gestes.

Voir la vidéo sur Technology Review Une limite que l’équipe de chercheurs américano-canadiens a semble-t-il repoussé avec la mise au point d’un nouveau système. Ce dispositif, présenté pour la première fois en septembre 2009 à la conférence  » User Interface Software and Technology  » de Victoria en Colombie Britannique (Canada), fonctionne avec six capteurs capables d’enregistrer l’activité électrique des muscles (électromyographie) et deux électrodes qui jouent le rôle de prise de terre. L’ensemble est réparti tout autour de l’avant-bras droit du testeur et peut être placé par un non spécialiste.
Seule contrainte : la période d’apprentissage. Les capteurs ne peuvent pas instantanément interpréter l’activité des muscles. Le logiciel doit donc être formé afin d’associer un signal électrique à un geste spécifique. Pour ce faire, les chercheurs ont utilisé des algorithmes standards d’apprentissage améliorant leur performance au fil du temps. Ces algorithmes suivent trois indicateurs : l’ampleur de l’activité musculaire, le rythme de l’activité musculaire et le nombre de capteurs sollicités par un mouvement. Trois données, qui permettent, après une période d’apprentissage, de reconnaître à 85 % la plupart des gestes des participants. 
Voir la vidéo sur Technology Review Couplée à une table interactive, cette technologie donne des résultats surprenants (voir la vidéo). La table est capable de reconnaître, en utilisant une couleur différente, quel doigt est utilisé pour faire un dessin. Elle peut également, en utilisant un camaïeu de couleur, retranscrire la force avec laquelle le doigt appuie sur la table. Autre possibilité : associer à un geste, une commande précise, comme « couper-coller » ou encore « copier-coller ». Des commandes qui peuvent être complexifiées grâce à des capteurs situés sur le bras gauche.
Un dispositif qui ouvre de nombreuses applications pour des personnes valides qui souhaitent déclencher des actions à distance alors qu’elles ont les mains occupées. Pour cela, il faudra passer par des dispositifs sans fil. Un travail déjà à l’oeuvre semble-t-il. A.L B

SAAB et MINESTO inventent une nouvelle technologie marine : Deep Green Turbine

Le développement d’un concept complètement nouveau de récupérateur d’énergie des courants marins utilisant une mono turbine de 7 tonnes couplée à un cerf-volant sous-marin vient d’être rendu public par Minesto, une compagnie qui travaille en collaboration avec l’armée suédoise et la division aéronautique du Groupe Saab.La Deep Green Turbine (c’est le nom de cette technologie) capture l’énergie des courants sous-marins exactement comme le fait un cerf-volant (ou un planeur) avec l’énergie du vent ; dans ce cas, les courants marins remplacent le vent. A l’origine d’ailleurs, cette turbine a été développée pour être une turbine éolienne, mais les ingénieurs de SAAB ont fini par estimer qu’elle serait beaucoup plus efficace sous l’eau, 832 fois plus dense que l’air. D’après le constructeur, ce système pourrait produire assez d’électricité pour fournir près de 4 millions de foyers chaque année (chiffres constructeur).Comment ça marche ? Vraiment comme un cerf-volant, mais dans l’eau. Le cerf-volant tourne dans l’eau en décrivant de grand « 8 » au gré des courants, attaché au fond par un câble qui le laisse libre de ses mouvements (vidéo-boucle de démonstration ICI).

Une vitesse d’écoulement multipliée par dix
La turbine cerf-volant est fixée sur un fond marin entre 60 et 120 mètres de profondeur dans un courant dont la vitesse serait de 1 à 2 m par seconde (chiffres constructeur) ; le cerf-volant turbine est automatiquement dirigé dans les trajectoires spécifiques par un système de contrôle. Le principe de fonctionnement de cette technologie est détaillé par le fabricant en deux étapes.La première étape consiste à augmenter la vitesse du flux entrant dans la turbine. Lorsque les courants frappent l’aile ils créent une force de portance. Fixé au fond de l’océan par un câble, le cerf-volant est contrôlé par un gouvernail, et peut être dirigé dans la trajectoire souhaitée, (dans la vidéo ce parcours prend la forme d’un « 8 » perpétuel). Cette méthode multiplierait, selon le constructeur, la vitesse d’écoulement de l’eau dans la turbine par 10 par rapport à la vitesse du courant réel. La deuxième étape consiste à utiliser un générateur pour convertir cette énergie cinétique en énergie électrique.

Une turbine de sept tonnes !
Selon Minesto, pour produire 1 mégawatt, il faudrait une turbine cerf-volant de 14 tonnes. Le développement envisagé concerne pour l’instant une turbine de 7 tonnes qui produirait 500 KW, ce qui, toujours d’après les constructeurs, serait largement compétitif avec les coûts de l’éolien. Selon l’estimation du PDG de Minesto, Anders Jansson, de l’énergie électrique pourrait être produite dans une fourchette entre $ 0,09 et $ 0,20 cts par kWh (à peu près l’équivalent en euros).Ce qui intéresse les investisseurs qui se sont déjà montrés attirés par la simplicité du projet. La balance coût des matières premières utilisées pour la fabrication de la technologie, électricité produite, coût de transports vers le réseau terrestre et maintenance de la technologie est présentée comme plus avantageuse que celle de l’éolien. The Carbon Trust basé au Royaume-Uni, qui décidément semble être à l’affût de la moindre innovation dans le domaine des technologies renouvelables marines, a déjà appuyé le développement du Deep Green de Minesto, si bien que cette technologie à peine née se trouve être déjà financée en partiepar les gouvernements britannique et suédois ! Par ailleurs, les sociétés impliquées dans son développement sont : le Groupe Saab, Midroc New Technology, Verdane Capital et Encubator. Des noms que je conseille aux lecteurs de retenir et des liens que je les invite à visiter sans tarder.  

Source :
Les énergies de la merFrancis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les Energies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

Portrait robot de la cybercriminalité en 2008

Le 15 janvier 2009 s’est déroulée la traditionnelle présentation du Club de la Sécurité de l’Information Français (CLUSIF), intitulée « Panorama de la cybercriminalité 2008 ». Objectif : prendre du recul sur les évènements de l’année écoulée. Pour cela, un ensemble d’éléments représentatifs a été sélectionné par un groupe de travail pluridisciplinaire, englobant la criminalité haute technologie, les cyberconflits (Estonie, cyberattaques chinoises…) mais aussi, des affaires beaucoup moins techniques. Petit tour d’horizon des faits marquants…

Web 2.0 et réseaux sociaux : les menaces se précisent
Comme il fallait s’y attendre, la criminalité s’est emparée des réseaux sociaux. L’année 2008 a apporté son lot de virus et de vers « nouvelle génération » infectant les Facebook et autres MySpace a souligné François Paget (chercheur de menaces pour McAfee). Autre menace : la divulgation d’informations personnelles. Les utilisateurs de ces réseaux ne réalisent toujours pas à quel point ils se dévoilent au travers de blogs ou d’espaces de partage de photos et de vidéos… Enfin, de très grosses campagnes médiatiques orchestrées sur ces réseaux ont parfois dérivé vers la désinformation, le dénigrement, et pourquoi pas l’appel au terrorisme. Ce sujet est donc à suivre de près, et devrait continuer à être sur le devant de la scène dans les prochains mois.

Sécurité hardware et confiance sur Internet
Franck Veysset (expert en sécurité chez Orange Labs) a soulevé quant à lui la question des attaques « hardware », en particulier sur le matériel électronique. Début 2008, le système des cartes sans contact du métro d’Amsterdam a ainsi été complètement analysé et « cassé ». Basé sur la technologie RFID, ce système repose sur une solution Mifare de la société NXP qui n’a pas été conçue avec un niveau de sécurité élevé, et qui utilise un algorithme propriétaire CRYPTO-1 relativement faible. Via un reverse engineering de la solution, comprenant une analyse matérielle des composants, des chercheurs ont réussi à cloner des badges… Autre cas très discuté : la sécurité des passeports biométriques, ou « e-passeport ». En septembre, des chercheurs ont réussi à fabriquer un faux passeport d’Elvis Presley et à le valider sur une borne automatique de l’aéroport de Schipol ! Pourtant, les spécifications techniques, élaborées par l’ICAO, sont d’un excellent niveau, mais plusieurs éléments de sécurité sont « optionnels » et n’ont donc pas toujours été adoptés dans les versions en cours…

La criminalité organisée et le numérique
A cela, vient s’ajouter la criminalité organisée. Le Lieutenant Colonel Eric Freyssinet de la gendarmerie nationale a présenté quelques évènements notables de l’année écoulée. Au programme, une véritable explosion de la contrefaçon de logiciels, notamment de faux antivirus dont la commercialisation a permis aux malfaiteurs de débiter plusieurs fois la carte bancaire de leur victime. Autre contrefaçon marquante : la vente aux Etats-Unis de faux matériels Cisco, très bien imités et parfois distribués par des canaux légitimes, mais en provenance de Chine.Au-delà, le phénomène des hébergeurs « scélérats » (aussi appelé Bullet Proof Hosting) avec le célèbre RBN (Russian Business Network) a continué à sévir. Mais la communauté Sécurité ne s’est pas laissée faire. Ainsi, les sociétés Atrivo / Intercage ont été déconnectées de l’Internet à l’automne, car leurs actions (hébergements de contenus illégaux notamment) ont finis par être trop visibles. En octobre, c’est la société McColo qui a été sur la sellette. Sa déconnexion a été très remarquée, car durant une (trop) courte période, le spam a baissé de près de 75 % à l’échelle mondiale, preuve s’il en est que McColo menait bien des activités « sensibles ».

Effets d’annonce et failles de sécurité non exploitées : quelle menace ?
Autre sujet sensible : les failles de sécurité. Pour autant, il devient difficile d’en évaluer la menace note Hervé Schauer (consultant et gérant de HSC). Au cours de l’année 2008, plusieurs évènements ont fait la une des médias, tel que la « faille DNS » découverte par Dan Kaminsky. Bien que le problème soit sérieux et réel, son impact sur le grand public a été très faible : le problème a surtout concerné les opérateurs et ISP. Pourtant, les effets d’annonces ont été très bien orchestrés, avec un « bouquet final » et des révélations détaillées lors de la grande conférence « BlackHat » de Las Vegas. La faille TCP de l’année, pourtant fortement médiatisée en septembre, s’est aussi dégonflée comme un soufflet. Plusieurs annonces indiquaient que les auteurs allaient donner des détails, mais début 2009, aucune information crédible sur le sujet n’est parue. A l’opposé, des failles critiques sont curieusement passées totalement inaperçues. C’est par exemple le cas de la MS08-67, faille d’une grande majorité des systèmes Microsoft permettant une compromission distante !

Du sabotage interne aux atteintes de sécurité sur les infrastructures
Pour conclure, Pascal Lointier, président du CLUSIF, est revenu sur quelques cas d’écoles :
  • l’histoire de l’administrateur réseau de la municipalité de San Francisco qui, ayant été licencié, a bloqué l’accès au principal réseau informatique de la ville avant de partir. Même au cours du procès qui a suivi, il a refusé de fournir les mots de passe, entraînant des dépenses importantes pour déverrouiller les réseaux de la ville…
  • celle d’un administrateur de base de données dans le New Jersey, lui aussi licencié, qui a menacé la société de tout détruire si des dédommagements importants ne lui étaient pas versés. La aussi, l’histoire a fini devant les tribunaux…
  • celle d’un adolescent polonais qui a piraté le réseau du métro de Lodz… et qui a provoqué le déraillement de 4 wagons, ainsi qu’une grosse pagaille…
  • celle de l’affaire « Hannaford » ou plusieurs millions de numéros de cartes bancaires se sont retrouvé dans la nature. Ironie du sort, la société Hannaford venait de recevoir sa certification PCI-DSS, normalement garante d’un haut niveau de sécurité dans la gestion de ces données…

Pour en savoir plusLes supports de présentation de ce panorama, ainsi que les vidéos des présentations sont en ligne, en libre accès, sur le site du Clusif, http://www.clusif.asso.fr/. Par Franck Veysset, expert en sécurité

Attention aux hébergeurs frauduleux

Les cybercriminels se sont fortement professionnalisés ces dernières années, et ce à tous niveaux : envoi de spam par botnet, infection de sites légitimes afin de propager des malware, contournement des solutions anti-virales, mise en place de faux sites et de plate-formes de services frauduleux, etc.Ces fraudeurs agissent majoritairement en groupes très structurés. L’hébergement de contenus frauduleux est l’un des éléments clef pour eux dans la mise en place d’escroqueries diverses sur Internet.Dans ce cadre, l’existence d’hébergeurs frauduleux dits « pare-balles », ou « bullet-proof », prend tout son sens. Ces hébergeurs très particuliers, souvent localisés physiquement dans des pays à législation laxiste, garantissent à leurs clients une disponibilité à toute épreuve ou presque. Ils garantissent surtout de « ne pas agir en cas de plainte ». Dans la pratique, leur service « abuse » ne répondra jamais aux sollicitations leur signalant du contenu frauduleux, et ne répondront pas non plus aux services de police s’adressant à eux. Ces hébergeurs profitent en effet des failles législatives et judiciaires, voir de la corruption de leur pays. Ainsi, lorsqu’un service de police étranger leur signale du contenu illicite hébergé chez eux, s’ils daignent répondre ce sera pour affirmer qu’ils n’agiront que sur action de la police locale, qui elle-même n’interviendra pas.

Différents types de contenus
Différents types de contenus Web sont utilisés par les fraudeurs et se doivent d’être accessibles de façon continue : sites de phishing collectant les identifiants et mots de passe des victimes, faux sites d’entreprises collectant des numéros de carte bancaires, sites de recrutement de « mules ». Au-delà du Web, les fraudeurs doivent également disposer de serveurs à haute disponibilité, notamment pour gérer leurs botnets (command&control).Néanmoins, les fraudeurs ne font pas appel aux hébergeurs bullet-proof systématiquement. Le niveau de risque présenté dans le tableau ci-dessous est relatif à l’hébergeur lui-même, et à la probabilité de voir des contre-mesures déployées par des tiers (internautes, forces de l’ordre, CERTs …).

Prestations
Les prestations fournies par les hébergeurs bullet-proof sont variables :
  • Hébergement mutualisé ou dédié ;
  • Configuration matérielle à la demande ;
  • Backup automatique des données ;
  • Serveur préinstallé ;
  • Fourniture active de moyens techniques : spam, faux sites web, etc.
Il est donc à noter qu’en plus de l’hébergement, certains n’hésitent pas à « aider » leurs clients en leur fournissant les meilleures pratiques du milieu.

Publicité
Ces hébergeurs disposent rarement de sites Web pour proposer leurs services. Ils sont par contre omniprésents sur la plupart des forums « underground » des communautés de cybercriminels, notamment dans les pays de l’Est, et y font la promotion de leurs services.Le plus grand hébergeur bullet-proof historique, le Russian Business Network (RBN), passait ainsi l’annonce suivante sur divers forums de cybercriminels :

Fermetures d’hébergeurs bullet-proof
Contrairement aux idées reçues, les hébergeurs pare-balles ne sont pas légion sur Internet. Ils se font de plus en plus discrets, et ne vantent plus leurs qualités comme ils pouvaient le faire jusqu’en 2007. Plusieurs affaires ont en effet changé la donne. RBN, victime de son succès, a déclenché une série de publications et d’articles de chercheurs, puis de journaux plus généralistes. Sous les feux de la rampe médiatique, ils ont préféré s’évaporer dans la nature, du jour au lendemain (lire l’article de Computerworld).Un autre cas, celui de l’hébergeur frauduleux McColo (lire l’article du CERT. Lexsi), est tout aussi passionnant : cet hébergeur a été fermé en réaction à de fortes pressions exercées par la communauté des chercheurs en cybercriminalité sur les fournisseurs d’accès menant à cet hébergeur (routes BGP), l’isolant totalement d’Internet. La conséquence la plus visible de cette action fût de voir le volume mondial de spam chuter de près de deux tiers (lire l’article du Washington Post).

Solutions de protection contre les contenus frauduleux
Plusieurs organisations tentent de cibler les plages d’adresses IP appartenant à ces hébergeurs. Les listes obtenues permettent de « blacklister » ces hébergeurs et de filtrer leur contenu, que ce soit pour la navigation, ou pour la messagerie. SpamHaus est la plus connue de ces organisations.C’est pour cette raison que les escrocs passent dorénavant, pour plus de 80 %, par des réseaux de botnets pour envoyer leurs spams, ou par des techniques de fast-flux pour leurs hébergements. La clef de la réussite dans la lutte contre ces hébergeurs passera surtout par une amélioration des législations en vigueur, dans chaque pays, et par une meilleure coopération à l’international.Par Cédric Pernet – CERT LEXSI 

Conficker, une histoire de ver ?

Conficker [1], aussi appelé Downadup, Downandup ou Kido, peut sembler, à première vue, un simple ver comme tant d’autres (SQL/Slammer, Sasser, Code Red…). Ses fonctionnalités de propagation sont caractéristiques d’un ver informatique, à savoir, trouver une cible de manière autonome et tenter de l’infecter. Si l’infection réussit, alors le code malveillant s’installe sur la machine infectée afin d’opérer des activités malveillantes à l’insu de l’utilisateur, mais aussi, de se propager à partir de ce nouveau point d’infection. Cependant, quelques points très intéressants font de Conficker un ver peu ordinaire :

  • Depuis 2004, nous n’avions pas eu d’épidémie virale majeure ce qui laissait à penser que le phénomène « ver » était largement passé de mode ;
  • Ce ver a, en l’espace de quelques semaines, compromis plusieurs millions de PC. Certains éditeurs ont annoncé une infection de l’ordre de la dizaine de millions de machines…
  • Ce ver exploite une faille du service Windows Server Service, utilisé par Windows 2000, XP, Vista, Windows 7 et Windows server 2003 et 2008 : un panorama très large de systèmes vulnérables…
  • La vulnérabilité exploitée par Conficker a fait l’objet d’un patch de sécurité, référencé en tant que MS08-067 : vulnérabilité permettant l’exécution de code arbitraire à distance avec des droits SYSTEM sans authentification préalable. Elle a commencé à être publiquement exploitée, a priori, en septembre 2008 et un avis de sécurité et une mise à jour corrective ont été disponibles le 23 octobre 2008, ce qui fait de cette vulnérabilité une vulnérabilité particulière car Microsoft a pour habitude de publier ses mises à jour de sécurité lors du “Patch Tuesday” qui a lieu tous les deuxièmes mardi du mois.
En soi, ces éléments sont déjà très intéressants… mais il y a mieux ! Les motivations des pirates ayant écris ce malware… Bien qu’à l’heure actuelle, aucune accusation directe sur les auteurs n’ait pu être faite, certains éléments factuels peuvent être remontés, ceux-ci soulevant de nombreuses questions… notamment sur les aspects « cybercriminalité » qu’ils peuvent impliquer.En effet, ce ver informatique a dans un premier temps surpris la communauté sécurité de part son niveau de sophistication (programmation d’excellente qualité, nombreuses fonctions de furtivité). D’autre part, en l’espace de quelques mois, le code du ver a fortement évolué, les auteurs rajoutant des fonctions, corrigeant des problèmes détectés ou améliorant même des algorithmes internes… Un tableau avec les caractéristiques de ces différentes versions est disponible sur Wikipedia (voir le tableau).Les probabilités pour qu’il s’agisse des mêmes auteurs qui aient fait évoluer le ver sont fortes, car les versions s’enchaînent naturellement, avec des rajouts de fonctions.Un autre élément apparu dans la version E, en avril 2009, fournit des informations très intéressantes. Le ver va télécharger des »scarewares », faux logiciel de sécurité, ainsi qu’un moteur de spam permettant ainsi de vraiment « monétiser » ce réseau de machines compromises. Ces logiciels sont alors pilotés sur les machines contrôlées par les pirates.A ce niveau, le doute n’est plus permis… en effet, les logiciels de type « scarewares »(voir encadré ci-dessous) sont depuis quelques mois sur le devant de la scène. Ils permettent à des organisations criminelles de gagner de l’argent. En facturant chaque logiciel une cinquantaine de dollars, les gains peuvent être rapides.Le deuxième programme malveillant installé est le tristement célèbre Waledac [2], un robot de spam très efficace, responsable (en partie…) des grosses campagnes de spam de ce printemps.Conficker a créé la surprise fin 2008. Son évolution en 2009 montre indéniablement que les auteurs de ce ver ont rapidement compris comment tirer profit de leur œuvre : moteur de spam, faux antivirus (scareware)… Il est à l’heure actuelle probablement très difficile d’estimer les gains des cybercriminels, mais une chose est sûre : nous n’en sommes qu’au début !  Qu’est ce que les Scarewares ?Il s’agit de logiciels trompeurs, destinés à effrayer les utilisateurs pour leur soutirer de l’argent. Les exemples les plus communs prennent l’apparence d’un antivirus professionnel et avertissent l’utilisateur que son PC est fortement infecté. Pour le réparer, une seule solution : acheter la version professionnelle de ce faux antivirus, et donc fournir son numéro de carte bancaire sur le site Web des pirates.Exemple d’une fenêtre d’alerte, destinée à effrayer l’utilisateur du PC. Notez le lien « activer Spyware Protect 2009 » amenant l’internaute sur un faux site de vente du produit.Spyware Protect 2009 : un vrai-faux antivirus. L’allure est très « professionnelle ». Source : cnet.comPar Franck Veysset, expert en sécurité

Notes
[1] Voir l’excellente analyse technique de Conficker disponible sur le site du SRI [2] Pour en savoir plus sur Waledac

Cyberterrorisme, cyberguerre, la réponse des Etats

Cyberattaques, attaques massives de serveurs, cent milles, un million, dix millions d’ordinateurs infectés. Des dizaines de milliers de coordonnées bancaires dérobées, l’Etat X victime d’une cyberattaque, faille DNS, malware …Ces expressions sont désormais devenues quotidiennes dans les médias spécialisés et deviennent récurrentes dans les médias grands publics. Or, à la lecture ou à la vue de ces reportages, on peut se demander si les pouvoirs publics ont les moyens de réagir face à cette nouvelle criminalité.Commençons par définir et examiner le dispositif légal en place.

Quelles menaces et quel dispositif légal ?
La définition du cyberterrorisme est sujette à controverse. On peut cependant dire qu’il s’agit d’utiliser des moyens de technologie pour commettre des actes réprimés par les lois des Etats. Sur le plan des définitions légales, le cyberterrorisme consiste à commettre des actes prévus et réprimés par le code pénal dans le but de désorganiser tout ou partie des éléments vitaux d’un pays, que ce soit les moyens de communications, les transactions économiques ou encore la distribution d’énergie. Les motivations peuvent être d’ordre pécuniaire ou idéologique. Le dispositif légal français couvre tous les types d’attaques susceptibles d’être commises. Ce qui distingue le cyberterrorisme de la délinquance ordinaire, c’est la différence d’échelle. L’attaque sera de grande ampleur et déployée grâce à des moyens importants.Les articles 323-1 et suivants du code pénal répriment l’intrusion frauduleuse dans un système d’information. Le fait d’accéder ou de se maintenir frauduleusement dans tout ou partie d’un système d’information est punissable d’un an de prison et de 15.000 euros d’amende. La modification ou la suppression de données résultant de l’accès frauduleux aggrave la peine encourue à deux ans de prison et 30.000 euros d’amende.Le fait d’empêcher le fonctionnement d’un système d’information est puni de trois ans d’emprisonnement. Il n’est pas nécessaire d’accéder au système pour que cette infraction soit constituée. Tel sera le cas d’un envoi massif de requêtes à un serveur pour l’empêcher de fonctionner. Enfin, l’introduction frauduleuse de données dans un système d’information, la suppression ou la modification illicite de données est punissable de trois ans d’emprisonnement et de 45.000 euros d’amende. C’est ce type d’attaque qui sera privilégié par des terroristes pour mettre en difficulté l’Etat qu’ils prennent pour cible. Accessoirement, ils peuvent se livrer à des envois de spam, interdit par l’article 22 de la loi n°2004-575 du 21 juin 2004 pour la confiance en l’économie numérique, à des fins de propagandes par exemple. De plus, pour se procurer l’argent nécessaire, ils commettront des escroqueries et des abus de confiance en pratiquant le « phishing » et le « scam ».L’escroquerie est alors punissable de cinq ans de prison et l’abus de confiance de trois. L’amende encourue pour chacune de ces infractions est de 375.000 euros et le fait de les réaliser en bande organisée aggrave la peine encourue.Cependant, on peut trouver ces peines légères et inadaptées à la répression et à l’éradication du terrorisme. En fait, en cas d’actes de terrorisme, c’est-à-dire d’infractions comme celles décrites ci-dessus mais utilisées pour troubler gravement l’ordre public ou semer la terreur par intimidation (article 421-1 du Code Pénal), la peine initialement encourue est aggravée.Ces aggravations sont prévues à l’article L421-3 du Code pénal. Par exemple, le fait de bloquer un système informatique sera puni de 6 ans d’emprisonnement au lieu de trois. Cependant si des décès sont consécutifs à ces actes, la réclusion criminelle de trente ans ou à perpétuité sera encourue.

Lutte contre le cyberterrorisme
La lutte contre les actes de cyberterrorisme s’organise d’abord au niveau national. Dans la plupart des pays développés, les forces de police possèdent une unité spécialisée en cybercriminalité et une autre dans la lutte contre le terrorisme. Il suffit donc de coordonner les deux unités pour rendre la répression efficace. En France, c’est le pôle anti-terroriste du Tribunal de Grande Instance de Paris, composé de huit magistrats spécialisés dans la lutte anti-terroriste, qui assure cette fonction. Il a le pouvoir de coordonner l’action des forces de police et peut recourir aux services de l’Office Central de Lutte contre la Criminalité liée aux Technologies de l’Information et de la Communication (O.C.L.C.T.I.C.). Sa structure opérationnelle compte des équipes capables de détecter et de rechercher les auteurs des infractions d’intrusion dans les systèmes d’informations.Les Etats-Unis, eux, se sont dotés d’une infrastructure spécifique dans la lutte contre le terrorisme. Le National Counter Terrorism Center (NCTC), créé en août 2004 par l’ordonnance présidentielle n° 13354, coordonne l’action des unités opérationnelles notamment des célèbres Central Intelligence Agency (CIA) et Federal Bureau of Investigation (FBI). Au niveau international Interpol, la célèbre organisation internationale des polices, a également pris en compte la menace du cyberterrorisme et joue un rôle de coordination. Ainsi, il distribue les informations sur les cyberterroristes et sur les attaques grâce à son système de communication I-24/7, permet aux polices nationales d’identifier les individus suspects grâce à ses bases de données, et peut apporter son expertise technique en procédant à l’analyse d’ordinateurs aux fins de recherche et de préservation des preuves.

Cyberguerre
Les actes de cyberguerre sont, sur le plan technique, relativement similaires à ceux de cyberterrorisme. Ils consistent à lancer des attaques contre des systèmes d’information vitaux comme ceux d’un ministère de la Défense ou à effectuer des défigurations de sites Web institutionnels à des fins de propagande. Plusieurs affaires très médiatisées se sont produites ces dernières années [1], cependant un conflit entièrement informatique ne s’est pas encore produit. Dans ce type de conflits, les « combattants » sont protégés par l’Etat attaquant, et l’Etat victime ne pourra pas les poursuivre pénalement. De plus comme l’intégrité territoriale ne sera pas attaquée, le droit international public ne trouvera pas d’application et l’ONU aura des difficultés à agir. Il est facile pour un Etat attaquant de dénier mener ce type d’attaque.A ce jour, la réponse des Etats réside dans les institutions chargées de défendre le cyberespace national. En France, la toute nouvelle Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI), créée par le décret n° 2009-834 du 7 juillet 2009 et qui succède à la Direction Centrale de la Sécurité des Systèmes d’Information (DCSSI), a clairement inscrit la cyberdéfense dans ses missions. Un centre de veille et d’alerte, le COSSI est chargé d’évaluer la menace et de la combattre en temps réel. Le COSSI est notamment chargé de coordonner les réactions aux incidents touchant la cyberdéfense. La création de l’ANSSI fait suite aux recommandations du Livre Blanc sur la défense nationale du 17 juin 2008, qui préconisait la création de cette institution et qui recommandait une augmentation significative des moyens consacrés à la cyberdéfense. A l’horizon 2012, l’ANSSI devrait compter 250 agents. Les Etats-Unis ne sont pas en reste, puisque le Général Keith. B. Alexander vient d’être nommé commandant du nouveau « Cyber Command » au sein du centre de commandement stratégique du Pentagone. Ces entités sont pour le moment chargées de défendre le cyberespace, mais la question est de savoir si elles auront des capacités de riposte. En tout cas, l’ONU semble totalement absente de ces débats. Compte tenu des enjeux et avant le déclenchement d’un cyber conflit, on peut souhaiter que l’ONU s’empare du sujet et que des conférences internationales soient engagées afin de mettre en place un droit international du cyberespace. Par Nicolas Magnin, juriste spécialiste de la SSI

Note
[1] : L’Estonie a dénoncé une attaque russe contre ses systèmes d’information stratégique suite à une décision du gouvernement estonien de déplacer un monument russe en 2007. La Chine est régulièrement soupçonnée de mener des attaques contre les systèmes d’information d’Etats occidentaux. Pour aller plus loinLa Lettre Technique de l’Ingénieur Sécurité des Systèmes d’Informations n° 9 Octobre 2007Le site de l’ANSSILe document relatif à la création de l’ANSSILe site d’InterpolLes mesures prises par Interpol contre le terrorismeLes mesures prises par Interpol contre la cybercriminalité

Cyberdéfense : comment la protection s’organise

Georges Clémenceau affirmait que « La guerre est une chose trop grave pour être confiée à des militaires ». Voici quelques temps déjà que les activités essentielles à la continuité de l’État et de la nation ont été confiées au secteur privé concurrentiel : les télécommunications avec la fin de la DGT (direction générale des télécommunications), les transports routiers fortement déréglementés, le secteur de l’énergie, celui de la finance…Pour ces acteurs, l’efficacité et la rentabilité priment devant les investissements qu’une totale disponibilité exigerait. L’État s’en est récemment rendu compte, et il a lancé une réflexion sur les activités critiques face à une crise d’importance : attaque terroriste, pandémie virale, attaque informatique… Elle a débouché sur le décret n° 2006-212 du 23 février 2006 relatif à la sécurité des activités d’importance vitale (SAIV). Parmi ces secteurs, il en est un transverse qui supporte tous les autres, celui des télécommunications. Sa mise hors service impacterait fortement les banques, la logistique, l’énergie… et toute la nation.C’est pourquoi la protection des circuits d’information fait l’objet d’un chapitre particulier du Livre Blanc de la Défense publié en 2008 qui s’est concrétisé par la création d’une NSA à la Française le 7 juillet dernier : l’agence nationale de la sécurité des systèmes d’information.Les activités d’importance vitale sont réparties sur 12 secteurs dont celui transverse des télécoms. Pour chaque secteur, l’État (au travers du SGDN) détermine les Opérateurs d’Importance Vitale (OIV) et leur notifie leur statut. C’est à la fois une charge aux travers des obligations à remplir, mais aussi une attention bienveillante qui aidera à la continuité des activités en cas de crise. Être client d’un OIV est donc un plus pour sa propre continuité d’activité.Il existe typiquement 3 ou 4 OIV par secteur, soit une cinquantaine au total. Pour chaque secteur, l’État élabore une Directive Nationale de Sécurité (DNS) qu’il communique à chaque OIV. Ce dernier dispose de 2 ans pour se conformer aux exigences de la DNS de son secteur. L’OIV doit commencer par traduire cette DNS dans un Plan de Sécurité Opérateur (PSO). A savoir décliner les principes généraux de la DNS en modalités pratiques visant à assurer la continuité d’activité. L’OIV devra également signaler les Points d’Importance Vitale (PIV), c’est-à-dire les sites opérationnelles critiques pour sa continuité d’activité. Par exemple, le site informatique principal d’une banque nationale. D’une certaine façon, la notion de PIV se substitut à la notion de Site Sensible de l’ancienne réglementation. Mais les Sites Sensibles étaient devenus tellement nombreux, qu’il devenait illusoire de vouloir tous les protéger en cas de crise. Avec les PIV, on parle de quelques dizaines de sites que l’on sait pouvoir protéger efficacement par des forces de défense, par exemple. Bien entendu, la liste des PIV dressée par chaque OIV est revue avec attention par l’État qui peut demander à l’OIV de revoir sa copie.Enfin, pour chaque PIV in fine retenu, l’OIV doit définir un Plan Particulier de Protection (PPP) qui détaille les mesures prises sur le site en regard des risques. En complément et en miroir de ce PPP, l’État définit alors un Plan de Protection Extérieur (PPE) qui précise les mesures d’accompagnement qu’il mettra en œuvre en temps de crise. Nous sommes donc retournés à la case « État » et la boucle est bouclée. Pour résumer : État -> SAIV -> DNS -> OIV -> PSO -> PIV -> PPP -> PPE -> État.Signalons que pour des raisons évidentes, DNS et listes des PIV sont des informations sensibles couvertes par les règles de Protection du Secret-Défense (Confidentiel Défense dans langage courant).Pour en savoir plus sur les décrets et l’agenceDésignation des opérateurs d’importance vitale, des délégués pour la défense et la sécurité et des points d’importance vitale.Décret n° 2009-834 du 7 juillet 2009Par Eric Wiatrowski, Lead Auditor – Security Management System

385 millions d’Ultra mobiles en 2014 ?

La famille des terminaux Ultra mobiles (UMD) devrait continuer à croître dans les années à venir. Le cabinet d’études ABI Research estime en effet que le marché mondial de cette catégorie qui regroupe les UMPC (Ultra mobile personnal Computer), les MID (Mobile Internet Devices) et les Netbooks devrait atteindre 385 millions d’unités en 2014. Soit une progression de plus de 300 % par rapport ses précédentes prévisions (95 millions d’unités en 2012)Mais qu’en sera-t-il de la structuration de ce marché dans 5 ans ? En effet, aujourd’hui ce segment est principalement dominé par les Netbooks qui, de part leur faible coût et leurs caractérisques techniques et ergonomiques (clavier complet et écran plus grand), rencontrent un plus grand succès auprès du grand public que les MID. ABI Research n’évacue pas cette réalité. Mais le cabinet d’études estime que les MID devraient connaître dans les années à venir des évolutions notoires (clavier coulissant, système tactile) qui leur permettront d’exister en tant que tels et, même, de s’imposer sur les Netbooks. La diversité de cette gamme de produits devrait donc perdurer.A moins que les Smartphones connectés à l’Internet, ne se développent très rapidement et intègrent de nouvelles fonctions qui rendent leur usage finalement très proche de celui des MID. Auquel cas, ces derniers auront du mal à s’imposer  En savoir plusEn 2007, ABI Research estimait la valeur du marché mondial des UMD à 3,5 milliards de dollars. Un marché qui selon ses prévisions devrait rapidement se développer pour atteindre environ 27 milliards de dollars d’ici 2013.Le site de ABI Research

Nouveau record mondial : Sharp développe une cellule photovoltaïque d’un rendement de conversion de 35,8%

http://www.bulletins-electroniques.com/actualites/60906.htmLa société japonaise Sharp a annoncé le 22 octobre 2009 qu’elle a développé une nouvelle cellule photovoltaïque d’un rendement de conversion de 35,8%, ce qui constitue un nouveau record mondial pour une cellule au niveau laboratoire, sans utilisation d’un concentrateur solaire. Le chiffre a été certifié par l’AIST [1] en septembre de cette année. Les recherches ont été réalisées dans lecadre du projet « Recherche et Développement de Technologies Photovoltaïques Révolutionnaires de la NEDO » [2].Il s’agit d’une cellule triple jonction, c’est-à-dire qu’elle comporte trois couches qui absorbent chacune des longueurs d’onde de lumière différentes. Cela permet d’augmenter le spectre de la lumière absorbée par la cellule et ainsi d’obtenir un rendement plus élevé qu’avec une cellule à une seule couche. Les cellules triples jonction sur lesquelles travaillait la société jusqu’à présent étaient composées de phosphure de gallium indium (InGaP) pour la couche supérieure, d’arséniure de gallium-indium (InGaAs) pour la couche médiane, et de germanium (Ge) pour la couche inférieure.Les couches en germanium sont faciles à fabriquer, mais la moitié du courant électrique qui apparait dans cette couche ne pouvant pas être utilisé, les chercheurs de Sharp ont décidé de remplacer ce matériau par de l’arséniure de gallium indium. La nouvelle cellule est ainsi constituée de phosphure de gallium indium pour la couche supérieure, d’arséniure de gallium pour la couche médiane, et d’arséniure de gallium indium pour la couche inférieure. Le taux de rendement de conversion a ainsi été amélioré de 31,5 % à 35,8 %. En utilisant un concentrateur à un grossissement de 1000, le rendement de conversion atteint les 45 %.Les autres caractéristiques de la cellule sont :
  • une tension de circuit ouvert (Voc) de 3,012 V,
  • un courant de court-circuit (Isc) de 12,27 mA,
  • un facteur de forme (F.F.) de 85,3 %,
  • une superficie de 1 cm2.
Dans un premier temps, Sharp prévoit l’intégration de cette nouvelle cellule dans des satellites d’ici 2012. [1] Institut National des Sciences et Techniques Industrielles Avancées – organisme public de recherche.[2] Organisation pour le Développement des Energies Nouvelles et desTechnologies Industrielles : organisme public de financement de la recherche.Origine : BE Japon numéro 518 (23/10/2009) – Ambassade de France au Japon / ADIT – http://www.bulletins-electroniques.com/actualites/60906.htmHugues Chataing est rédacteur pour la chaîne énergie des Bulletins électroniques de l’ambassade de France au Japon.

Ces éoliennes qui produisent de l’eau

Boirons-nous un jour de l’eau captée dans l’air par des éoliennes ? La question n’a rien de saugrenu : plusieurs prototypes d’éoliennes produisant de l’eau douce grâce à l’humidité présente dans l’air, sans rejet de CO2 et sans consommation d’énergie externe, sont en cours de développement.L’air contient en effet de l’eau à l’état gazeux. Sa quantité dépend à la fois de la température ambiante et du taux d’humidité relative. La ressource est potentiellement énorme : la quantité d’eau douce sous forme de vapeur d’eau présente dans l’air est équivalente à celle sur terre à l’état liquide. Alors que l’eau douce est une denrée rare (elle ne représente que 2,5 % de l’eau présente à la surface de la Terre) et sera l’un des enjeux majeurs du XXI ème siècle, le marché pourrait être prometteur.

Plusieurs sociétés sur les rangs
Une jeune PME française, Eole Water (anciennement Eole Tech), vient de breveter son système après dix ans de recherche. Implantée à Sainte-Tulle, dans les Alpes de Haute-Provence, elle conçoit des dispositifs éoliens de production d’eau par condensation, sans rejet de CO2, en générant aussi de l’électricité.Elle a conçu toute une gamme d’éoliennes à eau. Son modèle mobile « WMS 500 », haut de 14 mètres et muni d’une turbine de 8,5 mètres, produit 514 litres d’eau en 24 heures, dans des conditions normales, selon la société (photo ci-dessus). La société cherche aujourd’hui des partenaires financiers pour lancer l’industrialisation.Mais elle n’est pas la seule sur les rangs. En Australie, Maxwell Edmund Whisson, un inventeur, a été parmi les premiers à concevoir un prototype, présenté dès 2007. Son engin, un moulin à vent au design avant-gardiste, est capable de capter l’eau présente dans l’air.L’eau est récupérée par un système de réfrigération condensation. Le tout est greffé sur une éolienne futuriste, sans pales et disposant d’un aileron d’avion. Pour l’instant, son invention n’a pas été commercialisée.Autre exemple, Dutch Rainmaker, une entreprise néerlandaise, qui a mis au point un prototype capable de produire jusqu’à 500 litres d’eau potable par jour. L’énergie du vent alimente un système frigorifique installé dans un pylône, l’eau étant récupérée ensuite par condensation. Un projet pilote est installé à Wetsalt, en Allemagne (voir la vidéo en cliquant ici).

Encore des freins
Ces technologies pourraient déboucher sur de nombreuses applications, commerciales, agricoles ou humanitaires. Mais si le marché mondial est potentiellement très important, plusieurs freins subsistent. Les prototypes doivent faire la preuve de la fiabilité de leurs performances en termes de production d’eau. Et ils devront ensuite passer le cap de l’industrialisation pour arriver à des niveaux de prix acceptables.La question de l’impact de ces éoliennes à eau sur le climat pourrait aussi se poser : si l’eau se raréfie dans l’atmosphère, son cycle sera perturbé et, par exemple, la formation des nuages serait alors altérée. Une question qui ne se posera toutefois qu’en cas de déploiement de ces éoliennes à grande échelle. 

Source :
Green Univers

Un nouveau matériau prometteur pour le stockage de données

http://www.bulletins-electroniques.com/actualites/60892.htmDes chercheurs de la North Carolina A&T State University ont créé un nouveau matériau qui pourrait permettre de stocker l’équivalent de 20 DVD haute définition, ou de 250 millions de pages de texte, dans une puce de l’ordre du centimètre carré. Conduits par le Dr Jagdish Narayan, Professeur de Science des matériaux et directeur du  » Center for Advanced Materials and Smart Structures  » de l’université de Caroline du Nord, les scientifiques ont fait cette découverte en utilisant le processus de dopage sélectif, dans lequel une impureté est ajoutée à un matériau pur dans le but de modifier ses propriétés. Le professeur Narayan avance aussi que le matériau pourrait réduire la consommation des véhicules et réduire la chaleur créée par les semiconducteurs.Pour concevoir ce nouveau matériau, les scientifiques ont ajouté du métal, le nickel, à une céramique, l’oxyde de magnésium MgO. Le matériau résultant contient des agglométats d’atomes de nickel qui occupent une surface de l’ordre de la dizaine de nanomètres carrés. Le nickel peut être contrôlé précisément, au niveau de l’ion jusqu’au nanoparticules. Les propriétés magnétiques du matériau, paramagnétique à l’origine, deviennent alors ferromagnétiques. En effet, les agglomérats d’atomes sont ferromagnétiques à température ambiante. Une nanoparticule pouvant contenir un bit d’information, les capacités de stockage de ce matériau sont excellentes : on peut ainsi stocker facilement un Terabit d’information sur une simple puce. Toutefois, le stockage de l’information n’est pas la seule application de ce nouveau matériau. En changeant les propriétés de ce dernier, Narayan explique que les chercheurs pourraient développer une nouvelle génération de moteurs céramiques qui résistent à des températures deux fois plus élevées que les moteurs normaux offrant ainsi une consommation largement réduite. Et comme la conductivité thermique du matériau peut être améliorée, cette technique pourrait aussi trouver des applications dans l’exploitation d’autre sources d’énergie comme le solaire. Pour en savoir plus :FerromagnétismeParamagnétismeSources :–  » New material could boost data storage, save energy « , 20 Octobre 2009 : http://www.nanowerk.com/news/newsid=13136.phpThe Synthesis and Magnetic Properties of a Nanostructured Ni-MgO System : http://redirectix.bulletins-electroniques.com/LXb6TRédacteur : Alban de Lassus, [email protected]Origine : BE Etats-Unis numéro 181 (23/10/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/60892.htm

La lutte contre le réchauffement ne passe pas seulement par la réduction des émissions de CO2

La revue scientifique américaine PNAS vient opportunément de publier un article passionnant qui examine les différentes voies, autres que la réduction des émissions de CO2, pour ralentir l’approche du chaos climatique.L’article de six pages, intitulé Reducing abrupt climate change risk using the Montreal Protocol and other regulatory actions to complement cuts in CO2 emissions, est disponible ci-dessus en ligne au format PDF. Quelques commentaires sur l’approche globale et les conclusions des auteurs :

  • L’idée élémentaire de chercher d’autres stratégies complémentaires des efforts pour réduire le CO2 me semble non seulement bonne ou sensée mais aussi impérative. Ainsi que les auteurs le signalent, le carbone noir et autres polluants jouent un rôle important dans l’augmentation anthropogénique du forçage radiatif. Nous aurions dû nous y intéresser, ainsi que diriger nos efforts en direction de la reforestation, depuis au moins dix ans si ce n’est trente. Je suis seulement inquiet que cela ne diminue le sentiment d’urgence lié à la réduction des émissions de CO2.
  • Les auteurs signalent que certaines incertitudes demeurent. Par exemple, les estimations du forçage radiatif du carbone noir varient pas mal. S’ajoute à cela le fait que brûler moins de charbon et de pétrole ne réduira pas seulement les émissions de carbone noir mais réduira également les aérosols de sulfate atmosphériques. Les aérosols de sulfate ont un effet refroidissant estimé à 1,15 watts/m2 [1]. En valeur absolue, cela représente 69 % du réchauffement causé par le CO2 atmosphérique (1,66), 72 % de l’effet anthropogénique net (1.6), et 3,8 fois l’effet de forçage du carbone noir [2]. (Voir le Chapitre 2 dans The Physical Science Basis in the current IPCC report, notamment la Table 2.12.) En d’autres termes, stopper ces émissions entraînerait une baisse très rapide des niveaux d’aérosols de sulfate atmosphériques avec pour effet concomitant une augmentation du réchauffement. Cela ne veut pas dire que s’attaquer aux émissions de carbone noir est une mauvaise chose mais simplement qu’il faut s’y prendre de façon à éviter un retour de bâton.
  • Ils signalent d’importantes économies potentielles à partir de la séquestration du CO2 grâce au charbon vert ou biochar et une meilleure gestion des forêts(réduction de la déforestation et augmentation de la reforestation). Ces efforts semblent avoir un gain potentiel important en terme de retrait du CO2 de l’atmosphère mais ils dépendent fortement de politiques nationales et internationales. Je n’ai donc aucune idée de la manière de les mettre aujourd’hui en pratique à l’échelle évoquée par les auteurs.
  • Les auteurs ne parlent pas du méthane, la seconde source la plus importante du réchauffement anthropogénique. Etant donné la source de nos émissions de méthane principalement la production alimentaire et les déchets – il semble extrêmement difficile de les réduire de 80 % dans le monde, selon le pourcentage avancé [3].
 [1] J’ai ajouté l’effet de forçage direct des aérosols de sulfate (-0.4) et l’ordre de grandeur moyen pour l’effet d’albédo des nuages induit par les sulfates (entre 0 et -1,5) dans la Table 2.12 de l’IPCC.[2] J’ai ajouté l’effet de forçage direct du carbone noir (0.2)et l’effet de forçage du carbone noir sur la neige (0.1), de laTable 2.12 de l’IPCC.[3] Voir également l’article ByDegrees – Curbing Climate Change While Capturing Lost Methane surla capture du méthane qui s’échappe des puits de gaz naturel et desinstallations. En 2007, il y avait aux Etats-Unis 699,9 millions detonnes métriques d’émissions de méthane (en unité équivalente deCO2), selon l’Agence américaine d’information sur l’énergie : EIA- Emissions of Greenhouse Gases in the U.S. 2007-Overview. Economiste de formation, Lou Grinzo est un écrivain freelance basé à New York. Il anime le blog The Cost of Energy.

Nanomatériaux : vers une gouvernance européenne ?

La Commission européenne semble avoir entendu l’appel à la vigilance lancé en avril dernier par le Parlement européen à l’égard des nanomatériaux. En particulier, ses interrogations sur la pertinence du cadre législatif actuel pour prévenir les risques liés à l’usage des nanotechnologies.  » La Commission a prévu de passer en revue, dans les deux prochaines années, toute la législation concernée par la mise en oeuvre effective des nanomatériaux afin de limiter leurs impacts potentiels sur la santé, l’environnement et la sécurité tout au long de leur cycle de vie « , a indiqué le 9 octobre dernier lors de la conférence européenne sur les nanotechnologies, Stravos Dimas, commissaire européen à l’environnement. Et d’ajouter :  » De nombreux services de la Commission vont contribuer à répondre au large éventail de questions qui se posent dans ce domaine.  »

Un parcours semé d’embûches

Une déclaration encourageante, mais dont il est difficile, a priori, d’évaluer la portée effective. De nombreuses incertitudes sont à prendre en compte. En premier lieu, les rivalités d’intérêts au sein même de l’exécutif européen. En effet, si les départements de l’environnement et de la santé sont en faveur du renforcement de la législation et des précautions à prendre en la matière, celui de l’industrie plaide, quant-à lui, davantage pour une législation moins contraignante.Par ailleurs, avant de légiférer, il convient, ainsi que le rappelle Stravos Dimas, d’évaluer le nombre de nanomatériaux produits aujourd’hui et ceux qui le seront demain. Une entreprise délicate, car à ce jour, il n’existe ni registre unique, ni accord complet sur la définition même des nanomatériaux. De fait, l’analyse de leurs impacts sur l’homme et l’environnement est souvent tronquée. Comme ce fut le cas lors de l’étude par la Commission des aspects réglementaires des nanomatériaux, seuls les matériaux nanostructurés et ceux nanométriquement manufacturés sont pris en compte. Ceux générés naturellement ou produits involontairement, lors de la combustion par exemple, sont hors champ.

Et REACH ?

La solution résiderait-elle alors dans REACH ? Pour le Parlement européen, c’est une des voix à explorer. Ainsi que le rappelle le commissaire à l’environnement,  » Reach est là pour garantir une utilisation sûre de tous les produits chimiques, y compris les nanomatériaux… REACH fournit donc un cadre juridique efficace de principe pour garantir que les produits chimiques, y compris a priori, les nanomatériaux, ne sont pas nocifs pour la santé humaine et l’environnement. « Reste un problème de taille : celui du tonnage. Pour des raisons de coût administratif pour les entreprises et de niveau de nuisance pour l’environnement, le seuil au dessus duquel une substance chimique doit être déclarée par l’utilisateur ou l’importateur est de 1 tonne par an. Ce seuil est-il également valable pour les nanomatériaux ? Toute la question est là, et pour pouvoir y répondre, il est encore une fois nécessaire de collecter des informations !De fait, que faut-il faire ? Amender REACH comme le souhaite le Parlement et Wolf-Michael Catenhusen, responsable en Allemagne de la Commission Nano, afin que la législation prennent en compte explicitement les nanomatériaux ? Mettre en place, comme le propose le Grenelle 2 une déclaration et l’enregistrement des substances nano produites et utilisées en France ? Le débat fait rage et pas uniquement en France où toutes ces thématiques animent actuellement la Commission de débat public sur les nanotechnologies.  En savoir plusLe discours de Stavros Dimas.La communication de la Commission au Parlement européen sur les aspects réglementaires des nanomatériaux.Le site Commission de débat public sur les nanotechnologies

Casino se lance dans l’énergie photovoltaïque avec sa filiale GreenYellow

Concepteur et promoteur de centrales solaires, GreenYellow a défini un programme de développement, qui consiste, dans un premier temps, à équiper les sites du Groupe Casino situés au sud d’une ligne Bordeaux-Grenoble, en Corse et à La Réunion, dont le potentiel représente plus de 250 mégawatts et, dans un second temps, à mettre cette compétence au service de tiers pour l’équipement des toitures et parkings des bâtiments commerciaux et industriels en centrales solaires.

Pour ce faire, GreenYellow a noué des partenariats solides avec des spécialistes industriels reconnus : notamment SMAC (filiale du Groupe Bouygues) pour l’étanchéité ; Schneider Electric pour le matériel électrique et Sunpower pour les panneaux solaires surperformants. Par ailleurs, dans le cadre de la mise en œuvre des projets réunionnais, GreenYellow a choisi de s’appuyer sur plusieurs entreprises locales pour la construction des centrales et notamment : SETB, Ineo, ainsi que des entreprises de génie civil : GTOI, Léon Grosse, SBTPC.

GreenYellow a également conçu une ombrière photovoltaïque spécifique pour équiper les parcs de stationnement. L’ombrière est un produit industriel sophistiqué, dont la charpente métallique et les fondations permettent de résister aux intempéries extrêmes, pour La Réunion notamment.

Une protection contre le soleil et la pluie

L’ombrière apporte aux clients des sites concernés un confort supplémentaire et une protection contre le soleil et la pluie. Pour développer ce produit, GreenYellow a fait appel à GagnePark, une PME spécialisée du Puy de Dôme.

Un premier test in situ, portant sur 4 ombrières, 150 panneaux photovoltaïques, 20 places de parking couvertes, a été mené en avril 2009 sur un site de Vindémia à la Réunion (Jumbo Le Port).

Depuis le mois de septembre 2009, GreenYellow a engagé la phase de déploiement avec la construction de 8 centrales, totalisant une puissance installée de 17,5 mégawatts : à la Réunion (magasins de Vindémia : Jumbo Le Port, Jumbo Saint André, Jumbo Saint Benoît, Jumbo Savannah, Jumbo Sainte Marie et Score Saint Pierre), à Mayotte (Jumbo Mamoudzou) et en France métropolitaine (Géant Casino Istres). Leur mise en service est prévue au premier semestre 2010, l’objectif étant de déployer 70 mégawatts d’ici 2012.

 

Source :

Environnement-info

Le logement durable pour les faibles revenus

On a beaucoup parlé de gratte-ciels verts (comme celui de la Bank of America à un milliard de dollars à Manhattan), de campus verts et même, aussi étrange que cela paraisse, de manoirs verts. Mais qu’en est-il du logement durable pour les pauvres ? Les promoteurs peuvent-ils se le permettre ?Enterprise Community Partners, à but non lucratif, et Enterprise Community Investment, sa société sœur, qui construisent ensemble des logements sociaux, ont commencé à s’intéresser à la question en 2004. Même sans connaître Enterprise, vous avez pu entendre parler de son fondateur, James Rouse, promoteur pionnier en la matière, et vous connaissez certainement son petit-fils, l’acteur Edward Norton, qui siège au conseil d’administration. Basée à Columbia dans le Maryland aux Etats-Unis, Enterprise investit un milliard de dollars par an dans le logement. Elle a contribué au financement de près de 250.000 logements à bas coût depuis 1982.Lors d’une conférence au Newseum à Washington D.C., Enterprise a déclaré aujourd’hui s’être penchée sur la connexion entre logement social et environnement. Sa conclusion est que le logement social vert est économiquement viable. Le retour sur investissement passe ainsi par la réduction des factures d’énergie, des bénéfices pour la santé et même des économies sur le transport (si les logements sont construits à proximité des transports publics). En conclusion, Enterprise a annoncé s’engager à financer le logement social durable à hauteur de quatre milliards de dollars dans les cinq années à venir en construisant ou en améliorant 75.000 logements. L’initiative, qui porte le nom de « Green Communities », a été développée en partenariat avec le Conseil de défense des ressources naturelles (NRDC).

16.000 logements neufs et anciens rénovés
« Nous voulons que d’ici 2013, tout ce qu’Enterpise touche soit vert, » a déclaré Charles Werhane, le CEO de Enterprise Community Investment. La société a appelé le gouvernement et les investisseurs à rendre durables tous les logements neufs et anciens d’ici 2020. Doris W. Koo, la présidente de Enterprise Community Partners, a expliqué que la société avait transformé dans une logique durable près de 16.000 logements neufs et anciens ces cinq dernières années pour tester le modèle économique. Elle a également développé un référentiel de critères verts qui ont été adoptés par plusieurs villes et états, et en partie par le Département du logement et du développement urbain.Shaun Donovan, l’actuel Secrétaire au logement et au développement urbain, a souligné que dans la mesure où 40 % des gaz à effet de serre émis aux Etats-Unis proviennent des bâtiments, il est vital de mettre l’accent sur l’efficacité énergétique.Malheureusement, le discours d’Enterprise a été riche en auto-congratulations et pauvre en détails. Je ne peux donc pas vous dire où et comment vont être dépensés les quatre milliards de dollars. Et le marché du logement social est si obscur en raison du crédit d’impôt et des subventions, qu’il est difficile de savoir qui va payer pour la mise aux normes des logements sociaux et si cet appel sera entendu.

Des économies réalisées sur le long terme
Un rapport de 120 pages, intitulé Coûts marginaux et économies mesurables, publié aujourd’hui par Enterprise, donne plus d’indications :« D’un point de vue strictement financier, Enterprise table sur des économies à long-terme de 4.851 dollars par logement. Cette économie permet de couvrir le coût des travaux estimé à 4.524 dollars par logement pour rendre celui-ci conforme au référentiel de critères verts d’Enterprise. »La majorité des économies proviennent de réductions sur les factures d’eau et d’énergie. Les vertus pour la santé pourraient également être importantes. A Seattle, Enterprise construit 60 logements pour les familles dont les enfants souffrent d’asthme avec un investissement supplémentaire de 6.000 dollars par unité pour réduire l’humidité et les toxines et augmenter la circulation de l’air. La société fait état d’une amélioration de 60 % en nombre de jours sans symptomes et une baisse de 67 % des visites aux urgences. Si l’analyse d’Enterprise est juste, le gouvernement et les investisseurs privés devraient dans l’avenir mettre l’accent sur les performances énergétiques. Les logements qui gaspillent l’eau et l’énergie ne font qu’ajouter au fardeau financier de ceux qui peuvent le moins se le permettre. 

Source :
MarcGunther.comMarc Gunther réfléchit, écrit et communique sur l’entreprise et le développement durable. Il est un contributeur du magazine FORTUNE et l’auteur de « Faith and Fortune : How Compassionate Capitalism is Transforming American Business» (Crown Business, 2004). Lire son blog.

Sécurité informatique en entreprise : les erreurs à éviter

Une politique de sécurité strictement définie est-elle synonyme de meilleure sécurité ? Malheureusement, non. Pourquoi ? Parce que les collaborateurs ne la respecteront pas. En effet, lorsque les règles de sécurité entravent l’activité au quotidien, les employés sont tentés de les contourner plutôt que s’y conformer. Par ailleurs, une politique de sécurité trop stricte nécessite un important dispositif de maintenance. Voici quelques-unes des incongruités auxquelles j’ai déjà eu l’occasion d’être confronté.

  • Seuls les documents portant la mention “public” peuvent être partagés.
  • La politique de sécurité décrit à la lettre à quel stade devrait être chaque configuration sur chaque serveur.
  • Ne laissez jamais, même quelques secondes, votre ordinateur portable sans surveillance en dehors des locaux de l’entreprise.
  • N’écrivez pas vos mots de passe. Il est essentiel de choisir des mots de passe compliqués et de les changer fréquemment.
Très souvent, ces règles trop contraignantes ne seront pas respectées par les employés qui préfèreront agir selon leurs propres jugements. Or, c’est dans ces conditions qu’il existe un véritable risque qu’ils agissent en contradiction avec les intérêts de l’entreprise. Ils peuvent, par exemple, désactiver certaines options de sécurité sur leurs ordinateurs. Même si les règles de sécurité peuvent s’avérer parfois très utiles, leurs excès les rendent absurdes.De meilleurs résultats sont obtenus lorsque l’ensemble des règles de sécurité est clair et compréhensif. Ces règles doivent supporter, et non pas entraver, la performance des taches quotidiennes. Les employés doivent comprendre les tenants et aboutissants de ces règles. Il est important qu’une relation de confiance existe entre les employés et la direction.Une autre erreur souvent commise par les entreprises dans ce domaine. Les règles de sécurité sont élaborées par les services informatiques qui ne prennent pas en compte les besoins et processus spécifiques de l’ensemble de l’entreprise. Lorsque de telles règles sont développées, chaque service de l’entreprise devrait être interrogé. En agissant ainsi, les personnes dont le travail est directement concerné par les règles de sécurité peuvent émettre leurs opinions et il est possible d’éviter une situation où ces règles bloqueraient la croissance de l’activité.On voit parfois les règles des ressources humaines mélangées avec celles de la sécurité informatique. Cela peut arriver, par exemple, lorsque les médias sociaux tels que Youtube ou Facebook sont interdits pour des raisons de sécurité informatique. Or, les employés n’apprécient pas que leur liberté d’échanger des informations soit entravée au nom de la sécurité informatique. D’ailleurs, le fait est que les médias sociaux ne constituent pas une menace sérieuse si la sécurité informatique et les équipements de l’entreprise sont parfaitement à jour. Ces mêmes restrictions seraient plus facilement acceptées et causeraient moins de mécontentement, si elles venaient directement du département des ressources humaines ou avait pour justification de lutter contre une perte de productivité.Reste l’épineux problème des mots de passe : l’idéal est de ne les partager avec personne. Cependant, il y a certaine situations dans lesquelles le service informatique a besoin de connaître le mot de passe d’un employé. Ces derniers devraient en être informés de manière très claire. Ainsi, les règles de sécurité n’engendrent pas de conflits internes mais se fondent, en souplesse, dans les activités de l’entreprise.Par ailleurs, il est plus sécurisant pour les sociétés que les employés choisissent un mot de passe élaboré et l’écrivent de manière à s’en rappeler plutôt que d’en choisir un simpliste qu’ils se contentent de se rappeler. Les entreprises devraient encourager leurs employés à utiliser des gestionnaires de mots de passe, tels que « password safes », qui peuvent supporter des centaines de mots de passe derrière une clé maîtresse. Un mot de passe inscrit sur un papier rangé dans un portefeuille n’est pas non plus le pire des scenarios. Par Joona Airamo, responsable du service des technologies de l’information chez Stonesoft

Statkraft va inaugurer la première centrale osmotique du monde à Tofte en Norvège

La compagnie d’électricité norvégienne Statkraft fait savoir sur son site que la toute première centrale osmotique au monde sera inaugurée officiellement le 24 novembre prochain. L’un des avantages de cette technologie, qui exploite la différence de concentration entre l’eau salée et l’eau douce, est de permettre de produire en même temps que de l’électricité de l’eau désalinisée.J’ai parlé de cette centrale osmotique pour la première fois le 10 octobre 2007 (ICI) au moment de son entrée en construction et j’écrivais alors que le prototype-pilote devrait voir le jour fin 2008. Il y a donc près d’un an de retard par rapport au calendrier prévu, ce qui, sur un projet de cette ampleur et une telle innovation, n’est pas grand-chose. Statkraft, qui mène des recherches sur l’énergie osmotique depuis 1997 est fier aujourd’hui de voir enfin se concrétiser ce projet tout à fait novateur, même si la compagnie norvégienne prend la précaution oratoire d’annoncer qu’il s’agit là d’un prototype dont les capacités de production sont limitées et dont la finalité est l’essai en vue de développements futurs. Car le but de Statkraft est d’être capable dans les années à venir de construire des centrales d’énergie osmotique partout où cela est possible (voir schéma ci-dessous), c’est-à-dire partout où des fleuves (eau douce) se mélange à l’eau de mer (eau salée donc).Le principe de l’énergie osmotique est de tirer de l’énergie de la pression exercée par le passage du flux d’un liquide concentré vers un liquide moins concentré à travers une membrane semi-perméable. Le liquide concentré est de l’eau salée, l’eau de mer. Le moins concentré, c’est l’eau douce, celle des fleuves.

Une production d’énergie par osmose
Les deux eaux sont séparées par une membrane et c’est la pression exercée sur la membrane qui permet de produire de l’électricité. Historiquement, c’est dans les années 70 que l’ingénieur chimiste Sidney Loeb de l’Université Ben-Gourion du Negev développe la technologie des membranes destinées à la désalinisation de l’eau de mer et découvre accessoirement la possibilité de générer une énergie à partir de l’osmose inverse. Dans les années 80, Torleif Holt et Thor Thorsen travaillent pour SINTEF Petroleum Research sur le potentiel théorique de l’osmose à produire une énergie. Les deux chercheurs devront attendre 1995 pour obtenir un financement destiné à leur permettre de poursuivre leurs recherches.De nombreuses publications scientifiques s’en suivront qui inclineront, en 1997, Statkraft à prendre contact avec les deux chercheurs en vue de collaborer sur un projet précis : la production d’énergie électrique à partir de l’énergie osmotique. En 2001, la recherche sur l’énergie osmotique reçoit la reconnaissance de l’Union Européenne, l’année même où est lancée la première étude d’impact environnemental de la technologie. En 2003, Statkraft obtient sa première licence d’exploitation d’énergie osmotique et ouvre une unité de tests expérimentaux à Sunndalsøra.

10 % des besoins du pays !
En 2008, Statkraft commence la construction du premier prototype à Tofte sur la commune d’Hurum au sud-ouest d’Oslo (un lieu différent de celui annoncé en 2007, sans doute pour des raisons de protection de secret industriel). Aujourd’hui, Statkraft s’apprête à inaugurer officiellement cette centrale de Tofte.Le potentiel technique de l’énergie osmotique est évalué par Statkraft dans le monde entre « 1600 et 1700 TWh par an ». Pour la seule Norvège, Statkraft prévoit de produire « 12 TWh par an équivalent à 10 % de la consommation totale du pays » (chiffres Statkraft). L’un des avantages de cette technologie est de permettre de produire, on l’aura compris, en même temps que de l’électricité, de l’eau désalinisée, ce qui dans certaines régions de la planète peut s’avérer un complément précieux, voire même vital. Statkraft aime à rappeler que cette technologie ne produit aucun bruit ni aucune émission polluante et qu’elle peut facilement s’intégrer dans des tissus industriels déjà existants comme des sous-sols de bâtiments industriels.L’usine prototype, qui sera non seulement inaugurée mais surtout soutenue tout au long de son développement par la Princesse Mette-Marit de Norvège comme symbole de la Norvège du 21e siècle, est le fruit d’une collaboration entre des organismes de recherche et de développement de divers pays (non précisés). Statkraft, dont la communication exemplaire à mes yeux parvient à mêler transparence et discrétion, ne souhaite pas divulguer la capacité de production (réduite pour l’heure) de son usine pilote, pas plus que les détails financiers de l’opération. Francis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les Energies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

Pôle de compétitivité : lancement d’un 9e appel à projets

Le neuvième appel à projets pour l’attribution d’aides au financement de projets de R&D collaboratifs présentés par les pôles de compétitivités vient d’être lancé par huit ministères et trois secrétariats d’Etat. Celui-ci s’adresse à l’ensemble des secteurs économiques, industriels (y compris agro-alimentaires) et de services et n’est pas ouvert aux projets structurants tels que les plates-formes d’innovation (voir encadré). Pour être éligibles, les projets doivent être impérativement labellisés avant leur envoi par le ou les pôles de compétitivité auxquels ils se rattachent. Au delà, ils doivent satisfaire à plusieurs autres critères tels que :

  • être collaboratif et rassembler au moins deux entreprises et un laboratoire ou organismes de recherche public ou de formation ;
  • viser le développement d’un ou de nouveaux produits ou services à fort contenu innovant conduisant à une mise sur le marché 5 ans après la fin du programme de R&D ;
  • comporter des travaux de R&D réalisés en majorité dans territoires gérés par ce pôle ;
  • proposer des travaux qui ne soient pas déjà financés par par l’Etat, les collectivités territoriales, l’Union européenne ou encore leurs agences ;
  • présenter des retombées économiques pour le territoire que ce soit en termes d’emplois, d’investissements, de structuration d’une filière ou d’anticipation de mutations économiques.
Les dossiers de candidature sont à déposer en ligne au plus tard le 27 novembre 2009 sur l’extranet dédié à cet effet par OSEO. Quant à la liste des projets sélectionnés, elle sera publiée début mars 2010.Ce neuvième appel à projets s’inscrit dans la deuxième phase de soutien à la politique des pôles de compétitivité par le gouvernement. Au total, il y consacrera, entre 2009 et 2011, 1,5 milliard d’euros. Une part importante de cette somme, 495 millions d’euros, servira à financer les projets de R&D collaboratifs présentés par les pôles de compétitivité, via le Fonds Unique Interministériel (FUI) dont la gestion est rattachée depuis septembre 2009 à OSEO. Le reste, servira au financement de l’animation des pôles, des projets structurants, des interventions aux pôles de l’ANR, d’OSEO et de la Caisse des Dépôts.La première phase (2005 à juillet 2009), quant à elle, s’achève sur un bilan positif. Sur les huit appels à projets concernés, 1.510 projets de R&D collaboratifs ont été déposés, 738 ont été retenus et ont bénéficié d’un soutien financier de près de 946 millions d’euros provenant de l’Etat, auxquels s’ajoutent 512 millions d’euros émanant des collectivités territoriales. Au total, ces projets de R&D représentent un montant de dépenses de R&D de près de 4 milliards d’euros. En savoir plusSuite à une première phase de soutien de la politique des pôles de compétitivité, l’Etat a décidé de lancer une 2e phase (2009-2011). Outre la poursuite de l’accompagnement de la R&D, coeur de la dynamique des pôles, celle-ci comprendra trois axes :
  • le renforcement de l’animation et du pilotage stratégique des pôles (contrats de performance) ;
  • de nouvelles modalités de financements (plates-formes d’innovation) ;
  • le développement de l’écosystème de croissance et d’innovation de chaque pôle (financements privés, meilleurs synergies territoriales).
Le budget affecté à cette 2e phase s’élève à 1.500 millions d’euros, répartis sur une période de trois ans (2009 – 2011) comme suit :
  • 50 millions d’euros pour l’animation des pôles ;
  • 495 millions d’euros pour les projets de R&D collaboratifs et les projets structurants (plates-formes d’innovation 105 millions) dont le financement est assuré par le Fonds Unique Interministériel (FUI) ;
  • 600 millions d’euros pour les interventions aux pôles de compétitivité de l’ANR et 250 millions d’euros d’OSEO et de la Caisse des Dépôts.
 Le cahier des charges du 9e appel à projets L’adresse de l’extranet pour s’inscrireL’évaluation de la 1ère phase (2006-2008) de la politique des pôles de compétitivitéLe financement des pôles de compétitivité
 A.L B

Energie solaire : l’Allemagne bat les Etats-Unis à l’ombre du Capitole

La quatrième édition du décathlon solaire a rassemblé vingt équipes d’étudiants des Etats-Unis, d’Allemagne, d’Espagne et du Canada. Chaque équipe a soumis une maison alimentée à l’énergie solaire. L’équipe allemande l’a remporté sur les Californiens pourtant favoris grâce à la maison surPLUShome, couverte presque entièrement de panneaux solaires, qui génère assez d’énergie pour suffire aux besoins de trois maisons. La victoire, bien que certainement très méritée, est particulièrement poignante alors que l’économie américaine montre des signes d’essoufflement dans la course aux énergies vertes. De plus, le Décathlon Solaire de cette année est le premier qui voit s’affronter des équipes de plusieurs nations. Dans ce contexte, le concours semble avant coureur de l’avenir du secteur des énergies propres alors que les technologies murissent et que le marché continue de se développer. Tandis que la version du Sénat du projet de loi sur l’énergie continue de faire débat, la symbolique de cet événement devrait lancer un message clair aux membres du Congrès. Un, le budget de 1 milliard de dollars par an prévu dans la loi à l’étude est insuffisant pour financer la R&D dans les énergies propres, le point faible du leadership américain dans le secteur. Et deux, une réduction du budget du projet d’éducation du président Obama, RE-ENERGYSE, pourrait avoir des conséquences importantes sur le succès de notre futur énergétique propre. 

Source :
WattHeadFraîchement diplômée en développement humain de l’université de Cornell aux Etats-Unis, Yael Borofsky est membre du Breakthrough Institute. En cette qualité, elle effectue des recherches et analyses sur la décarbonisation de l’énergie. Elle contribue régulièrement aux Breakthrough Blog, Breakthrough Generation, CleanTechnica et WattHead.

Une nouvelle propriété du graphène mise en évidence

http://www.bulletins-electroniques.com/actualites/60834.htm

Des chercheurs de L’université de Rutgers, dans le New Jersey, ont découvert de nouvelles propriétés électroniques du Graphène, ce matériau composé d’atomes de carbone disposés en feuillets et qui, depuis sa découverte, promet un bel avenir à l’électronique post silicium, grâce à ses propriétés conductrices qui sont excellentes.

La découverte, considérée théoriquement possible par les physiciens théoriciens, montre que les électrons dans le graphène peuvent interagir fortement entre eux. Le comportement est similaire à la supraconductivité observée dans certains métaux et matériaux complexes, marqués par le courant électrique sans résistance. Dans le graphène, ce comportement résulte d’une nouvelle phase « liquide » de matière consistant en des quasi-particules partiellement chargées, et dans lesquelles la charge est transportée sans dissipation.

Les professeurs Eva Andrei et ses collègues de l’université de Rutgers notent que la forte interaction entre les électrons, appelée aussi comportement corrélé, n’avait jamais été observée dans le graphène en dépit de nombreuses tentatives pour la mettre en évidence. Cela a conduit certains chercheurs à la question de savoir si le comportement corrélé pourrait être possible finalement dans le graphène, où les électrons sont des particules sans masse (ultra relativistes) comme les photons ou les neutrons. Dans la plupart des matériaux, les électrons ont une masse.

L’équipe de chercheurs a décrit comment elle a observé le comportement corrélé des porteurs de charges ultra-relativistes dans le graphène grâce au phénomène de l’effet Hall quantique fractionnaire (fractional quantum Hall effect, FQHE). Ce phénomène est observé lorsque le mouvement des porteurs de charges est confiné à deux dimensions et sont sujets à un champ magnétique perpendiculaire.

Lorsque les interactions entre ces porteurs de charges sont suffisamment fortes, ils forment de nouvelles quasi-particules portant une fraction de la charge élémentaire d’un électron. Ce phénomène est la preuve d’un comportement fortement corrélé entre les particules porteuses de charges en deux dimensions. Le FHQE est connu pour exister dans les systèmes d’électrons à deux dimensions dans des semiconducteurs, où les électrons sont des particules ayant une masse qui obéissent à la dynamique conventionnelle, à l’opposé de la dynamique relativiste de particules non massives. Cependant, cela n’était pas évident, jusqu’à maintenant, que cela ait lieu dans le graphène, et que ce phénomène donne lieu à l’effet Hall quantique fractionnaire.

Le fait que personne n’avait réussi auparavant à montrer ce comportement corrélé n’était pas dû à la nature physique du graphène, mais plutôt aux interférences venant du matériau qui supportait les échantillons de graphène, et le type de sondes électriques utilisées pour les caractérisations. Les scientifiques ont obtenu le graphène par exfoliation mécanique du graphite, c’est-à-dire simplement en utilisant du ruban adhésif classique pour arracher des couches de graphène, que l’on dépose ensuite sur une plaque de silicium. Mais à cause des impuretés et des irrégularités du silicium, les scientifiques n’étaient pas capables d’observer le FHQE.

Le Post Doc Xu Du et son étudiant Anthony Barker ont été capables de montrer que retirer plusieurs couches du dioxyde de silicium en dessous des couches de graphène laisse la bande de graphène intacte en suspension, entre deux électrodes. Cela a permis au groupe de démontrer que les porteurs de charge dans le graphène suspendu se propagent sans rencontrer d’impuretés. Une autre étape cruciale pour observer le phénomène était de concevoir et de fabriquer une sonde qui n’influe pas les résultats de mesures, ce qui d’après Andrei était aussi un obstacle à l’observation du phénomène. Les résultats obtenus prouvent le bien-fondé de ces précautions.

Cette découverte devrait encourager les scientifiques à pousser plus loin le graphène et les matériaux similaires pour l’électronique du futur, à l’heure où les experts de l’industrie du silicium annoncent la limite physique de l’évolution des performances de la microélectronique.

 

Pour en savoir plus : Effet Hall quantique fractionnaire (sur wikipédia anglais)

Sources :
–  » Novel electronic properties in graphene may lead to speedy, powerful electronic devices « , 14 Octobre 2009: http://www.nanowerk.com/news/newsid=13079.php
– Publication dans Nature :  » Fractional quantum Hall effect and insulating phase of Dirac electrons in graphene  » : http://redirectix.bulletins-electroniques.com/SYABw

Rédacteur : Alban de Lassus, [email protected]

Origine : BE Etats-Unis numéro 180 (16/10/2009) – Ambassade de France aux Etats-Unis / ADIT – http://www.bulletins-electroniques.com/actualites/60834.htm

&l

Le laboratoire de Mettler Toledo élargit ses compétences

Au sein d’un service Métrologie réunissant pas moins de 20 personnes, le Laboratoire d’Étalonnage Accrédité (LEA) de Mettler Toledo ne cesse d’étendre ses activités. Basé à Béthune, il a intégré, en juillet 2007, une nouvelle unité d’étalonnage de pipettes. Chaque année, 12.000 à 13.000 pipettes de tous modèles et de toutes marques, mécaniques ou électroniques, mono ou multicanaux… y sont manipulées. Dès leur arrivée, elles sont nettoyées, décontaminées et enregistrées.Puis, un diagnostic est dressé avec le remplacement préventif des pièces d’usure telles que les joints, et l’établissement d’un devis, transmis immédiatement au client, si d’autres composants majeurs sont endommagés. Une fois le calibrage réalisé, un constat de vérification est édité, présentant l’historique de maintenance de la pipette et son niveau de performance actuel. L’ensemble du processus, de la réception de la pipette à l’expédition, est effectué en moins de 48 heures.Initialement accrédité pour la classe M1 (c’est-à-dire les poids de 1mg à 5t), le laboratoire a obtenu, en 1997, l’accréditation pour les étalonnages F1, relatif aux poids de 1mg à 20kg. En décembre dernier, le LEA a finalisé l’aménagement d’un laboratoire d’étalonnage de masse et obtenu l’accréditation E2 pour l’étalonnage des poids de 1mg à 1 kg, ce qui correspond aux gammes de balances de laboratoire.À chaque balance est affecté un étalon de travail et tous les systèmes sont pilotés à partir d’un ordinateur portable doté d’un logiciel mis au point par Mettler Toledo France, qui permet un suivi et une gestion optimale de chaque mesure : traçabilité, gestion clients…“25 laboratoires sont accrédités en France pour l’étalonnage de masses; la plupart le sont pour les classes M1, la moitié pour M1 et F1, mais seulement deux le sont en E2”, explique M. Alain Leroux, Directeur Métrologie & Qualité Mettler-Toledo.Prochaine étape, imminente, pour le laboratoire de Béthune : l’obtention de l’accréditation COFRAC pour l’étalonnage des pipettes.

Encore plus de miniaturisation en électronique : la diode moléculaire

http://www.bulletins-electroniques.com/actualites/60837.htm

Une équipe de chercheurs du Biodesign Institute de l’université d’Arizona State a conçu un composant électronique à partir d’une molécule unique : une diode moléculaire. Concevoir des diodes plus petites, moins chères, plus rapides et plus efficaces représente un grand espoir pour le futur de l’électronique. Les diodes en électronique représentent un ingrédient essentiel. Elles sont utilisées partout et dans toutes les puces électroniques de l’industrie du semiconducteur. Les experts de cette industrie ont depuis longtemps annoncé que la fameuse loi de Moore, sur l’évolution de la microélectronique, qui stipule que le nombre de transistors intégrés sur une puce en silicium double tous les 18-24 mois, risque bientôt de ne plus pouvoir être respectée car l’on atteint déjà les limites physiques en termes de taille pour la gravure des transistors. Comme les transistors, les diodes sont irremplaçables, par exemple pour des systèmes de conversion de puissance, pour les radios, les portes logiques, des photo détecteurs, ou en électro luminescence (les fameuses LEDs).Le principe d’une diode est de ne laisser passer le courant que dans une unique direction. Pour qu’une molécule ait cette propriété, elle doit être physiquement asymétrique, et bien sûr pouvoir s’intégrer dans un circuit électronique, c’est-à-dire d’un coté, être capable de former une liaison covalente avec l’anode chargée négativement, et de l’autre coté, avec la cathode chargée positivement.L’idée de surpasser les limites de l’électronique sur silicium grâce à l’électronique moléculaire existe déjà depuis un certain temps : en 1974 les chimistes Mark Ratner et Ari Aviram avaient lancé l’idée. Cela fait donc plus de trente ans que les chercheurs se penchent sur la faisabilité de l’électronique moléculaire. La plupart des efforts faits dans cette direction impliquent de nombreuses molécules, mais seuls de très récentes tentatives ont été fructueuses dans l’utilisation de molécules uniques. Un des défis est de relier une molécule unique à au moins deux électrodes et d’y faire passer du courant. Un autre défit implique l’orientation de la molécule dans le système. Les chercheurs sont maintenant capables de faire ceci, en construisant un système mono moléculaire avec une orientation bien définie.Dans l’étude faite par NJ Tao et ses collègues, on compare une molécule symétrique avec une molécule asymétrique, détaillant les performances de chacune en termes de transport d’électrons. Avec une molécule symétrique, le courant passe dans les deux sens, elle agit donc comme une résistance ordinaire. C’est potentiellement intéressant aussi, mais la diode est bien plus intéressante (et compliquée) à reproduire.Le projet a été fait en collaboration avec le professeur Luping Yu de l’université de Chicago et le professeur Ivan Oleynik de l’université de South Florida. L’équipe a utilisé des molécules conjuguées dans lesquelles les atomes sont accrochés ensemble avec alternativement des liaisons simples et multiples. De telles molécules affichent une grande conductivité électrique et ont des cotés asymétriques capables de former des liaisons covalentes avec les électrodes pour créer un circuit clos. La molécule asymétrique est une série d’anneaux de pyrimidinyle, liés par des liaisons covalentes à une paire d’anneau phényle. Le pyrimidinyle a une carence d’électrons tandis que le phényle est en excès d’électrons. La technique développée par l’équipe de Tao repose sur la modulation AC. Le principe est d’appliquer une petite perturbation mécanique périodique à la molécule. Si la molécule relie les deux électrodes, il y a une réponse électronique dans un sens, sinon la molécule ne relie pas les deux électrodes. Lorsque la molécule relie les deux électrodes en or, l’asymétrie de la molécule ne permet au courant que de passer dans un seul sens.Richard Nichols, expert en électronique moléculaire de l’université de Liverpool est impressionné par les résultats de l’étude. D’après lui la combinaison de la théorie chimique avec l’utilisation de la microscopie à effet tunnel pour des mesures sur une molécule unique constituent le moyen d’orienter une molécule asymétrique dans une jonction, et cette stratégie peut montrer le chemin à l’élaboration de circuits moléculaires plus complexes. Photo : © Trent Schindler, National Science Foundation

En savoir plus : Electronique moléculaire : Rapport d’ambassade L’électronique moléculaire aux Etats-Unis, 07/2007

Sources :
–  » Small… smaller… smallest ? Researchers create molecular diode « , 12 Octobre 2009 : http://redirectix.bulletins-electroniques.com/aZPh9
–  » Diode breakthrough in molecular electronics  » 11 Octrobre 2009 : http://www.rsc.org/chemistryworld/News/2009/October/11100901.asp

Rédacteur : Alban de Lassus, [email protected]
Origine : BE Etats-Unis numéro 180 (16/10/2009) – Ambassade de France aux Etats-Unis / ADIT –  http://www.bulletins-electroniques.com/actualites/60837.htm