Qu’est-ce que le Cloud Computing va changer pour vous ?

De toute évidence, les changements (opportunités et menaces) diffèrent grandement selon les acteurs. En 2010, le Cloud Computing a été adopté principalement par les petites et moyennes entreprises qui ont vu les avantages immédiats d’une mise à disposition rapide, des frais d’entrée réduits, des services à part entière, des délais de commercialisation courts fournis par SaaS.

Les grandes entreprises sont encore au stade « early adopter ». Les plus entrepreneuriales ont commencé à mettre en œuvre de l’IaaS (Infrastructure as a Service), généralement pour des usages non essentiels comme le calcul, le stockage, l’e-mail ou les communications unifiées, et quelques implémentations à faible criticité avec des applications à faible intégration telles que le CRM, le marketing, la collaboration ou des services Web liés à l’événement ou les sites de vidéo.

2011 sera certainement une année d’adoption « tactique » de IaaS et, dans une moindre mesure, SaaS (Software as a Service) ou PaaS (Platform as a Service) par les grandes entreprises, avec deux principaux éléments déclencheurs : le besoin de nouvelles infrastructures pour les projets nouveaux et le renouvellement de contrat d’infogérance pour l’hébergement.

Nous pensons que les Cloud privés internes ne seront jamais vraiment une réalité : la plupart des entreprises n’ont ni les compétences, ni les ressources, ni les capacités d’investissement à long terme pour construire un « vrai » Cloud pour leurs infrastructures. Au lieu de cela, ils vont acheter un espace privé aux fournisseurs de Cloud ou demander de le construire en fonction de besoins spécifiques.

Enfin, le secteur public – bien que toujours dans un premier stade – montre un intérêt important pour rationaliser de grandes infrastructures à travers les Cloud de type PPP (Point to Point Protocol).

Quel est le changement pour les équipes informatiques ?

Au fil du temps, le Cloud Computing va profondément transformer l’IT. Comme toute révolution, le changement clé sera la gouvernance avec trois aspects principaux :

  • la gouvernance des budgets IT et des décisions stratégiques : si les DSI ne parviennent pas à prendre la main sur le Cloud Computing, les chefs d’entreprise vont tout simplement faire ce qu’ils ont fait avec les PC, 20 ans auparavant : acheter des services IT dans le Cloud dans le dos des DSI. Les équipes IT doivent finir ce qu’ils ont commencé ces dernières années, ce repositionnement de gourous de la technologie en un « partenaire privilégié » des métiers. Un bon début est d’engager l’entreprise à développer une stratégie Cloud ;
  • la gouvernance des services IT : l’avènement de l’ITIL (Information Technology Infrastructure Library), il y a quelques années, a marqué le début de la mentalité « service ». À l’heure actuelle, une grande DSI a généralement 200 à 2 000 applications liées à 100-250 entrées de services d’infrastructure dans son catalogue tous livrés +/- 50 % en interne et par 5 à 10  fournisseurs principaux de services. Comme IaaS/SaaS progresse et déclenche une nouvelle flambée de solutions innovantes, la complexité de ce « multi-sourcing » modèle va exploser. Les bonnes nouvelles sont qu’avec ces solutions plus matures et plus industrielles, il pourrait y avoir moins d’incidents et interruptions de service pour chaque service. Toutefois, cela ne fera que réduire le problème, pas le résoudre. Les équipes IT doivent la considérer comme une de leurs compétences principales à développer, déployer et gérer un modèle solide et normalisé des prestations de services ;
  • la gouvernance de la valeur et de l’innovation : avec des cerveaux IT/IS libérés de la corvée quotidienne de la mise en œuvre et la gestion des services, il est grand temps de se concentrer sur quelque chose de beaucoup plus important : maximiser la valeur que les organisations tirent de leurs services IT (dans le Cloud). Nous ne parlons pas seulement d’innovation ni de nouvelles fonctionnalités, mais d’un retour positif du client en s’assurant que ces solutions sont à effet de levier. Cela nécessitera évidemment des nouvelles compétences. Pouvons-nous vous suggérer de commencer à embaucher quelques diplômés d’école de commerce comme « chefs de produit » pour compléter votre « gestionnaires de services » ?

Passer au Cloud Computing ne s’improvise donc pas. Il est nécessaire de préparer cette petite révolution et de définir une roadmap personnalisée, qu’il conviendra de suivre pas à pas pour s’assurer de la réussite du projet. Pour ce faire, il faudra nécessairement encadrer la démarche et s’appuyer sur des pratiques telles que l’eSCM (Sourcing Capability Model). Àn’en pas douter, les projets de Cloud Computing seront au centre des préoccupations des DSI dans les prochains mois.

par Renaud Brosse, co-fondateur de Tim Spirit
 

Chez HABA, le picking vocal est interfacé avec le WMS

L’évolution du marché du jouet impacte la nature des commandes. Celles-ci sont plus souvent hétérogènes. Encore récemment leur mise en stock était réalisée sur des emplacements statiques. Aujourd’hui leur gestion est devenue plus complexe : suppression du papier, optimisation du chemin de préparation et gestion dynamiques des emplacements. « Nous avons choisi d’aller plus loin que la gestion sans papier des commandes, en dotant nos opérateurs d’un système de prélèvement vocal afin qu’ils puissent conserver leurs mains libres et manipuler les articles sans difficulté. Mais aussi parce que, sur les articles destinés à la revente, il est impossible d’ajouter des étiquettes code-barres », précise Christian Müller, Responsable process et informatique au sein de la division logistique du groupe HABA, premier producteur et distributeur allemand de jouets en bois, jeux et mobilier pour jardins d’enfants et collectivités

Les experts du groupe HABA et leur partenaire informatique, Dr. Thomas und Partner GmbH & Co.KG (TuP) ont travaillé ensemble au développement d’un WMS (Warehouse Management System) : Habermaaß-Logistik-System (HLS). L’entreprise TuP a piloté le projet logistique depuis le planning jusqu’à la formation en passant par l’implémentation et la production. L’entreprise GOD Barcode Marketing mbH était, quant à elle, responsable de l’infrastructure et du matériel déployés pour le passage au zéro papier comprenant  le réseau sans fil, des PDA durcis de type Pidion BIP-5000II, des casques sans fil BlueVQL et le système de reconnaissance et de synthèse vocale de Voice-Insight.

Des PDA pour tout process vocal interfacé avec le WMS

Rainer Wanner, Directeur Technique chez GOD BM souligne que, « Lors du développement des clients vocaux, en partenariat avec HABA et TuP, nous nous sommes attachés à créer des applications optimisées sur la base du process du client, pour lui offrir à la fois une performance de prélèvement très élevée et d’excellents scores au niveau de la reconnaissance vocale. Nous avons joué sur tous les registres : vérification vocale sur code de contrôle, compte à rebours sur les quantités à prélever, passages à vide, confirmation optionnelle des références articles et de leur description et j’en passe ! »

Les avantages offerts par cette combinaison sont :

  • l’utilisation des PDA aussi bien pour des opérations de prélèvement que pour tout autre process vocal interfacé avec le WMS HLS ;
  • la liberté de mouvement procurée par les casques Bluetooth. La combinaison du Pidion avec l’adaptateur Bluetooth sur le chariot, ainsi qu’un casque sans fil procure à l’opérateur une liberté de mouvement inégalée et lui permet de s’éloigner jusqu’à 10m du chariot ;
  •  le logiciel de reconnaissance vocale multi-locuteurs, qui ne requiert pas de paramétrage initial selon l’opérateur et est immédiatement disponible à l’usage. « Il y a vraiment peu de commandes à apprendre : démarrer, arrêter, complet. Et puis, la voix du système est claire, très facile à comprendre » précise Caroline Meyer, opératrice chez HABA.

Le picking vocal a été mis en service fin 2010 et, après quelques semaines, les résultats attendus, tant en termes de qualité que de performances, étaient au rendez-vous. 

Des synchrotrons pour visualiser les liaisons chimiques

Comme chacun sait, le vivant est essentiellement basé sur la chimie du carbone et de l’oxygène. La distribution tridimensionnelle de ces éléments et leurs liaisons chimiques ont été jusqu’à maintenant très difficiles à étudier lorsqu’ils étaient enfouis profondément à l’intérieur de matériaux beaucoup plus denses. C’est le cas, par exemple, des inclusions d’eau à l’intérieur d’échantillons de roches martiennes, des fossiles conservés dans de la lave durcie ou de certains minéraux ou composants chimiques au coeur des météorites.

La tomographie en rayons X, très utilisée en médecine et en science des matériaux, est sensible à la forme et la texture d’un échantillon donné, mais ne peut pas révéler l’état chimique à l’échelle macroscopique. Par exemple, le graphite et le diamant sont tous les deux composés de carbone pur, mais leurs propriétés sont radicalement différentes car les liaisons chimiques entre atomes de carbone ne sont pas du tout les mêmes. Arriver à distinguer les différents types de liaison chimique serait très appréciable dans des domaines variés, couvrant l’ingénierie et la recherche en physique, chimie, biologie ou géologie.

Une équipe internationale de scientifiques de  l’Académie de Finlande, de l’Université de Helsinki (Finlande) et de l’European Synchrotron Radiation Facility (ESRF), à Grenoble, vient de développer une technique qui pourrait révolutionner l’analyse chimique d’échantillons rares comme des météorites ou des fossiles en permettant de visualiser les liaisons chimiques.

Des applications industrielles en vue

Pour cela, les chercheurs utilisent des rayons X extrêmement brillants produits dans un synchrotron. Ils ont ainsi réussi à voir la distribution des liaisons chimiques entre atomes de carbone cachés profondément dans un matériau opaque, ce qui était impossible auparavant sans détruire ce matériau.

« J’aimerais maintenant tester cette technique sur des roches martiennes ou lunaires. Notre nouvelle technique permet non seulement de voir quels éléments sont présents dans les inclusions mais de comprendre à quelle molécule ou cristal ils appartiennent. Si on trouve du carbone, on peut dire si c’est du graphite, du diamant ou une autre forme de carbone. Imaginez ce que serait la découverte de minuscules inclusions d’eau ou de diamant profondément enfouies à l’intérieur de roches martiennes », s’enthousiasme Simo Huotari de l’Université d’Helsinki.

La technique développée récemment dont les résultats ont été publiés dans la version en ligne du journal Nature Materials, permettra également une nouvelle compréhension de la structure moléculaire de toutes sortes de matériaux allant des nanomatériaux fonctionnels aux piles à combustible ainsi qu’à des nouveaux types de batteries.

Les bulles de champagne… Toute une science !

Comme sans doute beaucoup d’entre vous, j’ai commencé l’année 2011 en prenant un verre de champagne… Ou peut-être deux, je n’ai pas compté.

Alors que je savourais ce que l’on appelle le « Dieu des vins » ou encore, le « vin des dieux », mes pensées se sont tournées vers le scientifique Gérard Liger-Belair. Professeur à l’Université de Reims, ce dernier consacre ses recherches à l’étude des bulles de champagne. Après avoir lu ses publications aux titres évocateurs comme « Nucléation, ascension et éclatement d’une bulle de champagne » (Annales de physique 2006 31 1-133), on comprend davantage pourquoi boire un verre de champagne est un plaisir non seulement gustatif mais aussi visuel.

Les bulles de champagne sont générées par du gaz carbonique (CO2) dissous dans le liquide. Le CO2 est produit naturellement à partir d’une deuxième fermentation déclenchée par l’ajout au vin de sucre et de levure. Dans la méthode champenoise, cet ajout se fait dans chaque bouteille individuellement alors que dans les autres vins mousseux, cette seconde fermentation se fait à grande échelle dans des cuves, ce qui explique la différence de qualité.

Lorsque la bouteille est bouchée, le CO2 est sous pression et demeure donc dissous. Lorsque l’on ouvre la bouteille, la pression est relâchée et le gaz s’échappe sous forme de bulles. Celles-ci se forment à partir de « pépinières de bulles » dispersées sur les parois du verre dans lequel est versée la boisson. Ces sites de production (nucléation) ne sont pas associés à des imperfections à la surface du verre, comme on le croyait auparavant. Les travaux du professeur Liger-Belair suggèrent plutôt que des impuretés s’étant fixées au verre sont à l’origine de ces pépinières de bulles. Ces impuretés pourraient provenir, par exemple, des particules de cellulose dans l’air ou du chiffon utilisé pour essuyer les verres. Pendant la formation d’une bulle, le CO2 dissous migre du liquide vers d’infiniment petites poches de gaz. Au fur à mesure que le phénomène se produit, la taille de la bulle augmente, ainsi que sa flottabilité. Finalement, la bulle se détache de la paroi, ouvrant la voie à la formation d’une autre bulle.

La cinétique de la formation de bulles dépend des quantités de CO2 dissoutes. Dans le cas du champagne, où la concentration de CO2 est trois fois celle de la bière, la fréquence de production est de l’ordre de 30 bulles par seconde par site. Dans la bière, même dans le cas des pépinières à bulles les plus actives, cette fréquence ne dépasse pas 10 bulles par seconde.

On peut remarquer que, au fur et à mesure que la bulle s’approche de la surface, sa taille augmente. Contrairement à ce que l’on pourrait imaginer, ceci n’est pas causé par une diminution de la pression (celle-ci varie peu pendant le trajet de la bulle), mais encore une fois par la migration de molécules de CO2 dissoutes dans le liquide vers la bulle. En chemin, la bulle emmagasine également des molécules de saveur et d’arôme dissoutes dans le champagne. Quand la bulle arrive à la surface, elle explose et les molécules projetées vont stimuler les sens de l’amateur.

Pour les connaisseurs, la qualité d’un champagne dépend de la taille de ses bulles. Les meilleurs champagnes sont ceux qui produisent les bulles les plus fines. Il y a plusieurs explications scientifiques derrière ce phénomène. Tout d’abord, plus les bulles sont petites, plus elles sont nombreuses et plus elles permettent aux molécules sensorielles de se libérer. Un verre de champagne peut potentiellement libérer plus de 10 millions de bulles ! Or, les travaux de chercheurs des Instituts nationaux de la santé des États-Unis suggèrent qu’un autre effet serait peut-être plus important. Dans un article publié dans Science, une équipe dirigée par Charles Zuker a démontré que les bulles de CO2 sont capables de stimuler des récepteurs sensibles à la taille et à la pression des bulles. Ces récepteurs transmettent au cerveau des signaux somatosensoriels qui suscitent le même genre de sensations que celles associées, entre autres, au sens du toucher. La recherche suggère que les bulles plus petites sont plus faciles à capter par les récepteurs somatosensoriels et, par conséquent, font en sorte que le champagne est plus apprécié des amateurs.

Malheureusement, jusqu’à présent, on n’est pas encore arrivé à contrôler la taille des bulles. D’après le professeur Liger-Belair, on pourrait éventuellement y arriver en étudiant la nature des composés chimiques (protéines, minéraux, glucides) dissous dans le liquide. L’ironie dans tout cela est que Liger-Belair admet ne pas être particulièrement friand du goût du champagne. Il est seulement passionné par l’étude de ses bulles !

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

News Environnement / Sécurité / Energie de mai

Qualité de l’air intérieur : Les produits de construction et de décoration affichent leurs performances en matière de santé environnementale

Nous passons en moyenne 70 à 90 % de notre temps dans des espaces clos, en ignorant souvent que cet environnement est également pollué. Notre intérieur contient en effet de nombreux produits nous exposant à des substances irritantes, allergisantes voir cancérogènes. Les peintures, isolants, cloisons, revêtements de sols, vernis, colles, adhésifs émettent des polluants de type formaldéhyde, toluène, styrène, etc., qui présentent des risques pour la santé. Une étude de l’Observatoire de la qualité de l’air intérieur, menée dans 567 logements français, a montré que pour 9 % d’entre eux, les concentrations de ces polluants étaient élevées.

Afin de lutter contre ce problème de santé publique, Nathalie KOSCIUSKO-MORIZET, ministre de l’Écologie, du Développement durable, des Transports et du Logement Christine LAGARDE, ministre de l’Économie, des Finances et de l’Industrie et Xavier BERTRAND, ministre du Travail, de l’Emploi et de la Santé, ont signé un décret imposant le premier étiquetage en matière de santé environnementale, pour les produits de construction et de décoration. Ainsi, à partir du 1er janvier 2012, chaque consommateur pourra choisir, dans les rayons, les produits induisant le plus faible impact possible sur l’air intérieur de son foyer.

L’étiquette indiquera, de manière simple et lisible, le niveau d’émission de polluants volatils. Elle constituera pour le consommateur un nouveau critère de sélection en fonction de son usage : chambre pour les enfants, pièce de vie commune…

Une note allant de A+ (très faibles émissions) à C (fortes émissions) et le schéma d’une maison contenant un nuage de polluants, permettront d’identifier rapidement la qualité du produit. « Pour la première fois, une étiquette va permettre d’informer les consommateurs, donc d’orienter leurs achats vers des produits moins nocifs pour la qualité de leur air intérieur. La publication de cet arrêté constitue un signal fort vis à vis des industriels, afin de les inciter à faire évoluer leur production vers une offre plus respectueuse de la santé », précise Nathalie Koscuisko-Morizet.

Innovation photovoltaïque : Q-Cells lance une nouvelle génération de cellules

Fort de son expertise dans la production de cellules photovoltaïques, Q-Cells développe et met en place depuis plus de 10 ans les standards industriels relatifs à la puissance, la fiabilité, la dimension, l’esthétisme et les processus de fabrication.

Pour poursuivre cet objectif d’innovation constante, Q-Cells introduit aujourd’hui sur le marché français trois nouvelles cellules photovoltaïques : les cellules monocristallines carrées Q6LMXP3 (jusqu’à 18,8% de rendement), les cellulesmulticristallines Q6LPT3-G2 et Q6LTT3-G2 (jusqu’à 17,4% de rendement).

Les nouvelles cellules photovoltaïques Q-Cells possèdent les caractéristiques suivantes :

  • une résistance série réduite grâce à un nouveau design avec 86 fingers et 3 busbars ;
  • un tri positif +0,2 / -0% ;
  • une technologie anti PID (APT) qui évite la dégradation des rendements dans les premiers mois d’activité, due aux tensions élevées du système et à la dispersion du courant dans le module ;
  • une protection contre les points chauds pour une sécurité anti-feu et une efficacité accrue (Hot Spot Protect – HSP) ;

La technologie de marquage laser, « Traceable Quality », brevetée par Q-Cells, présente sur chaque cellule et permettant une traçabilité et une sécurité contre les falsifications à toutes les étapes de la chaîne de valeurs photovoltaïque, depuis le wafer de silicium, jusqu’aux grandes centrales solaires, en passant par les cellules et les modules

Investissements d’avenir : Lancement de l’appel à manifestations d’intérêt « Captage, transport, stockage géologique et valorisation du CO2 »

L’appel à manifestations d’intérêt (AMI) publié par l’ADEME doit contribuer à diminuer le coût du captage du CO2 et la dépense énergétique liée à cette activité, – garantir la flexibilité des procédés de captage, – valider la faisabilité technique du stockage géologique du CO2, – valider de nouvelles voies de valorisation du CO2 capté sur des sources fixes d’émissions, – maîtriser les impacts environnementaux et sanitaires du captage, du transport, du stockage géologique et de la valorisation du CO2.

Les technologies visées dans le cadre de cet AMI pourront donner lieu à des expérimentations sous la forme de : 

  • démonstrateurs dédiés aux procédés de captage de 2ème génération (par exemple : solvants de seconde génération pour la postcombustion, boucle chimique pour l’oxycombustion, voies cryogéniques…), plateformes technologiques permettant de tester, de mutualiser et de développer différents outils, techniques (métrologie, monitoring, …), ainsi que des méthodologies pour le transport par canalisation et le stockage géologique du CO2 en aquifères salins profonds4 ou gisements de pétrole et de gaz naturel épuisés.

  • démonstrateurs dédiés aux voies de valorisation du CO2 sans transformation (fluide dans l’industrie) ou par transformation chimique (synthèse de produits chimiques de base, des produits à valeur énergétique ou des matériaux inertes) ou encore par transformation biologique (synthèse de produits à valeurs ajoutées, production d’énergie, traitement de l’eau, …).

La technologiques de ces expérimentations, d’en réaliser les bilans économiques et énergétiques, les études d’impacts environnementaux et sanitaires, d’accélérer leur mise sur le marché et enfin d’évaluer leur acceptabilité sociale.

Cet AMI rentre dans le cadre de l’action « démonstrateurs et plateformes technologiques en énergies renouvelables et décarbonées et chimie » du Programme d’Investissements d’Avenir et dont l’enveloppe budgétaire est de 1,35 milliard d’euros.

Le montant définitif consacré à cet appel à manifestations d’intérêt dépendra de la qualité des projets retenus.

Zoom sur l’Allemagne

Conception d’une voiture électrique à 5.000 euros à l’Université technique d’Aix-la-Chapelle

Une équipe constituée de PME, designers, développeurs et constructeurs travaille sous la conduite d’Achim Kampker de l’Université technique d’Aix-la-Chapelle (RWTH, Rhénanie-du-Nord-Westphalie) à la conception particulièrement innovante d’un véhicule automobile électrique. « Notre but est d’éclairer une nouvelle facette de l’électromobilité qui n’a jusqu’à présent guère été prise en considération », explique Achim Kampker, à la tête de la chaire de management de production au laboratoire des machines-outils (WZL).

« En effet, nous intégrons d’une part de manière ciblée des entreprises de taille moyenne et nous les qualifions pour des étapes hautement complexes de développement et production à travers leur collaboration au sein du consortium. D’autre part, le savoir acquis à travers ce projet pourra être transféré à toute l’économie, notamment aux grands constructeurs automobiles », décrit le même directeur de StreetScooter GmbH. Selon lui, la compétitivité des sites de production allemands s’en trouvera alors renforcée.

La stratégie de développement du StreetScooter repose sur le prix de vente du véhicule, fixé dès le début du projet à 5.000 euros pour une production en une série de 2.000 exemplaires. Afin de parvenir à un tarif aussi compétitif, il est prévu de mettre en place un système de location de batteries, le composant le plus onéreux des voitures électriques à ce jour. En fonction de leurs besoins, les acheteurs de ce véhicule urbain à quatre places modulables auront ainsi la possibilité de louer deux ou trois batteries, disposées dans le soubassement de la voiture et possédant chacune une autonomie de 45 km. La construction des cellules lithium-ions est assurée par une entreprise de taille moyenne de Lübeck (Schleswig-Holstein).

Avec une tension de batterie s’élevant à 60 V, aucun danger n’est à craindre pour les équipes de secours en cas d’accident du StreetScooter, et le personnel des ateliers de réparation n’aura pas besoin de formation particulière à cet effet. De plus, un système intelligent de management thermique sera installé afin de garantir une température agréable à l’intérieur de l’habitacle. En effet, en cas de température extérieure très basse ou très élevée, les systèmes de chauffage ou de climatisation habituels risqueraient de consommer autant d’énergie qu’il en est nécessaire pour le fonctionnement du système de propulsion électrique.

Disposant de deux airbags frontaux, des systèmes ABS et ESP, le StreetScooter respecte les standards de sécurité et de confort. La chaîne de montage innovante de ce véhicule électrique sera composée de 20 stations au lieu de 100 habituellement, participant ainsi à la réduction des coûts de production du véhicule.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66745.htm

Construction d’une usine pilote de batteries lithium-ion à Ulm

Anette Schavan, Ministre fédérale de l’enseignement et de la recherche (BMBF), a convenu avec le réseau de compétences KLiB [1] d’un programme de construction d’une usine pilote de batteries lithium-ion à Ulm (Bade-Wurtemberg). Cet accord s’inscrit dans les objectifs de la Plateforme Nationale pour l’Electromobilité (NPE) [2] mise en place en mai 2010 à l’initiative de la Chancelière Angela Merkel. »Des batteries performantes et à un coût abordable sont une condition centrale pour les véhicules électriques destinés à la vie quotidienne. La future usine pilote à Ulm est un grand pas en direction de l’électromobilité », a déclaré Anette Schavan. Le BMBF finance ce projet à hauteur de 45,2 millions d’euros dans le cadre des fonds débloqués par le second plan de relance national.

Avec l’institut Helmholtz pour la recherche en batteries fondé le 1er janvier 2011 [3] et le projet de construction de l’usine-pilote de batteries lithium-ion, Ulm se positionne ainsi en centre spécialisé dans le développement des batteries. Le principal enjeu de la future usine consistera au transfert de nouvelles techniques de production en matériaux, composants et systèmes vers un processus industriel de fabrication en série de batteries pour les véhicules électriques. Les 25 entreprises et organismes membres du KLiB, parmi lesquels figurent BASF, Deutsche Accumotive, VARTA, Evonik, SGL Group et le ZSW veulent dans un premier termps débuter la planification de la construction de l’usine pilote au courant de l’année 2011.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66784.htm

Lancement officiel du premier parc éolien offshore en mer baltique

L’ouverture du premier grand parc éolien en mer baltique allemande tombe à point nommé pour la Chancelière Angela Merkel qui n’aurait su manquer l’opportunité, en cette période de débats face à la sortie accélérée du nucléaire, de souligner l’engagement du gouvernement dans les énergies renouvelables. C’est donc symboliquement qu’elle a déclenché le fonctionnement de ce nouveau parc nommé « Baltic 1 ». Celui-ci s’étend sur une surface de 7km2, comprend 21 mats de 70m de haut et dont le diamètre du rotor mesure 93m et devrait fournir 185GWh par an.

L’Allemagne avait jusqu’à présent peu développé son potentiel offshore. Les entreprises étaient en effet réticentes à investir dans cette technique. Le gouvernement avait donc subventionné le test de 12 turbines mené par EWE, E.on et Vattenfall l’année dernière, mais celles-ci fonctionnaient « plus ou moins à la demande du gouvernement ». C’est pourquoi Baltic 1 est le premier parc « commercial », puisqu’il a été construit sans subvention par l’entreprise EnBW.

Le projet Baltic 2 serait déjà en route, et la construction de 80 mats d’éolienne devraient démarrer en 2011. Le groupe EnBW aurait investi 1.2 milliard d’euro dans ce projet.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66744.htm

Par S.B

 

LES BILANS :

RFID : ce que dit la loi

Qu’est-ce qu’une donnée personnelle ?

Selon la loi informatique et libertés, une donnée personnelle désigne « toute information relative à une personne physique identifiée ou qui peut être identifiée, directement ou indirectement, par référence à un numéro d’identification ou à un ou plusieurs éléments qui lui sont propres ». Cette notion est large : elle comprend un nom et un prénom sur une carte de fidélité ou encore le numéro d’un produit figurant sur le tag RFID lié à une base de données clients. Le critère essentiel est qu’il puisse être possible de (re)constituer un lien entre une information et une personne.

Que se passe-t-il lorsque le numéro de saisie n’est pas relié à la carte de fidélité par exemple ?

Ce cas comprend notamment un simple numéro inscrit dans le tag RFID d’un jeton de caddie, ce qui permet de suivre le parcours-client dans un magasin et de connaître les produits achetés. D’après un rapport présenté par un commissaire de la Cnil (Commission nationale de l’informatique et des libertés) en 2003, le numéro de saisi constitue une donnée personnelle « même s’il s’agit de données ne portant que sur des objets, dès lors que la technologie RFID permet d’instituer un maillage dense d’analyse des milliers d’objets qui entourent une personne ». Le groupe Article 29, qui regroupe l’ensemble des 27 Cnil de l’Union européenne, s’est prononcé dans le même sens en 2005.

Que faut-il faire lorsque l’on collecte et traite des données personnelles ?

D’après la loi informatique et libertés, qui transpose la directive européenne 95/46/CE Protection des données, il faut en règle générale déclarer son traitement de données personnelles auprès de la Cnil et préciser les finalités poursuivies par le traitement (ou si vous préférez les usages, les objectifs). Ce principe de finalité entraîne des conséquences importantes. D’une part, seules les données nécessaires pour atteindre les finalités peuvent être collectées et utilisées. Si un numéro suffit pour repérer une personne, il faut le créer car son utilisation sera moins attentatoire à la vie privée que l’enregistrement d’un nom. D’autre part, les données ne peuvent pas servir à atteindre un objectif autre que celui déclaré auprès de la Cnil : si cet objectif est la sécurité, les données personnelles ne doivent pas être utilisées à des fins de marketing. Enfin, le responsable de traitement doit préciser combien de temps les données seront conservées. La durée de conservation ne doit pas excéder celle nécessaire à la réalisation des finalités.
Autre point important : dans la plupart des cas, il faut obtenir le consentement de la personne pour légitimer la collecte d’informations (il existe cependant des dérogations à ce principe). Ce consentement doit notamment être « spécifique », c’est-à-dire être donné pour une finalité particulière.

Qu’est-ce que l’étude d’impact ?

La recommandation de la Commission européenne du 12 mai 2009 précise que tout exploitant doit évaluer les conséquences de la mise en œuvre de son application RFID sur la protection des données personnelles et de la vie privée. Il doit notifier l’étude d’impact six semaines avant le déploiement de son application à « l’autorité compétente ». En France, on suppose que cette autorité sera la Cnil ou le correspondant informatique et libertés, à savoir une personne désignée par l’entreprise elle-même pour s’assurer que la loi est bien appliquée. Ces correspondants peuvent être soit internes, soit externes à l’entreprise.

Quels sont les droits du consommateur ?

Le consommateur dispose d’un droit d’information, notamment sur l’existence même de puces RFID sur les produits ou leurs emballages, sur la présence de lecteurs, sur le fait que les tags diffusent une information sans que la personne se livre à une action intentionnelle, sur les finalités poursuivies, etc. Bref, il doit bénéficier de toute information permettant de traiter « loyalement » les données. Par ailleurs, toute personne dispose d’un droit d’accès à ses données personnelles. Elle a aussi pouvoir de les faire rectifier et de les mettre à jour. En pratique, il faut donc mettre des lecteurs à sa disposition pour lire les puces et savoir ce qu’elles contiennent. Enfin, le consommateur a le droit de s’opposer au traitement de ses données ce qui pose la question de la désactivation du tag.

C.L

 

RFID : quels risques pour les données ?

Les radio-étiquettes EPC-Gen2 offrent l’option de réinscrire, dans leur mémoire interne, des informations transmises par les lecteurs RFID. Même si cette option d’écriture est peu exploitée dans les applications actuelles de la technologie EPC (probablement dû aux faibles mesures d’authenticité), elle sera très utilisée dans les nouvelles applications EPC. La possibilité de pouvoir réinscrire la mémoire des étiquettes permettra en effet des extensions très utiles comme par exemple le stockage d’informations complémentaires sur les objets en temps réel (la localisation des objets, l’estampillage, la température des objets…).

Il est donc important d’analyser le risque d’une attaque d’altération des données stockées par les étiquettes EPC-Gen2, lorsqu’elles sont accessibles en mode écriture à partir d’un canal sans fil faiblement protégé.

Risque associé à une attaque d’altération des données

Pour évaluer la possibilité, pour un attaquant, de modifier les informations stockées dans une étiquette accessible en mode écriture, nous nous basons sur la situation suivante. Nous supposons que cette opération est accessible à partir d’un canal faiblement protégé. La motivation de l’attaquant est considérée comme étant modérée, car son service malveillant peut être vendu à des organisations intéressées à perturber les opérations d’approvisionnement du système ciblé. Pour mettre en place cette attaque, nous imaginons qu’il obtient le code PIN (Personal Identification Number) associé à la routine d’écriture (dans le cas où cette option n’a pas été bloquée par l’administrateur du système).

La figure 2 (étape 1) rappelle, de façon simplifiée, les étapes du protocole de communications pendant l’exécution d’un processus d’interrogation entre un lecteur et une étiquette. L’étape 1 représente la réalisation d’une requête de type select. Lorsque l’étiquette reçoit la requête, elle renvoie une chaîne aléatoire de 16 bits que l’on désigne par RN16. Cette chaîne aléatoire est stockée temporairement dans la mémoire de l’étiquette, et renvoyée plus tard par le lecteur dans un accusé de réception (voir étape 3). Elle sert à vérifier l’accusé de réception fourni par le lecteur. La chaîne de 16 bits de l’accusé de réception doit correspondre à celle stockée temporairement dans la mémoire. Si l’accusé de réception est correct, l’étiquette envoie finalement, à l’étape 4, son identifiant EPC et reste disponible pour exécuter d’autres actions.

original

La figure 2 représente les étapes suivantes du protocole pendant la demande et l’exécution de la routine d’accès pour écrire dans la mémoire de l’étiquette.

L’attaque étape par étape

En utilisant l’identifiant RN16 obtenu précédemment (étape 2, figure 2), le lecteur demande à l’étape 5 un descripteur d’opération (que l’on désigne comme Handle à l’étape 6). Ce descripteur est une nouvelle séquence aléatoire de 16 bits qui sera utilisée par le lecteur et l’étiquette pendant toute la durée de l’opération de demande et d’exécution d’écriture. En effet, toute commande demandée par le lecteur à l’étiquette doit inclure ce descripteur, en tant que paramètre dans la commande. De la même manière, tous les accusés de réception envoyés par l’étiquette au lecteur doivent être accompagnés de ce descripteur. Une fois que le lecteur a obtenu le descripteur à l’étape 6, il répond à l’étiquette avec une copie de cette séquence, comme accusé de réception.

original

Pour continuer l’exécution de la routine d’accès, le lecteur doit communiquer le mot de passe de 32 bits associé. Ce mot de passe est en fait composé de deux séquences de 16 bits, désignées dans la figure 2 par PIN31:16 et PIN15:0. Afin de protéger la communication de ce mot de passe, le lecteur obtient aux étapes 8 et 12, deux séquences de 16 bits désignées dans la figure 2 par RN16′ et RN16 ». Les séquences RN16′ et RN16 » sont utilisées par le lecteur pour cacher le mot de passe pendant l’envoi vers l’étiquette. À l’étape 9, le lecteur masque les premiers 16 bits du mot de passe en appliquant une opération XOR (désignée par le symbole + cerclé dans la figure 2) avec la séquence RN16′. Il envoie le résultat à l’étiquette, qui renvoie au lecteur un accusé de réception avec le descripteur Handle à l’étape 10. De la même façon, le lecteur masque les derniers 16 bits du mot de passe en appliquant un XOR avec la séquence RN16 », et envoie le résultat à l’étiquette. Finalement, l’étiquette renvoie au lecteur un accusé de réception avec le descripteur Handle à l’étape 14. Ce dernier confirme en plus l’exécution avec succès de l’opération d’accès et conduit à l’écriture de l’étiquette (étapes 15 et 16).

Nous pouvons observer, à partir de l’exemple précédent que, même s’il existe des difficultés pour retrouver le code PIN qui protège la routine d’écriture, il est théoriquement possible de le faire. Il suffit d’intercepter les séquences RN16′ et RN16″, aux étapes 8 et 12, et de les appliquer avec l’opération XOR au contenu des étapes 9 et 13.

Les difficultés techniques pour mettre en œuvre cette attaque sont solubles. La probabilité de la menace, selon la méthodologie présentée plus haut, même sans accès physique aux composants RFID, doit être donc considérée comme étant possible. Concernant l’impact de cette menace, nous estimons qu’il est potentiellement élevé, en fonction de l’organisation visée. Par exemple, dans le contexte d’une chaîne d’approvisionnement des marchandises pharmaceutiques, l’altération des données dans la mémoire des étiquettes peut être très dangereuse. La perturbation temporaire du fonctionnement de la chaîne peut conduire à des erreurs dangereuses : la livraison des médicaments avec des données erronées, ou livrés à des patients non concernés, peut conduire à la prise par un patient d’une mauvaise médication. Dans ces conditions, et selon notre méthodologie, nous évaluons l’impact potentiel au niveau élevé.

Cette combinaison de probabilité de se produire et d’impact élevé nous conduit à conclure que le risque associé à cette menace est critique. La menace doit être traitée par des contre-mesures appropriées afin d’améliorer la sécurité de l’architecture EPCglobal.

 

M.B

Les composants RFID sont-ils vulnérables ?

L’architecture EPCglobal est une extension du système des codes barres. Il s’agit d’une adaptation des technologies Internet au secteur de la logistique et de l’approvisionnement. Au niveau inférieur de cette architecture, on trouve l’utilisation des radio-étiquettes (puces RFID) collées aux objets avec lesquels les autres composants de l’architecture dialoguent. Ces radio-étiquettes sont des dispositifs passifs qui obtiennent leur énergie à partir des interrogations effectuées par des lecteurs RFID. Chaque radio-étiquette contient un identifiant unique, l’Electronic product code (EPC), qui permet d’identifier l’objet auquel elle est associée dans la chaîne de production. Cet identifiant unique est utilisé par les composants de haut niveau de l’architecture pour :

  • nommer l’objet ;
  • et obtenir de plus amples informations à son sujet à partir de bases de données distribuées dans l’Internet (par exemple, en utilisant des services Web).

Cette technologie recèle toutefois un problème majeur. Le canal de communication sans fil utilisé entre les composants du niveau RFID (radio-étiquettes et lecteurs) de l’architecture EPCglobal, basée sur l’utilisation du standard EPC-Gen2 (EPC Class-1 Generation-2 UHF Air Interface) [1], est faiblement sécurisé. Mis à part l’utilisation d’un Contrôle de Redondance Cyclique (CRC) sur les données envoyées et d’un blindage aléatoire faible de quelques données importantes (par exemple, mots de passe pour l’exécution d’opérations spéciales, comme l’écriture ou la désactivation des radio-étiquettes), aucune mesure forte de sécurité n’est mise en œuvre à ce niveau. Il est donc raisonnable de supposer que la plupart des attaques, à l’endroit de l’architecture EPCglobal, essaieraient de cibler le niveau RFID (radio-étiquettes et lecteurs).

Dans ce contexte, quel est le risque associé à la menace à l’authenticité du service d’échange de données entre radio-étiquettes et lecteurs ? Tel est l’objet de notre analyse [2] pour laquelle nous supposons que des attaquants potentiels n’ont pas d’accès physique aux composants et que d’autres mécanismes de sécurité existent dans l’organisation, tels qu’un contrôle d’accès physique ou la présence de caméras de surveillance.

Méthodologie

La méthodologie que nous utilisons repose sur l’identification des menaces en fonction de :

  • la probabilité de se produire ;
  • l’impact possible sur le système ciblé ;
  • et le risque qu’elles peuvent représenter pour la victime potentielle de l’attaque.

Cette dernière est basée sur une proposition de l’European Telecommunications Standards Institute (ETSI) [3], mais légèrement modifiée afin de faire ressortir les menaces réelles envers les applications de réseaux sans fil [4].

La probabilité pour que survienne une menace (voir figure 1(a)) est déterminée par la motivation d’un attaquant et les difficultés techniques à surmonter pour la mettre en œuvre. Par ailleurs, le risque associé à une menace (voir figure 1(b)) est déterminé par la probabilité qu’elle survienne ainsi que par l’impact potentiel sur le système ciblé. Ce risque est classé comme mineur si la probabilité pour que survienne une menace est faible, ou si son impact sur le système est également faible. Par contre, le risque est classé comme majeur si la probabilité qu’elle survienne est possible et l’impact potentiel sur le système est moyen. Finalement, une menace est considérée comme critique si elle est probable et son impact est moyen ou élevé ; ou bien si son risque est possible et son impact est élevé.

original

Menace à l’authenticité

Commençons par étudier la motivation et les difficultés techniques de la menace à l’authenticité fondée sur une attaque potentielle d’usurpation d’identité. Nous partons de l’hypothèse que l’utilisation d’un composant RFID non légitime, un lecteur par exemple, peut offrir à des attaquants des bénéfices potentiels s’ils arrivent à vendre leur service malveillant. On peut supposer que ce service soit vendu à une organisation concurrente ou à un voleur qui cherche à réaliser un inventaire non autorisé de la chaîne d’approvisionnement. La motivation d’un attaquant pour exécuter cette attaque est donc forte.

Les difficultés techniques quant à elles, sont solubles. La figure 2 représente les étapes du protocole l’EPC-Gen2 pendant l’exécution d’un processus d’interrogation entre un lecteur et une radio-étiquette.

 

Au cours de l’étape 1, le lecteur envoie une requête à l’étiquette avec l’une des options suivantes : sélection, inventaire, ou accès. La figure 2 représente la réalisation d’une requête de type inventaire. Lorsque l’étiquette reçoit la requête, elle renvoie une chaîne aléatoire de 16 bits que l’on désigne dans la figure 2 par RN16. Cette chaîne aléatoire est stockée temporairement dans la mémoire de l’étiquette. Le lecteur ré-envoie à l’étiquette un accusé de réception de la chaîne aléatoire à l’étape 3. Si la copie envoyée, comme accusé de réception, correspond à la chaîne RN16 stockée temporairement dans la mémoire de l’étiquette, elle envoie finalement à l’étape 4 son identifiant EPC.

original

Cet exemple nous permet de conclure que tout lecteur compatible avec le standard EPC-Gen2, s’il est placé à proximité, peut accéder à l’identifiant EPC de chaque radio-étiquette sans difficulté. Cela est dû à l’absence d’un processus d’authentification entre lecteurs et radio-étiquettes EPC-Gen2. Des attaquants équipés avec des lecteurs compatibles avec le standard EPC-Gen2 peuvent donc balayer ces radio-étiquettes si elles sont placées à une distance appropriée, même sans accès physique aux objets de l’organisation.

Selon EPCglobal Inc., les informations stockées sur les radio-étiquettes ne fournissent pas de données supplémentaires au-delà du code EPC lui-même. Toute information supplémentaire associée à ce numéro doit être récupérée auprès d’un service EPC-IS (EPC-Information Service) [1]. Mais avec ces données stockées dans les étiquettes, des attaquants peuvent déterminer et inférer avec succès les types et les quantités d’articles dans la chaîne d’approvisionnement balayée. Ils peuvent plus tard vendre cette information à des organisations concurrentes ou à des voleurs potentiels.

A partir d’un code EPC, l’attaquant peut aussi obtenir des informations tels que les fournisseurs et les types de produits. Autant d’éléments qui peuvent être utilisés pour l’espionnage industriel ou d’autres attaques contre l’organisation possédant la chaîne d’approvisionnement. Enfin, au delà, les attaquants peuvent cloner les étiquettes balayées pour mettre en place des attaques ultérieures d’usurpation d’identité, tout ça sans aucun accès physique à l’organisation.

La motivation des attaquants pour mettre en œuvre des attaques à l’authenticité des composants RFID de l’architecture EPCglobal est donc forte, d’autant que les difficultés techniques pour mener ces attaques sont solubles. Avec cette motivation et ce degré de difficulté, la probabilité pour que survienne une attaque est possible et les conséquences pour l’organisation si l’attaquant arrive à offrir son service malveillant sont graves. L’impact associé à cette menace est donc élevé, ce qui nous conduit à conclure que cette menace doit être considérée comme critique pour l’organisation qui en fait l’objet. Il est donc nécessaire de mettre en place des contre-mesures appropriées afin d’améliorer la sécurité de l’architecture EPCglobal. Mais le vol d’informations n’est pas le seul risque. L’altération des données stockées par les radio-étiquettes en est un autre. Un sujet que nous aborderons dans une seconde partie.

 

Note et références

[1] EPCglobal Inc. http://www.epcglobalinc.org/

[2] L’analyse faite dans cet article est basée sur une étude antérieure présentée dans Alfaro, J. G., Barbeau, M., and Kranakis, E. Security Threats on EPC based RFID Systems. In: 5th International Conference on Information Technology: New Generations (ITNG 2008), IEEE Computer Society, Las Vegas, Nevada, USA, April 2008.

[3] ETSI, Methods and Protocols for Security; Part 1: Threat Analysis. ETSI TS 102 165-1 V4.1.1, 2003.

[4] La proposition de l’ETSI a été légèrement modifiée pour tenir compte des suggestions introduites dans Laurendeau, C. and Barbeau, M. Threats to Security in DSRC/WAVE. In: 5th International Conference on Ad-hoc Networks (ADHOC-NOW), LNCS, Vol. 4104, 2006, pp. 266-279.

L’Union Européenne joue la prudence sur la RFID

L’enjeu des technologies RFID dans l’Internet des objets est important [1] pour notre société. Grâce à elles, on pourrait vaincre la contrefaçon des produits pharmaceutiques, tracer les produits dangereux en circulation, ou mieux gérer les conteneurs dans le domaine du transport. Cette technologie pourrait améliorer notre sécurité (origine des aliments, marques, dates de consommation, qualité…), notre santé, les paiements, et les contrôles d’accès. Mais des craintes de violation de notre vie privée surgissent déjà et obscurcissent quelque peu l’avenir de cette technologie.

Les réserves de l’Europe

L’Union européenne veille d’ailleurs au grain. Dans un rapport [2] réalisé en juin 2007 pour le Parlement européen, 24 cas illustrant le manque d’information et le risque potentiel de débordement dans l’usage des technologies RFID sont pointés du doigt.

On y trouve notamment les détails (p 7) des manifestations contre « Metro Future Store » en Allemagne à propos de cartes de fidélité contenant des puces RFID. Wall Mart et Marks & Spencers ont également été mis à l’index par des associations lors de la mise en place d’applications pilotes RFID dans leurs magasins. C’est dans ce rapport qu’on découvre aussi que la RFID est utilisée par des parents pour retrouver leurs enfants dans le Legoland (p 15). Il y a, sans le dire, des RFID dans des sacs du zoo d’ Apenheul. Les tickets du stade de foot Madejski Stadium en Angleterre contiennent des RFID qui sont suivis par des lecteurs couplés à des caméras de surveillance. Mais le clou de ce rapport revient à l’utilisation de tag RFID (VeriChip) implantés sous la peau des clients VIP en maillots de bain du Baja Beachclud en Espagne et en Hollande (p 18). Des groupes religieux y ont trouvé « la marque de la bête » (p 19). Vous y découvrirez les détails de l’usage des RFID au travail chez Alcatel (p 22), mais aussi sur les prisonniers (p 23) et dans les passeports (p 24).

Le rapport mentionne ExxonMobile (p 10) qui a connu des déboires en 2005. Des chercheurs ont démontré la possibilité de cloner et craquer le système utilisé dans 6 millions de cartes de paiement « SpeedPass » et dans 150 millions de systèmes antivol (d’immobilisation) placés dans les clés de voitures.

Plus récemment [3] la CNIL a parlé d’incertitude à propos de la RATP qui remplace progressivement depuis janvier 2009 la carte orange par le pass navigo. Le projet de recherche Européen « OpTag » [5] achevé depuis 2007 et utilisant des tags RFID dans les billets d’avions couplés à des caméras de surveillance de l’aéroport pour localiser et récupérer les passagers retardataires, suscite lui aussi quelques questions.

Mais quelle est la nature des craintes soulevées dans ces nombreux cas ? Certes le rapport du Parlement européen [4] souligne qu’on trouve beaucoup d’exploits réalisés sur des systèmes RFID à bas prix, déployés en masse, et n’ayant aucune ou peu de fonctions sécurisées avancées (clés d’hôtels, tags implantés dans les mains des clients de discothèque). Mais à contrario, force est de constater qu’il y a peu de rapports d’attaques réalisées sur des systèmes RFID contenant des fonctions sécurisées sophistiquées. Il faut donc prendre garde à ne pas tirer trop vite des conclusions générales sur les failles de la technologie RFID en ne se basant que sur des exploits effectués sur les systèmes à bas coût. La réponse à ce problème ne réside-t-elle pas plutôt dans la mise en place de bonnes pratiques ?

Une meilleure protection des données privées

En Europe, les citoyens sont théoriquement bien protégés par les lois [6]. En matière de protection des données privées et de sécurité, la loi est indépendante de la technologie. Mais l’émergence des technologies RFID et de l’Internet des Objets renforcent la nécessité de rendre plus évidente la conformité des nouveaux services et applications offerts à ces lois.

Une conformité qui doit être garantie dès la conception du produit et qui doit être basée sur des standards (normes). Une déclaration publique de conformité vérifiable par un tiers en serait la preuve. Mais ce standard n’existe pas encore. Le nouveau mandat Européen M/436 sur la sécurité et la vie privée des applications et services RFID en est l’amorce (Phase 1 2009, Phase 2 à partir de 2010). Une communication de la CE sur la sécurité et la vie privée de l’Internet des Objet a été publiée jeudi 18 juin 2009, précisant un plan d’action en 14 mesures, dont une sur la standardisation (lire le communiqué de la Commission européenne). Pendant ce temps, on peut aussi espérer que l’innovation et la recherche [7] offrent d’autres solutions (amélioration ou révolution).

Suffira-t-il alors d’avoir une information claire de l’utilisation de la RFID avec des explications sur les données collectées, leur lien avec notre identification (directs et indirects) et leur emploi dans le temps ? L’information et le choix donné à l’utilisateur seraient déjà un grand progrès. Le risque de céder (volontairement) un peu de sa vie privée (en pleine connaissance des risques) pour obtenir des bénéfices importants concernant les prix, la qualité des services, la protection de l’environnement en vaut-il la peine ? Doit-on rendre anonymes ou silencieuses ces puces qui pourraient nous espionner ?

Dès qu’apparaîtront des nouvelles applications ou produits basés sur les technologies RFID que tout le monde voudra (killer application) nous verrons peut-être passer ces inquiétudes au second plan ? L’autre scénario est que surgisse une toute nouvelle offre [8] basée par exemple sur des systèmes de localisation RTLS [9], des senseurs et des capteurs miniatures sans batterie, des nano-systèmes, la radio logicielle SDR [10], d’autres gammes de fréquences (comme UWB [11] ou avec des multifréquences [12]) et les technologies de l’électronique imprimable (comme ceux réalisés par la société ASK basée à Sophia Antipolis qui a remporté l’appel d’offre des billets électroniques pour les J.O. de Pékin).

On le comprend, pour permettre l’avènement de l’Internet des Objets, il faudra résoudre au préalable un certain nombre de problèmes : ceux afférents à la sécurité et à la protection de la vie privée, à la standardisation et à l’interopérabilité, à la performance, à la gouvernance neutre, à l’allocation de spectre radio suffisant et non nuisible, à la protection de l’environnement, à la gestion des consommations énergétiques… Un vaste chantier et un défi du XXI siècle ! Pourquoi ne pas profiter des leçons apprises avec Internet pour construire un Internet des Objets socialement acceptable et respectueux de l’environnement.

 

Notes

[1] Ce qu’est la RFID, définition de l’Europe
[2] RFID and Identity Management in Everyday Life, parlement Européen
[3] Testing de la CNIL auprès de la RATP
[4] Article de Theregister.co.uk
[5] Le projet Op Tag
[6] Protection des données : les textes européens
[7] www.primelife.eu/deliverables, c’est un des projets du Cluster CERP-IoT www.rfid-in-action.eu/cerp 
[8] rfidupdate.com
[9] RTLS: real-time location system
[10] SDR :Software Define Radio, fr.wikipedia.org/wiki/Radio_logicielle
[11] UWB: Ultra Wide Band, fr.wikipedia.org/wiki/Ultra_wideband
[12] rfidupdate.com

News Informatique / Electronique / Télécoms de mai

Démarchage téléphonique non sollicité : Création de la liste Pacitel

l’Association Française de la Relation Client (AFRC), la Fédération du e commerce et de la vente à distance (FEVAD), la Fédération Française des Télécoms et la Fédération de la Vente Directe (FVD) prenaient l’engagement auprès du Secrétaire d’Etat charge du Commerce, de l’Artisanat, des Petites et Moyennes Entreprises, du Tourisme, des Services et de la Consommation de mettre au point un dispositif  permettant au consommateur qui le souhaite de ne plus recevoir d’appels de prospection de la part de leurs entreprises adhérentes, s’il ne leur a pas communiqué son numéro de téléphone : la Liste Pacitel.
Fidèles à leur engagement, les quatre Fédérations ont déposé le 28 avril 2011 les statuts de l’Association dénommée Pacitel qui aura la charge de gérer et actualiser cette liste d’opposition.

Conscients du caractère parfois intrusif de certaines démarches commerciales et soucieux de préserver la tranquillité des citoyens à leur domicile, les professionnels souhaitent concilier les impératifs de respect de la vie privée et les exigences économiques et sociales du modèle économique qu’ils ont contribué à créer : le secteur compte 260 000 emplois en France.

Cette liste d’opposition favorisera le développement d’une prospection téléphonique fondée sur la qualité et les besoins des clients et permettra  de lutter contre les abus de faiblesse.

Pour faciliter au maximum l’inscription sur cette liste, le consommateur sera libre de choisir entre envoyer sa demande par courrier, le faire par mail ou s’inscrire sur un site dédié. Il n’aura qu’à donner son nom et le numéro de téléphone sur lequel il souhaite ne plus recevoir d’appels.  Sa demande d’inscription à la liste d’opposition sera ainsi prise en compte simplement et avec un minimum de formalités.

La liste Pacitel concernera environ 90 % des entreprises françaises de tous les secteurs d’activité. Les entreprises membres de l’Association Pacitel adapteront leurs fichiers de prospection commerciale pour tenir compte de cette nouvelle liste avant de prospecter téléphoniquement des consommateurs. Cette liste d’opposition complétera les listes d’opposition déjà mises en place par les opérateurs téléphoniques (liste Orange par exemple) qui permettent déjà à chaque abonné que ses coordonnées téléphoniques ne soient pas cédées par son opérateur à des fins commerciales.

Les syndicats veulent que le gouvernement fasse évoluer sa position sur les Jeunes Entreprises Innovantes

L’Afdel (Association Française des éditeurs de logiciels) et le Snjv (Syndicat national du jeu vidéo) souhaitent qu’Eric Besson revoie sa copie au sujet du statut des Jeunes Entreprises Innovantes (JEI). Selon leurs observations, les récentes réformes auraient conduit à une baisse des investissements.

Dans un communiqué, les deux organisations indiquent qu’elles viennent de remettre un rapport à l’attention du ministre de l’Economie numérique Eric Besson. Ce document pointe du doigt la récente réforme du statut de la JEI (jeune entreprise innovante) et vise à pousser le gouvernement à revoir sa copie.

En octobre dernier, les députés s’étaient penchés sur le statut fiscal des JEI. Depuis 2004, ce statut permettait aux entreprises de moins de huit ans d’être exonérées d’impôts pendant 5 ans. La seule condition étant d’investir au moins 15 % de son chiffre d’affaires en R et D.

Suite au remaniement de ce statut (exonérations dégressives au fil des ans), l’Afdel et le Snjv constatent dans leur rapport que « 80 % des entreprises ont réduit leurs investissements en R&D, 71 % des entreprises ont déjà limité leurs recrutements liés aux activités de R&D ou licencié ». La mesure aurait donc eu pour effet de réduire les investissements de ce type de sociétés.

Les organisations poursuivent : « Sur la base de cette enquête remise à monsieur Eric Besson, les pouvoirs publics disposent désormais d’éléments tangibles et objectifs susceptibles de faire évoluer leurs positions. En effet, cette enquête démontre que la réforme, qualifiée récemment de balle perdue de la Loi de finances par le Président de la République Nicolas Sarkozy, a impacté les entreprises sur leurs investissements en R&D, leurs embauches et leur compétitivité ».

En savoir plus : http://pro.clubic.com/actualite-e-business/investissement/actualite-425218-jeunes-entreprises-syndicats-veulent-gouvenrment-fasse-evoluer-position.html

Zoom sur l’Irlande

Une spin-out de l’Université de Galway cible les marchés financiers

Peracton Ltd., une spin-out basée au « Digital Enterprise Research Institute » de l’Université de Galway, à l’ouest de l’Irlande, s’est alliée avec « FusionExperience », une entreprise fournissant des services financiers, afin de produire la plateforme « MAARS Fund Management Analytics ». Il s’agit d’un système d’aide à la décision qui permet de traiter la plupart des activités boursières (actions, fonds d’investissement, trackers…), de vérifications et de conformité.

Un rapport de Forrester Research, un cabinet d’analystes indépendant spécialisé en technologies et systèmes d’information indiquait en 2010 que la technologie « MAARS » de Peracton était à suivre de près dans le secteur bancaire.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66698.htm

Financement par capital-risque pour une start-up dans le « cloud computing »

Première start-up à bénéficier du fond de capital-risque mis en place conjointement par la « Bank of Ireland » et « Enterprise Ireland », Digital Mines a été tout d’abord dotée de 350 000 euros, pour un financement global de 750.000 euros, pour développer son activité en « cloud computing » à destination des entreprises européennes. L’entreprise qui a des bureaux à Dublin et Cracovie, propose des solutions logicielles pour l’utilisation de cette technologie en plein développement dans le monde entier.

Le fonds d’investissement conjoint, lancé en 2010, disposant de 17 millions d’euros, se propose d’investir, dans une fourchette allant de 100 à 500 milliers d’euros, dans des entreprises innovantes et à fort potentiel d’exportation. Ce fonds est lui-même l’un des quatre fonds d’investissement qui sont cofinancés par « Enterprise Ireland » avec des banques ou d’autres partenaires, avec un budget global qui s’élève à 124 millions d’euros.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66696.htm

Vers la disparition des mâts de téléphonie mobile ?

Les inesthétiques pylones de téléphonie mobile pourraient bientôt disparaître grâce aux contributions clés d’un groupe de recherche irlandais qui a développé des composants réseau plus petits et consommant moins d’énergie. Alcatel-Lucent, leader des technologies réseau, s’est allié avec d’autres partenaires du secteur pour développer « lightRadio », un nouveau système qui permet au secteur mobile mondial de ne plus avoir à dépendre des antennes et des stations de base mobiles.

L’entreprise propose une nouvelle approche où la station de base, généralement située au niveau de chaque site mobile, voit ses différentes composantes redistribuées à la fois dans l’antenne et au sein d’un réseau « en nuage » (cloud).

Il permet aussi de supprimer les armadas actuelles d’antennes supportant les différents systèmes 2G, 3G et LTE et de les regrouper au sein d’une antenne unique développée par Bell Labs, laboratoires du Groupe Alactel Lucent, qui peut être installée sur des poteaux, au flanc des immeubles ou à n’importe quel endroit disposant d’une alimentation en électricité et d’une connexion haut débit.

Une équipe de chercheurs du Bell Labs de Dublin a développé un design particulièrement innovant de ces antennes de communication et de gestion de l’énergie qui forme une partie critique de la plateforme. Ce projet piloté d’Irlande a inclus les participations d’autres Bell Labs en Europe, aux Etats-Unis et en Chine.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66697.htm

Par S.B

 

LES BILANS

Du mercure au methylmercure

Après deux années de tests sans relâche d’échantillons d’eau de mer prélevés dans l’Océan Arctique, des chercheurs de l’Université canadienne d’Alberta, à Edmonton, ont découvert que le mercure inorganique, relativement peu dangereux, « libéré » par les activités humaines telles que certains secteurs de l’industrie ou la combustion du charbon, pouvait subir une transformation le rendant bien plus dangereux.

Ce procédé, appelé méthylation, consistant en la substitution ou l’attache d’un groupement méthyle sur une base, le substrat, le transforme en un polluant toxique et dangereux, le méthylmercure, forme la plus toxique du mercure.

Contrairement au mercure inorganique, le méthylmercure (CH3-Hg+X-, où X désigne un anion quelconque) est bio-accumulatif, absorbant une partie des substances chimiques qu’il rencontre, ce qui signifie que ses effets toxiques s’amplifient à mesure qu’il progresse dans la chaine alimentaire, allant des très petits organismes marins aux humains. On l’aura compris, la plus grande source de méthylmercure se trouve dans les produits de la mer, notamment les fruits de mer. Les chercheurs émettent la supposition que ce qu’il se passe dans l’Océan Arctique doit aussi se passer ailleurs dans le globe.

L’équipe de chercheurs, menée par docteur Igor Lehnherr, pense que cette conversion du mercure inorganique en méthylmercure est responsable approximativement pour moitié de la présence de cette neurotoxine dans les océans, et est significativement responsable de sa présence dans les organismes marins de l’Océan Arctique.

Par Rahman Moonzur

Déjà paru :

Une centrale thermique canadienne qui assure l’avenir du charbon

En 2014, un groupe générateur vieillissant au sein de la centrale électrique de Boundary Dam, près de la ville canadienne d’Estevan, aura été transformé en une centrale au charbon propre et fiable d’une puissance de 110 MW. Ce projet pilote prévoit en effet le captage et le stockage intégrés du carbone, réduisant ainsi les émissions de gaz à effet de serre d’environ un million de tonnes par an, soit l’équivalent du retrait de la circulation de plus de 250 000 véhicules dans la province de la Saskatchewan chaque année. Le dioxyde de carbone (CO2) capté sera utilisé pour la récupération assistée d’hydrocarbures et le dioxyde de soufre (SO2) récupéré servira à la production d’acide sulfurique.

« Il s’agira de l’un des projets de construction les plus importants de l’histoire de la province, créant des centaines d’emplois ainsi que des activités commerciales de grande envergure pour les sociétés de la province. En particulier, l’exploitation continue des centrales électriques de Boundary Dam et Shand, en plus de l’activité des entreprises actives dans l’industrie du charbon, fournira des bénéfices à long terme à la région d’Estevan. L’industrie pétrolière sera également un bénéficiaire majeur car elle utilisera le CO2 capté à Boundary Dam pour extraire du pétrole dans les champs matures » a déclaré Robert Watson, Président de SaskPower,  société d’Etat  détenue par le gouvernement de Saskatchewan.

Principal fournisseur d’électricité de la province, SaskPower qui est l’un des membres fondateurs de la Canadian Clean Power Coalition (CCPC), avait proposé en 2000 le premier modèle au monde de centrale thermique au charbon à émissions quasi nulles. Pour ce faire, SaskPower s’était alliée avec Marubeni Canada, Hitachi, Babcock & Wilcox Canada (B&W), Air Liquide, SNC-Lavalin et Neill and Gunter pour développer, concevoir et fournir des solutions destinées à la section de charbon propre de la centrale. Elle s’était appuyée sur son expertise interne pour finaliser les opérations de captage du carbone en vue de la récupération assistée d’hydrocarbures.

Première turbine à vapeur à intégrer la technologie de captage du carbone

Le projet Boundary Dam, d’un montant de 1,24 milliard de dollars qui figurera parmi les premières installations de captage et de stockage de carbone à échelle commerciale au monde, vient d’être approuvé par le gouvernement de la Saskatchewan,  une province de l’ouest du Canada, qui bénéficiera d’une contribution de 240 millions de dollars du gouvernement  fédéral.

Dans le cadre de ce nouveau projet, SaskPower a choisi SNC Lavalin, l’une des sociétés d’ingénierie et de construction les plus importantes au monde, pour superviser les activités détaillées d’ingénierie, d’approvisionnement et de construction de Boundary Dam. Cansolv, une filiale de Shell Global Solutions, fournira le processus de captage de carbone tandis qu’Hitachi fournira une turbine à vapeur de pointe, la première au monde conçue pour intégrer la technologie de captage de carbone.

« SaskPower et ses partenaires du secteur privé sont des leaders mondiaux en matière de développement d’une technologie qui aidera à relever les défi du changement climatique, tout en garantissant que nous continuions à utiliser le charbon en tant que source d’énergie durant de nombreuses années à venir » conclut Rob Norris, Ministre responsable de SaskPower qui mise aussi sur l’énergie éolienne et mène des recherches sur d’autres options d’énergie renouvelable comme la biomasse.

Principe du captage-stockage intégrés du carbone dans la centrale électrique de Boundary Dam (C)  SaskPower  

Déjà paru :

Projets de virtualisation : ne pas oublier le coût du stockage

Réalisée auprès de 450 services informatiques de moyennes et grandes entreprises en Amérique du Nord et en Europe en janvier 2011, l’étude intitulée « The State of Virtualization » de DataCore Software, fournisseur de logiciels de virtualisation du stockage portait sur la virtualisation et son impact sur le stockage. Elle révèle qu’une majorité des services informatiques des moyennes et grandes entreprises négligent par erreur le stockage lors du déploiement d’un environnement d’exploitation virtualisé. Les chiffres indiquent que près de la moitié des répondants (43 %) n’ont pas anticipé l’impact que le stockage va avoir sur les coûts de la virtualisation de leurs serveurs et postes de travail ou n’ont pas lancé un projet de virtualisation en raison des coûts liés au stockage jugés trop élevés. Par conséquent, la mise en œuvre de leurs projets de virtualisation est retardée. 
 
D’autres conclusions de l’étude de DataCore indiquent que :

  • parmi ceux ayant déployé une virtualisation des serveurs, 66 % mentionnent une hausse sensible des coûts de stockage comme le problème majeur auquel ils font face. Près de 40 % affirment que l’infrastructure de stockage soit ralentit l’exécution des applications, soit en limite la disponibilité, alors que plus de 20 % déclarent que la continuité d’activité est devenue plus difficile ;
  • plus de 56 % réalisent à présent que la consolidation crée des congestions des E/S qui les empêchent de passer au prochain pallier de virtualisation ;
  • près d’un quart (22 %) des administrateurs informatiques admettent un sentiment de dépendance à l’égard de leur fournisseur de matériel de stockage. Un tiers de ces répondants sous-estiment les coûts que la virtualisation des serveurs et des postes de travail va engendrer pour leur budget de stockage. Par conséquent, 41 % de la totalité des répondants se retrouvent avec deux, voire plus, systèmes de stockage différents du même fournisseur et plus de 60 % ne peuvent pas gérer leurs ressources de stockage sous forme d’un seul pool ;
  • malgré le battage autour des stratégies de cloud, une écrasante majorité (73 %) des entreprises n’exploitent pas encore des services de cloud pour les besoins en stockage. Toutefois, 70 % déclarent que l’accès à un espace disque plus important serait la caractéristique première souhaitée d’un stockage sur le cloud, davantage encore que la fonctionnalité de reprise d’activité qu’il fournirait ;
  • 95% des répondants affirment être susceptibles de déployer un logiciel de virtualisation des serveurs/postes de travail de VMware, Microsoft ou Citrix dans l’année qui vient. Alors que l’adoption de Microsoft Hyper-V croît, selon les répondants, VMware occupe toujours le devant de la scène. Près de 65 % prévoient de déployer une solution VMware, alors que 10 % seulement ont opté pour la plate-forme Hyper-V ;
  • près de la moitié (48 %) des personnes interrogées tirent maintenant parti d’un logiciel de virtualisation du stockage pour surmonter les obstacles liés au stockage qu’engendrent leurs projets de virtualisation des serveurs et des postes de travail. Près de trois-quarts (74 %) l’utilisent pour améliorer les procédures de reprise et de continuité d’activité.

 

Déjà paru :

Un pont-roulant hors-norme

En septembre 2008, KraneQuip, distributeur Verlinde en Nouvelle-Zélande, a été approché par NZ Steel pour la mise en service d’un pont roulant de 16 tonnes destiné à permettre le remplacement d’une canalisation d’émanation de gaz dans son usine de fabrication de plaques d’acier. « Ce ne fut en aucun cas une conception standard. Un certain nombre de contraintes et conditions donnaient à cette application un caractère très spécial », explique Cobus van der Walt, ingénieur chez KraneQuip.

Le premier problème fut l’espace disponible dans lequel intégrer le pont. « Ce fut un immense défi de l’insérer dans un espace de 4 mètres de large. Surtout avec une hauteur de levage de 30 mètres », confie Cobus Van der Walt. « Normalement, il faut utiliser pour cela un palan à câble, mais un tambour de palan suffisamment volumineux pour emmagasiner 30 mètres de câble pour un levage de cette taille, cela signifiait une pièce pratiquement de la taille de l’espace disponible ».

La charge devait être déplacée d’est en ouest sur la poutre du pont, mais un palan à câble n’était pas envisageable en raison de la taille. « Nous nous sommes ensuite penchés sur les palans à chaîne. Mais le problème avec les treuils à chaîne, c’est qu’il n’en existe pas qui dépasse 5 tonnes, ou 7,5 tonnes en ce qui nous concerne notre fournisseur, Verlinde. Toutefois, nous étions encore bien loin des 16 tonnes recherchées ».

Après moult cogitations, l’équipe de KraneQuip a suggéré d’utiliser 2 palans à chaînes d’une capacité de 10 tonnes chacun. Cependant, dans la pratique, ils durent coupler 2 câbles de 5 tonnes pour obtenir 10 tonnes par assemblage, puis disposer deux de ces assemblages sur la poutre du pont roulant. « Quelques semaines plus tard, nous avons réussi à installer ces treuils sur une poutre de pont monorail afin de répondre aux dimensions requises de la charge à déplacer. Pour ce faire, nous avons dû modifier la conception des arêtiers, mais en jouant seulement sur quelques millimètres », précise Cobus van der Walt.

Le défi suivant a consisté à concevoir un pont capable de supporter 16 tonnes. La poutre droite standard la plus performante n’était pas suffisante et une poutre-caisson aurait été trop onéreuse. KraneQuip dut par conséquent concevoir un pont-poutre doté de renforts supérieurs et de brides inférieures pour saisir la charge. Grâce à une telle solution, l’équipe a raccourci le délai d’exécution et épargné à NZ Steel les coûts supplémentaires qu’aurait induit la fabrication d’une poutre-caisson.

Une succession de modifications et de réglages

La dimension extérieure des carters de chaînes a constitué encore un problème. Les deux assemblages de palans, bien que parfaitement conçus, ne pouvaient s’approcher suffisamment l’un de l’autre pour satisfaire aux distances de rapprochement est et ouest requises. Les deux carters de chaînes centrales durent par conséquent être modifiés.

« Nous ne pouvions pas descendre davantage car nous n’avions pas d’espace libre. Nous avons de ce fait décidé d’aller en largeur », confie Cobus van der Walt. Un autre problème est alors survenu, dans la mesure où la chaîne devait remplir toute la largeur des carters. L’équipe dut poser des plaques déflecteurs au centre et ouvrir la gorge du carter pour permettre à la chaîne de se répartir correctement dans le carter. La première réalisation n’a pas fonctionné mais, à l’issue de plusieurs modifications, le succès fut au rendez-vous.

Lors de la mise en service, il a fallu procéder à de nombreux réglages pour garantir une translation identique, à la même hauteur, des deux crochets et l’activation simultanée des commutateurs d’arêtiers. D’innombrables difficultés ont surgi avec la vitesse de déplacement en longueur, car la grue ne pouvait se mouvoir dans toutes les directions qu’à faible allure. Des commandes de vitesse variable ont été utilisées pour lisser l’opération. Mais avec ce déplacement en longueur, beaucoup de salissures s’étaient accumulées sur les rails et les roues s’avéraient trop larges pour assumer la charge de la grue toute entière et la charge de travail maximale sécurisée.

La puissance à faible allure était à peine suffisante pour mettre la grue en mouvement et les salissures ont entraîné quelques blocages. En fin de compte, il a été décidé que la seule issue était d’éliminer complètement les salissures des rails avant toute utilisation.

Fukushima : de « graves dysfonctionnements » dans l’évaluation de l’impact en France ?

C’est dans un courrier adressé au Premier Ministre François Fillon et au président de l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN), la Criirad dénonce de graves dysfonctionnements dans cette évaluation, à la suite des accidents survenus sur les réacteurs nucléaires de la centrale de Fukushima.

Ainsi, la Criirad demande au gouvernement sur la succession des faits et des décisions. Toujours selon un communiqué de l’association, la France a été contaminée dès le 22 mars, soit deux jours avant la date indiquée par l’IRSN. Les masses d’air contaminées ont affecté les trois quarts de la France, et non pas le seul sommet du Puy-de-Dôme, souligne aussi la Criirad.

Ces masses d’air contaminé ont affecté les trois quarts du pays avec une activité d’iode 131 particulaire  20 fois supérieure à celle annoncée pour le 24 mars. Pour établir sa cartographie, la CRIIRAD s’est basée sur les chiffres de l’IRSN et de certains exploitants, chiffres qui ne figurent pas sur le site CRITER où se trouve, de source  officielle, « l’ensemble des résultats de la surveillance spécifique du territoire français effectuée par l’IRSN dans le cadre du suivi de l’impact à très longue distance des rejets radioactifs de l’accident de Fukushima », mais sur le site du Réseau National de Mesure de l’environnement (RNM), curieusement délaissé au profit du premier en pleine gestion de crise.

Les constats de la Criirad concernent en tout premier lieu le travail de l’IRSN. Mais il est possible que la responsabilité des grands exploitants du nucléaire soit également engagée, ajoute l’association en citant EDF, Areva et le Commissariat à l’énergie atomique (CEA).

L’ISRN avait estimé que l’arrivée d’une masse d’air faiblement contaminée avait probablement eu lieu au cours de la journée du 24 mars, en se basant sur des mesures effectuées par sa station installée au sommet du Puy-de-Dôme.

Par P.T

Sources : Le Télégramme, L’Indépendant, IRSN, CRIIRAD

Déjà paru :

L’« IP to the Pin », prochaine phase de l’intégration de la conception et du test

« L’orientation du marché vers des architectures reconfigurables va permettre aux ingénieurs de conception et de test de travailler à des niveaux d’abstraction similaires. Ceci est une étape majeure pour faire de la concomitance de la conception et du test au niveau système, une réalité », affirme Dr. James Truchard,  PDG, Président, et Co-fondateur de National Instruments dans la version 2011 du rapport « Perspectives du test automatique ». Pourtant, les mondes de de la conception et du test semblent tellement éloignés l’un de l’autre que beaucoup ont jugé cet objectif impossible à atteindre. Dans le monde de la conception, la plupart des ingénieurs utilisent les tout derniers logiciels de CAO électronique qui ont connu une révolution spectaculaire au cours des dix dernières années. L’industrie du test n’a pas évolué au même rythme, et de nombreuses sociétés ont choisi d’investir davantage dans leurs outils de conception que dans leurs outils d’ingénierie de test. Il s’en suit que les ingénieurs sont fréquemment en difficulté lorsqu’ils testent les matériels électroniques centrés sur un logiciel.

Des experts de chaque industrie ont envisagé des solutions pour combler cet écart. Dans l’industrie des semi-conducteurs, ils ont recommandé la solution du test protocol-aware. Certains visionnaires au sein du département américain de la Défense ont proposé l’instrumentation virtuelle. Quant à l’industrie automobile, elle a adopté le test HIL (Hardware-In-the-Loop) et MIL (Model-In-the-Loop). En observant de plus près ces architectures d’instrumentation reconfigurables, il est possible d’identifier un certain nombre d’axes communs : une approche au niveau système, l’intégration de la conception et du test, et l’extension des architectures logicielles dans les FPGA (Field-Programmable Gate Arrays).

Conception et test concomitants grâce à la réutilisation d’IP

La prochaine phase de l’intégration de la conception et du test est la capacité pour les ingénieurs de déployer des blocs de propriété intellectuelle (IP), aussi bien dans les matériels sous test (DUT) que dans les instruments reconfigurables. Cette capacité est appelée « IP to the pin » car elle embarque l’IP logicielle définie par l’utilisateur au plus près des broches d’E/S des instruments reconfigurables de nouvelle génération. L’IP logicielle intègre des fonctions comme la logique de contrôle, l’acquisition de données, la génération, les protocoles numériques, le cryptage, les mathématiques, les radiofréquences et le traitement du signal.

Le fait de réutiliser les IP nécessite que les  ingénieurs de conception et de test œuvrent à un certain niveau d’abstraction et utilisent une méthodologie de conception commune. Cette technique est représentée par le « diagramme en V » dans lequel chaque phase de conception correspond à une phase de vérification ou de test. De cette façon, les équipes de conception et de test peuvent travailler « du haut vers le bas du V », à savoir de la modélisation et de la conception de plus haut niveau jusqu’à l’implémentation de plus bas niveau, tout en conduisant des tests à chaque étape.

Par exemple, un système sur puce (SOC) MIMO (Multiple-Input and Multiple-Output) est composé de récepteurs, d’émetteurs, de convertisseurs, de filtres, de commutateurs et d’un processeur. De plus, ce système sur puce intègre des IP logicielles telles que le codage, la modulation, le cryptage et les protocoles de communication. Pour valider pleinement les fonctionnalités des sous-composants logiciels et matériels parfaitement intégrés du système sur puce, les ingénieurs ont besoin de capacités de test au niveau système afin d’émuler un autre matériel de communication au sein du système, comme une station de base. Étant donné que plusieurs blocs d’IP sont communs au DUT et au système de test, c’est un cas idéal pour une conception et un test concomitants grâce à la réutilisation d’IP.

Les FPGA préférés aux ASICs lors des choix de conception

La possibilité pour un ingénieur de test d’embarquer directement l’IP de conception SOC dans l’instrumentation pour effectuer des tests au niveau système peut considérablement raccourcir la validation de la conception, réduire les temps de test en production et améliorer la détection de défauts. Deux tendances vont permettre aux prochains systèmes de test reconfigurables de fournir des capacités « IP to the pin » : l’orientation du marché vers les FPGA et la disponibilité de logiciels de haut niveau pour les programmer.

Le marché de l’électronique est sur le point d’adopter une architecture basée FPGA aussi bien pour les matériels électroniques que pour l’instrumentation de test. La loi de Moore est devenue une indication indirecte des augmentations colossales en termes de performances et des réductions drastiques en termes de coûts concernant tous les matériels à base de semi-conducteurs et produits électroniques. En dehors des microprocesseurs, ce sont probablement les FPGA qui ont le plus profité de la loi de Moore car leurs fonctionnalités et le nombre de cellules logiques ont très fortement augmenté tandis que leur coût par transistor a diminué. Les ingénieurs peuvent désormais embarquer des IP logicielles supplémentaires au sein d’un seul et unique FPGA.

Les fournisseurs commencent également à intégrer des FPGA avec des matériels tels que des processeurs, des convertisseurs de données, et des émetteurs/récepteurs pour offrir des performances accrues et une programmabilité utilisateur au plus près des broches d’E/S. C’est la loi de Moore qui, en rendant le coût et la taille des portes programmables presque insignifiants, a permis cette tendance. Toutes ces avancées tendent à aligner les capacités des FPGA sur celles d’un ASIC. Ces dix dernières années, cette amélioration des performances et le caractère reprogrammable au niveau du logiciel ont conduit le marché à s’orienter vers des conceptions basées FPGA en ce qui concerne les matériels électroniques. Dans un rapport datant de 2009, la société de conseil et de recherche Gartner constatait que les FPGA affichaient désormais un rapport de 30 contre 1 lors du choix de conception comparés aux ASIC. Toutes les industries et tous les domaines d’application adoptent les FPGA, y compris l’électronique grand public, l’électronique automobile et les technologies aérospatiales. Moshe Gavrielov, PDG de Xilinx, a appelé cette migration vers les FPGA « l’impératif programmable ».

La conception FPGA plus accessible à un plus grand nombre d’ingénieurs

Grâce à l’impératif programmable, les ingénieurs de conception peuvent se tourner vers des niveaux d’abstraction plus élevés dans la conception des semi-conducteurs et des systèmes électroniques. De plus en plus, ils sont à même de réutiliser des IP FPGA existantes en guise de blocs de construction d’une nouvelle conception. Cette abstraction leur permet de concevoir à un niveau système et de mettre de nouveaux produits dotés de nouvelles caractéristiques sur le marché plus rapidement que jamais. Ce qui nous conduit à la seconde tendance du marché : la plus grande disponibilité et l’augmentation des capacités des outils de synthèse de haut niveau (HLS) pour les ingénieurs de test. Ces outils HLS fournissent un processus automatisé qui interprète la description algorithmique d’un comportement désiré et crée une logique FPGA qui met en œuvre ce comportement. Cette abstraction rend la conception FPGA plus accessible à un plus grand nombre d’ingénieurs et offre une plate-forme pour la programmation au niveau système.

Il existe également des écosystèmes IP multifournisseurs émergents qui intègrent des cœurs IP de tous les principaux fournisseurs de FPGA ainsi que de leurs partenaires dans les domaines du logiciel et de l’instrumentation. L’IPN et FPGA de National Instruments et les microsites IP de Cadence/Xilinx sont des exemples d’écosystèmes. Ils contiennent des centaines de fonctions et de blocs d’IP, y compris le CORE Generator de Xilinx, des cœurs de protocole de communication série et des composant AES (Advanced Encryption Standard), ainsi que des algorithmes de transfert en continu (streaming) en peer-to-peer.

Selon National Instruments, ces tendances donnent aux ingénieurs les capacités nécessaires pour réutiliser les IP et rendre possible la concomitance de la conception et du test. Pour aller plus loin, les sociétés doivent adopter une stratégie d’investissement qui dote les ingénieurs de conception et de test de capacités comparables. Elles pourront ainsi réduire leur temps de mise sur le marché, accroître la qualité de leurs produits et générer davantage de profit, bref optimiser leur activité au maximum. 

 

Déjà paru :

Les grands bénéfices de l’approche VDI

La virtualisation est plus que jamais un enjeu majeur pour les entreprises. Connaissant un fort essor, elle devrait se positionner les prochaines années dans le top 5 des projets les plus déployés par les directions des systèmes d’information. En effet, répondant à la fois à des problématiques économiques, organisationnelles, fonctionnelles et environnementales, les technologies de virtualisation vont, sans aucun doute, profondément améliorer les performances des entreprises et les rendre plus agiles. Bien entendu, la virtualisation recouvre de nombreux aspects : serveurs, stockage… autant de domaines complémentaires qui sont des briques stratégiques au sein des systèmes d’information. Nous allons ici nous restreindre à aborder le sujet de la virtualisation sous l’angle du poste de travail (projet VDI ou Virtual Desktop Infrastructure).
 
Sur toutes les lèvres, les projets de virtualisation du poste de travail semblent enfin devenir réalité et entrer dans une phase de déploiement massif après avoir connu des débuts difficiles. Le cabinet d’analyste Gartner prévoit ainsi, qu’à l’échelle mondiale, plus de 15 % des PC en entreprise seront virtualisés et hébergés d’ici 2014. Selon une autre étude menée par le Forrester Research, la majeure partie des entreprises (en Amérique du Nord et en Europe) a adopté la virtualisation. Cette étude a été réalisée auprès de 2 600 entreprises.
 
Il apparaît donc que les sociétés, quelle que soit leur taille, sont actuellement en train de repenser et de remettre à neuf leur infrastructure informatique et leurs systèmes client en adoptant de nouvelles approches pour améliorer leur flexibilité, leur efficacité et leurs performances. La virtualisation du poste de travail est au cœur de cette modernisation.
 
Concrètement, la virtualisation apporte de grands bénéfices :

  •  au niveau organisationnel : virtualiser un parc de PC est générateur de nombreux bénéfices organisationnels. Les administrateurs peuvent piloter aisément et à distance des parcs étendus sans avoir à se déplacer. Cette donnée est particulièrement importante pour les entreprises justifiant de plusieurs milliers de postes ou d’une organisation décentralisée. Cela permet également de garantir une gouvernance homogène et rationnelle du parc : déploiement de masters prédéfinis en fonction des profils utilisateurs. Le poste de travail, qui est un maillon clé de la productivité, est donc totalement adapté à l’organisation de l’entreprise et à ses contraintes métier. L’on notera aussi que virtualiser un poste de travail n’impacte en rien l’utilisateur final (opération transparente pour ce dernier) ;
  •  au niveau économique : opter pour une approche VDI permet aussi de repenser la composition de son parc et de se doter de nouveaux « clients légers » moins chers et justifiant d’une durée de vie supérieure à des PC traditionnels. Ce point est particulièrement important et peut générer de très fortes économies. Enfin, les ressources humaines préalablement nécessaires pour maintenir le parc et le faire évoluer ne sont plus nécessaires dans les mêmes proportions ;
  • au niveau écologique : la virtualisation est un partenaire historique du green IT et permet de réduire considérablement l’impact énergétique du parc informatique. A l’heure de la responsabilisation sociale et environnementale de l’entreprise, ce paramètre est un élément important à intégrer.

Enfin, il est important de noter la maturité des acteurs de l’industrie IT (éditeurs, intégrateurs, opérateurs) qui ont su faire évoluer leurs offres, développer de véritables centres de compétences et former des ressources indispensables pour déployer les projets VDI dans de bonnes conditions.
 
Nous entrons donc dans un cycle où l’ensemble des fondamentaux est réuni pour transformer les projets VDI en une réalité concrète et génératrice de bénéfices pour les entreprises. Cette tendance de fond semble se confirmer par la multiplication des déploiements initiés au sein des grands comptes, mais également des PME. L’on notera enfin que le fort développement du Cloud Computing va venir soutenir cette mouvance et accroître les possibilités offertes aux entreprises.
 
David Simonutti, directeur d’ITS Group

   

       Déjà paru :

  Des postes de travail virtualisés adaptés au milieu scolaire       

Hôpitaux, les parangons en matière de système d’information et de virtualisation ?

Nouvelle approche de la virtualisation du stockage

La virtualisation joue la carte de la sécurité

La combinaison VDI-SBC, la meilleure approche de la virtualisation

Vers une Supply Chain « multi-vitesses » ?

Pour maintenir leurs marges, les grandes enseignes du textile baissent leur coûts d’approvisionnent en passant commande de gros volumes auprès de fournisseurs asiatiques et ce, très en amont des collections. De fait, elles risquent de mettre en rayon des produits déjà démodés ou en décalage avec les tendances. Elles augmentent ainsi mécaniquement le niveau moyen de démarque et deviennent dépendantes du succès des opérations promotionnelles.

Or, acheter à bas coûts n’assure pas à lui seul l’attractivité de l’enseigne et de son offre, pas plus qu’il ne protège d’un ralentissement du trafic en magasin ou d’une faible rotation des produits. Pour ces enseignes, l’enjeu est critique car deux collections de suite « hors sujet » peuvent suffire à couler la marque.
 
Les acteurs du prêt-à-porter ont tendance à considérer que s’approvisionner à bas coûts est une condition sine qua non pour préserver leurs marges. Partant de ce principe, nombre d’entre eux ont opté pour des vêtements et accessoires fabriqués en Chine ou dans d’autres pays d’Extrême-Orient à faible coût de main d’oeuvre. Cependant, cette stratégie présente de réels inconvénients.

À commencer par le temps d’acheminement des marchandises : il faut au minimum 7 semaines pour que les produits parviennent en Europe. Par ailleurs, même si les prix d’achats sont attractifs, le coût de revient final reste élevé car il intègre de nombreuses dépenses additionnelles (frais de structures, transport, dédouanement, stockage…) qui sont largement sous-estimées. In fine, cela laisse peu de place aux remises une fois que les produits ne sont plus assez demandés pour être vendus au prix fort.

D’un autre côté, le modèle Zara n’est pas non plus nécessairement la solution : l’enseigne espagnole est en effet propriétaire d’une majeure partie de ses capacités de production et s’appuie sur un vaste réseau de fournisseurs dédiés. Imiter ce modèle nécessiterait des investissements massifs allant au-delà des capacités financières de la plupart des acteurs de la mode et du prêt à porter.

Segmentation en 3 grandes catégories de produits

Pour assurer flexibilité et rapidité dans l’exécution de leurs approvisionnements et donc limiter le taux de démarque, certains acteurs ont imaginé et mis en œuvre une Supply Chain « multi-vitesses », segmentée autour de plusieurs grandes catégories de produits :

  • les grands classiques : pour les articles de fond de catalogue, fortement contributeurs à la marge et dont les ventes sont relativement prévisibles, les enseignes continuent à recourir aux fournisseurs à bas coûts auxquels ils font appel depuis plusieurs années ;
  • les produits « star » : certains articles à fort potentiel ou à rotation élevée doivent permettre à l’enseigne de dégager des marges importantes car ils ont un positionnement prix « premium » et sont peu sujets à la démarque. Pour ces produits, en particulier ceux qui ont déjà fait leurs preuves par le passé, les enseignes doivent impérativement collaborer en amont avec leurs fournisseurs, partager leurs prévisions en matière de demande, réserver des capacités de production et des matières premières (tissus, boutons, zip…). Les enseignes peuvent également appliquer des stratégies d’approvisionnement de type « doublage » qui font à la fois appel à des fournisseurs éloignés et de proximité ;
  • les produits très tendance : emblématiques de la saison et fortement exposés aux médias, ils représentent à la fois une prise de risque maximum mais aussi des marges potentielles confortables s’ils répondent aux attentes de la clientèle. La stratégie d’approvisionnement adéquate fait la part belle aux fournisseurs de proximité ayant des capacités de création et de production. L’objectif est de retarder au maximum la prise de décision afin d’avoir une meilleur visibilité sur les tendances émergentes, de minimiser la taille des commandes initiales tout en privilégiant l’accélération du processus de réapprovisionnement. Un seul objectif compte : éviter les ruptures en magasins pour empêcher le départ du client vers une autre enseigne.

Retour des enseignes sur les principes clés de leur métier

Les projets menés par les équipes PRTM, cabinet de conseil en stratégie opérationnelle, montrent que cette stratégie multi-vitesses permet d’accroître en moyenne les ventes d’un produit d’environ 30 % tout en réduisant fortement le taux de démarque. Le chiffre d’affaires global peut, quant à lui, enregistrer jusqu’à 10 % de hausse par l’augmentation combinée des taux de fréquentation et de transformation.

Comment mettre en œuvre une Supply Chain « multi-vitesses » ? Les acteurs du prêt-à-porter doivent commencer par optimiser la segmentation de leur gamme de produits afin d’identifier les articles pour lesquels l’approvisionnement à bas coût est indiqué, et ceux qui exigent un mode d’approvisionnement très réactif. PRTM estime qu’en moyenne 20 à 30 % de la collection peut être traité en mode « Quick Response ».

La connaissance et la collaboration avec les fournisseurs est un élément clé. Cependant la gestion du parc de fournisseurs est souvent artisanale et opportuniste. L’approche « multi-vitesses » refocalise les enseignes sur les principes clés de leur métier : création, disponibilité des produits en magasin, respect du positionnement prix initial et réduction de la dépendance aux soldes. Elles se donnent ainsi les moyens d’être plus attractives, de stimuler plus efficacement le trafic en magasin, et de mieux fidéliser la clientèle attirée par un renouvellement fréquent de la collection.
 

Comment le Hula Hoop sauva l’industrie plastique

Ce polymère, découvert en 1933, avait déjà aidé les Alliés à gagner la deuxième guerre mondiale. Le radar, leur arme secrète pour détecter l’ennemi, avait besoin d’énormément d’isolant pour fonctionner, ce qui le rendait trop lourd pour être installé dans les avions de chasse, dans lesquels il aurait été particulièrement utile. Le polyéthylène, léger et performant, permit enfin le développement de radars pour les avions… Ce fut un avantage technique déterminant pour les Alliés dans la Bataille de l’Atlantique contre les sous-marins allemands qui bloquaient le ravitaillement de la Grande-Bretagne.

Après la fin du conflit, on se met à chercher des applications commerciales pour le polyéthylène. Sa légèreté et sa souplesse, qui étaient des avantages pour son utilisation comme isolant, sont maintenant des handicaps. Il n’est pas assez rigide pour en faire des objets de consommation courante. Le problème découle du fait que quand les molécules d’éthylène se polymérisent en longues chaînes, celles-ci ont tendance à se ramifier. Ceci les empêche de s’empiler de manière régulière et de former ainsi un plastique rigide.

Après plusieurs années d’effort, le chimiste allemand Karl Ziegler (Prix Nobel de chimie en 1963) découvre une catégorie de catalyseurs qui forcent les molécules d’éthylène à se « discipliner » et à former de longues chaînes bien linéaires. Le nouveau polymère ainsi obtenu est doté d’une structure à une plus haute densité – d’où son appellation HDPE (de l’anglais, High Density Polyethylene) et promet davantage au point de vue commercial que le LDPE (Low Density Polyethylene) aux chaînes ramifiées.

L’industrie se lance rapidement dans la production de HDPE. Malheureusement, au moment où la production de HDPE prend de l’envergure, des problèmes inattendus apparaissent. Après quelques mois d’utilisation, le matériau craque et se désagrège, une situation potentiellement catastrophique si, par exemple, le polymère est utilisé pour fabriquer des conduites d’eau ou de gaz. En fait, les chimistes avaient trop bien fait leur travail et le polymère était devenu trop rigide, ce qui le rendait fragile. Quelques mois plus tard, les chercheurs trouvent une solution. Il s’agit de rendre la structure un peu plus souple en introduisant juste quelques ramifications, beaucoup moins que dans le LDPE mais pas autant que le HDPE.

Toutefois, l’industrie plastique est au bord de la faillite. Ses entrepôts regorgent de ce polymère dont personne ne veut et ils n’ont pas les fonds nécessaires pour mettre sur le marché ce nouveau plastique, le MDME (Medium Density Polyethylene). C’est un jouet, le Hula Hoop, qui sauvera l’industrie. En 1958, Richard Knerr et Arthur Merlin, du fabricant de jouets Wham-O, en Californie, décident de mettre sur le marché un cerceau que l’on fait tourner autour de sa taille. L’idée est influencée par les cerceaux utilisés dans les cours de gymnastique. Mais ces cerceaux sont faits de bambou, un matériau trop cher pour une production massive. Knerr et Merlin entendent parler de ce nouveau plastique dont l’industrie cherche à se débarrasser à des prix dérisoires. Les premiers Hula Hoop faits de HDPE sont lancés sur le marché au début de 1958.

Pour ceux qui ne l’ont pas vécu, il est difficile d’imaginer l’engouement causé par le Hula Hoop en si peu de temps. Vingt-cinq millions de cerceaux se vendent en quatre mois aux États-Unis seulement et plus de 100 millions la première année. Les entrepôts se vident du HDPE et l’industrie, qui obtient les capitaux nécessaires pour introduire le MDME, est sauvée de la faillite.

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

Des boîtes noires dans toutes les voitures ?

Une annonce prévue le mois prochain

Voilà une nouvelle qui risque de consolider les nombreux clivages présents entre les partisans de l’utilisation des données « personnelles » à des fins de sécurité publique et de justice équitable, et les réfractaires voyant (parfois à juste titre) Big Brother s’immiscer dans nos vies un peu plus chaque jour : le National Highway Traffic Safety Administration (NHTSA), agence fédérale américaine chargée de la sécurité routière, impliquée dans la définition et l’application des normes de construction des infrastructures routières et des véhicules routiers, doit mettre en place, courant juin, de nouvelles consignes de sécurité, impliquant notamment la présence d’un dispositif d’enregistrement de données de type « boite noire » à bord de tous les nouveaux véhicules.

Flight Data Recorder

Plus ou moins identique aux désormais familières boites noires embarquées à bord des avions depuis les années 1960, elle devrait, plus précisément, avoir de nombreuses ressemblances avec le « Flight Data Recorder » (FDR), l’enregistreur des paramètres de vol, car elle ne prendrait pas en charge l’enregistrement des voix, comme le fait l’autre boite noire embarquée, le « Cockpit Voice Recorder » (CVR).

Quelles devraient être les informations enregistrées par cette boite noire ?

Il semblerait que les données qui devraient être enregistrées par cette simili boite noire, d’après les informations affleurant ici et là sur la Toile, ne concerneraient que les quelques secondes précédant un accident de la route, et qu’elles soient les suivantes : la vitesse du véhicule au moment et juste avant l’accident, l’utilisation des freins, l’allumage ou non des phares, l’utilisation des ceintures de sécurité… les données, constituant un instantané du moment précédant l’accident, pouvant être retrouvées afin d’être analysées.

Qui pourrait avoir accès à ces données, et dans quels buts ?

On parle évidemment et en premier lieu des autorités publiques et de la police, dans le cas d’un accident de la circulation, afin d’en établir la chronologie, et d’établir quelles sont les éventuelles responsabilités en cas de délit ou de poursuites pénales. Les données pourraient aussi servir et être rendues disponibles aux compagnies d’assurance, qui pourraient eux aussi établir le partage des responsabilités lors d’un accident, à des fins « d’équité », avec toutes les guillemets que vous voudrez. Ils pourraient enfin servir aux constructeurs automobiles, leur permettant d’établir si un accident est du à une erreur de conduite, un événement extérieur ou un problème mécanique, et peut-être y remédier plus aisément, ou alors… se couvrir. Les conducteurs pourront aussi prouver qu’ils n’étaient pas en excès de vitesse au moment de l’accident.

Les dangers ?

Les principaux dangers résident dans le champ d’application et dans l’utilisation des données, ainsi que la durée de l’enregistrement. Sans parler de Big Brother, que se passerait-il si, à la sortie d’une autoroute, ou lors d’un contrôle de routine effectué par la police, on était en mesure d’examiner votre boite noire, et de vérifier que vous n’avez pas fait un excès de vitesse… trois heures plus tôt ? Il faudra aussi s’assurer que d’autres données personnelles ne seront pas enregistrées, comme l’éventuelle géolocalisation.

Moonzur Rahman

Déjà paru :

Encore l’aluminium (2/2)

La semaine dernière, je vous ai présenté la petite histoire de ce « jeune métal » qui n’a été isolé à l’état pur qu’au milieu du XIXe siècle.

Cette semaine, avant de vous parler des aspects plus controversés des propriétés de ce métal, je voudrais mentionner que l’aluminium, derrière la silicone et l’oxygène, est le troisième élément en abondance de la croûte terrestre. Ce qui explique sa présence dans une myriade de composés chimiques familiers.

Combiné à l’oxygène, on trouve l’aluminium dans le corindon, la forme cristalline de l’alumine (Al2O3). Le corindon est le plus dur de tous les minéraux, à l’exception du diamant. C’est pourquoi il est la partie constituante du papier de « verre ». Le corindon est aussi le cristal qui nous donne des pierres précieuses, comme le saphir et le rubis. Dans le premier cas, le cristal contient des traces de titane et de cobalt, alors que pour le rubis, il s’agit de chrome. Il est intéressant de remarquer que c’est la présence d’impuretés qui donne la couleur et la valeur à ces pierres précieuses. Sinon, celles-ci ne seraient que… du papier de verre !

D’autres pierres précieuses comme l’émeraude ou l’aigue-marine sont aussi composées d’aluminium. Dans les deux cas, il s’agit du même cristal, soit le béryl (Be3Al2Si6O18). Pour l’aigue-marine, qui doit son nom au bleu de la mer, la coloration est causée par la présence de fer. Pour l’émeraude, on parle plutôt de chrome. Il est intéressant de noter que dans le cas du corindon, des traces de chrome donnent la couleur rouge du rubis, alors que dans celui du béryl, ces mêmes impuretés sont responsables du vert de l’émeraude.

Le chlorhydrate d’aluminium appartient à une famille de composés chimiques que l’on trouve dans les antisudorifiques et les agents de floculation utilisés dans le traitement de l’eau. À l’instar d’autres sources d’exposition au métal, il fait régulièrement la manchette en raison d’un lien hypothétique entre l’aluminium et des maladies d’origine neurotoxique, comme la maladie d’Alzheimer.

Il ne fait pas de doute qu’une longue et constante exposition à l’aluminium soit dangereuse. Il y a quelques années, les personnes soumises à une dialyse pouvaient développer des symptômes de sénilité (démence des dialysés). Cela était attribuable à la présence d’aluminium dans le liquide de dialyse. Par ailleurs, des études ont été menées, dans le cadre desquelles des doses élevées d’aluminium étaient administrées à des cobayes, qui développaient des problèmes neurotoxiques par la suite. Mais chez l’humain, dans des conditions normales, l’exposition quotidienne est de 10 mg, ce qui est considéré sans danger. Bien que des traces d’aluminium aient été repérées dans le cerveau de certaines personnes souffrant de la maladie d’Alzheimer, il semble néanmoins que cela s’expliquerait par le fait que les plaques cérébrales associées à la maladie soient plus aptes à retenir l’aluminium, et non l’inverse.

À ce sujet, la Société Alzheimer du Canada indique sur son site www.alzheimer.ca qu’il n’y a aucune preuve de relation de cause à effet. Si cela était le cas, les buveurs de thé présentaient un taux très élevé à cet égard. En effet, les feuilles de thé sont très riches en aluminium (ainsi qu’en fluor, notamment). Pourtant, aucune étude n’a conclu à une telle association. De même, aucun lien n’a été établi entre la maladie d’Alzheimer et la prise d’antiacides contenant de l’hydroxyde d’aluminium, Al2(OH)3, bien que dans ce cas, le niveau d’absorption soit beaucoup plus élevé que celui de certains antisudorifiques ou de casseroles d’aluminium.

La production de métal peut avoir un impact environnemental important. Le minerai d’aluminium existe sous la forme de bauxite, du nom du village français Les Baux de Provence, où il a d’abord été identifié au cours des années 1800. La bauxite est un mélange complexe d’alumine (Al2O3) et d’une variété d’oxydes de fer. Pour isoler l’alumine, qui par électrolyse produit l’aluminium, la bauxite doit être traitée avec de la soude (NaOH). C’est cette soude, très caustique, que l’on trouve en grande quantité dans la « boue rouge » qui contamine l’environnement. La couleur de cette boue est attribuable à la grande quantité d’oxyde de fer qu’elle contient. La production d’une tonne d’alumine génère de deux à trois tonnes de boue rouge. Cette dernière étant difficile à traiter, elle peut être rejetée dans la mer, comme cela se fait encore en France, ou stockée dans des bassins de rétention. En octobre 2010, la rupture d’un de ces bassins de stockage en Hongrie a libéré près d’un million de mètres cubes de boue rouge, causant la mort de neuf personnes et entraînant la contamination du Danube.

Pour terminer, je me dois de mentionner l’une des utilisations les plus saugrenues de l’aluminium. Le 2 juillet 1983, le Californien Larry Walters a pris son envol sur une chaise de jardin… en aluminium. Il y avait attaché 45 ballons-sondes remplis d’hélium et a atteint une altitude de plus de 4 000 mètres. L’explosion de ballons par une carabine à plombs devait permettre le contrôle de sa descente. Malheureusement, son plan n’a pu être mis à exécution, car, en cours de route, il avait laissé tomber sa carabine par mégarde. Finalement, au moment de son arrivée, soit après 45 minutes de vol, il a été frappé d’une amende de 1 500 dollars « […] pour avoir fait voler un aéronef sans certification […] ».

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

 

DÉJÀ PUBLIÉ :

La fabuleuse histoire de l’aluminium (1/2)

Avancées dans la lutte contre la maladie d’Alzheimer

Un siège de véhicule qui mesure l’activité cardiaque du conducteur

Les ingénieurs du centre de recherche européen Ford situé à Aix-la-Chapelle, en Allemagne, se sont lancés en étroite collaboration avec la Rheinisch-Westfälische Technische Hochschule, Université d’Aix-la-Chapelle, dans un projet visant à résoudre un problème de sécurité routière souvent négligé – les accidents provoqués par des conducteurs victimes de problèmes cardiaques.

Le prototype du siège Ford fait appel à la technologie de l’ECG (électrocardiographe) conçue pour surveiller les impulsions électriques du cœur et détecter les signes d’irrégularité, permettant ainsi d’inviter très tôt les conducteurs à consulter un médecin lorsqu’ils présentent un risque de crise cardiaque ou autre problème cardiovasculaire. Tandis que les appareils d’ECG classiques que l’on trouve dans les cabinets médicaux sont équipés d’électrodes métalliques qui doivent être fixées sur la peau à différents endroits du corps, le siège ECG Ford comporte six capteurs intégrés, capables de détecter l’activité cardiaque du conducteur au travers de ses vêtements.

« Le système sera en mesure de déceler tout problème cardiovasculaire du conducteur, tel qu’une crise cardiaque, et peut aussi être utilisé pour détecter les symptômes d’autres affections tels qu’une pression artérielle élevée ou des déséquilibres électrolytiques » explique le Dr. Achim Lindner, médecin au centre de recherche Ford. « Il profitera ainsi non seulement au conducteur, mais également à tous les autres usagers de la route. »

Les travaux de recherche menés dans le cadre du projet Impaired Motorists, Methods of Roadside Testing and Assessment for Licensing (facultés de conduite réduites et méthodes de contrôle routier et d’évaluation pour l’attribution du permis de conduire), un programme de trois ans mis en oeuvre au sein de l’Union européenne, ont permis d’établir que les conducteurs souffrant d’une maladie cardiovasculaire présentent en moyenne un risque d’accident supérieur de 23 %. Chez les conducteurs souffrant d’angine de poitrine, ce chiffre atteint même 52 %.

Au vu des prévisions estimant que les personnes de 65 ans et plus représenteront 23 % de la population européenne d’ici 2025 et 30 % d’ici 2050, il apparaît probable que le nombre de conducteurs risquant d’être victime d’une crise cardiaque augmentera considérablement dans les années à venir.

Le siège interragissant avec des systèmes embarqués

Ford teste également son prototype de siège pour déterminer comment il pourrait interagir avec d’autres systèmes embarqués afin d’inciter le conducteur en danger à garer son véhicule et à consulter un médecin, voire d’envoyer un message d’alerte aux services d’urgences médicales si besoin.

Selon le Dr. Achim Lindner, le téléphone portable pourrait jouer un rôle clé d’interface pour une future application de la technologie testée. Relié à un système tel que Ford SYNC avec MyFord Touch, le siège avec surveillance du rythme cardiaque Ford pourrait utiliser le téléphone portable du conducteur pour envoyer un message aux centres médicaux, alertant ainsi leur personnel d’une activité cardiaque irrégulière. Le siège pourrait également être relié à la fonction d’aide d’urgence du système SYNC pour informer les équipes de secours de l’activité cardiaque du conducteur avant, pendant et après un accident.

Ford étudie également comment les technologies de sécurité telles que l’alerte de franchissement involontaire de ligne avec dispositif de maintien dans la file, le système de détection des collisions et freinage automatisé et le limiteur de vitesse, pourraient agir de concert avec le siège à surveillance du rythme cardiaque pour contribuer à protéger les conducteurs en cas de problèmes cardiaques.

Les ingénieurs Ford explorent également les éventuelles possibilités d’utilisation du siège mis au point pour effectuer un suivi des patients et permettre l’envoi d’un enregistrement de leur activité cardiaque aux professionnels de santé, réduisant ainsi la nécessité des consultations en milieu hospitalier.

« Même s’il ne s’agit encore que d’un projet de recherche, cette technologie pourrait s’avérer une innovation majeure », affirme le Dr. Achim Lindner. « Comme toujours en médecine, plus une affection est décelée à un stade précoce, plus il est facile de la traiter, et cette technologie peut permettre de diagnostiquer des défaillances cardiaques très tôt. »

La technologie d’ECG sans contact

Depuis le début de l’année 2009, les chercheurs de Ford travaillent à l’adaptation de la technologie d’ECG sans contact mise au point par la Rheinisch-Westfälische Technische Hochschule, Université d’Aix-la-Chapelle.

« Le siège Ford apparaît comme la suite logique de notre travail sur l’équipement de contrôle ECG sans contact auquel il confère un intérêt potentiel majeur en situation réelle, affirme le Professeur Steffen Leonhardt de la Rheinisch-Westfälische Technische Hochschule, Université d’Aix-la-Chapelle. Etant donné le vieillissement de la population en Europe et dans le reste du monde, le nombre de personnes âgées au volant est appelé à augmenter et les risques connexes seront alors accrus. Cette technologie promet de sauver des vies et de renforcer la sécurité routière. »

Lors des premiers tests, le siège avec surveillance cardiaque de Ford a enregistré des données justes dans 98 % du temps de conduite et pour 95 % des conducteurs. Les ingénieurs de la recherche Ford continuent d’étudier comment concevoir des capteurs permettant d’enregistrer des signaux au travers d’un plus grand nombre de matériaux, y compris ceux empêchant toute mesure en raison de leur propre activité électrique.

Informations sur les problèmes cardiaques

  • Il est erroné de croire que les crises cardiaques sont toujours accompagnées d’intenses douleurs thoraciques : certaines victimes ne ressentent aucune douleur et une étude américaine a montré qu’un tiers des personnes ayant déjà subi une crise cardiaque n’ont pas appelé les secours (selon le UK National Health Service)
  • Au sein de l’Union européenne en 2008, les hommes avaient presque deux fois plus de risques que les femmes de mourir d’une crise cardiaque (selon l’Organisation de Coopération et de Développement Economiques et la Commission européenne)
  • Plus d’un quart de la population mondiale d’âge adulte souffrait d’hypertension artérielle au début du 21ème siècle. Ce chiffre devrait augmenter de 60 % d’ici 2025 (selon le système d’information sur la santé publique de l’Union européenne)
  • En 2008, les pathologies cardiaques étaient à l’origine de 40 % des décès survenus au sein de l’Union européenne (selon l’Organisation de Coopération et de Développement Economiques et la Commission européenne).

 

Déjà paru :

Nouvelle technologie composite pour un siège automobile sans métal

Systèmes embarqués : un défi économique dans les mains de la recherche

Systèmes embarqués : un déploiement tout azimut

Où en est le photovoltaïque à concentration en 2011 ?

Le solaire photovoltaïque à concentration ou Concentrated PhotoVoltaic (CPV) est une technologie qui concentre les rayons du soleil sur de petites cellules très efficaces afin de réduire la surface active de conversion photovoltaïque. Ainsi, les matériaux semi-conducteurs sont remplacés par des éléments optiques bien moins onéreux. Certains constructeurs comme Solfocus utilisent des miroirs pour concentrer les rayons. D’autres, comme Amonix ou Opel Solar optent pour des lentilles de Fresnel, qui sont soit en polyméthacrylate de méthyle (ou PMMA en anglais), soit en silicium sur verre (silicon on glass : SOG).

La concentration diminue la capture des rayons qui ne proviennent pas directement du soleil, comme par exemple les rayons réfléchis sur les nuages ou le sol. C’est pourquoi les modules CPV sont constamment orientés face au soleil à l’aide d’héliostats (ou trackers). Ceci engendre un surcoût à la fois pour l’investissement initial mais aussi pour l’opération et la maintenance puisque les héliostats comportent des parties mécaniques nécessitant une attention particulière.

Basse concentration VS haute concentration

Les systèmes se différencient surtout selon leur facteur de concentration, qui peut être bas (2 à 100), moyen (100 à 300) ou haut (supérieur à 300). L’avantage de la basse concentration est que le tracking peut être moins précis car les instruments optiques collectent plus de rayons qui ne sont pas exactement perpendiculaires au récepteur : cela permet l’utilisation de trackers plus simples, parfois avec un seul axe de rotation.

En contrepartie, l’avantage de la haute concentration est de tellement réduire la taille de la cellule photovoltaïque que des matériaux et structures ultraperformants, d’ordinaire réservés aux engins spatiaux, deviennent financièrement accessibles. Le principe des cellules multi-jonctions (MJ) est d’empiler trois jonctions p-n qui sont chacune optimisées pour la conversion d’une partie du spectre solaire. Celle du haut, qui possède une largeur de bande interdite (bandgap) élevée, agit comme un filtre passe-bas et récupère les photons de plus grande énergie (ultra-violets et une partie du spectre visible). Celle du milieu exploite la plupart des photons du spectre visible restants et la dernière cellule, le reste (infra-rouges). Les ressources en germanium, substrat de base de ces cellules, sont parfois évoquées comme un frein au développement des cellules MJ mais Umicore, leader du marché des wafers au germanium, semble cependant confiant et prépare l’avenir en investissant dans des mines.

L’entreprise Solar Junction, dont la base de la technologie a été inventée à l’université Stanford par Homan Yuen, détient aujourd’hui le record de rendement photovoltaïque au niveau cellule certifié par le National Renewable Energy Laboratory (43,5 %). L’exploit est particulièrement remarquable car les différentes couches de la cellule ont des systèmes réticulaires de même paramètre de maille (lattice-matched) alors que la plupart des cellules MJ mises au point par les autres compagnies ont une structure métamorphique dont la stabilité dans le temps n’a pas été prouvée. Solar Junction est en lice avec quelques autres compagnies pour obtenir une garantie de prêt du Department of Energy (DoE) qui l’aiderait à construire une ligne de production de 250 MW à San Jose en Californie.

Notons que la recherche sur l’un des matériaux des cellules MJ, l’arsénure de gallium (GaAs), donne lieu au développement de cellules photovoltaïques qui pourraient être utilisées dans les systèmes « classiques ». C’est le pari de la compagnie AltaDevices qui utilise un procédé de croissance épitaxiale, utilisé pour la première fois par le professeur Eli Yablonovitch, actuellement directeur d’un centre de recherche à Berkeley.

Finalement, les systèmes à haute concentration (HCPV) sont plus distincts des systèmes photovoltaïques conventionnels que les systèmes à basse concentration (LCPV) puisque :

– les trackers doivent être très précis et offrir un large débattement, ils représentent 21 % du prix du système ;

– les systèmes optiques sont souvent constitués d’un élément primaire et d’un élément secondaire ;

– les matériaux photovoltaïques utilisés (cellules MJ III-V GaInP/GaInAs/Ge ou GaInP/GaAs/GaInAs) permettent d’atteindre un rendement au niveau module de presque 30 % ;

– les niveaux de concentration rendent nécessaire un système de gestion (actif ou passif) de la température car il faut évacuer en chaleur l’énergie que la cellule n’a pas convertie en électricité ;

– la puissance solaire exploitable, appelée DNI (Direct Normal Irradiance) n’est pas répartie de la même façon que celle des systèmes sans concentration et elle ne se mesure pas avec les même instruments. Les zones où le HCPV serait le plus rentable sont celles où l’ensoleillement direct normal quotidien serait supérieur à 5-6 kWh/m2.

Développement du CPV aux Etats-Unis

Malgré ses attraits et ses vingt années d’existence, le CPV ne s’est pour l’instant déployé que dans des proportions limitées. D’après Strategy Analytics, la puissance mondiale installée est actuellement de 16,3 MW soit 0,1 % de la puissance photovoltaïque globale. Cependant, cela pourrait bien changer et il estime que le CPV pourrait atteindre 1 GW d’installations dès 2014 ou 2015.

Aux Etats-Unis la phase de déploiement à grande échelle semble être amorcée et des installations HCPV dépassant 1 MW ont récemment été annoncées. Citons par exemple le projet de 30 MW à Alomosa développé par Cogentrix et utilisant la technologie d’Amonix, qui a obtenu début mai une garantie de prêt conditionnelle de $90,6 millions par le Department of Energy.

En effet, contrairement à la France, les Etats-Unis ont des zones où l’ensoleillement est assez important pour que l’installation de systèmes à haute concentration ait du sens. D’après le rapport 2010 de l’industrie CPV, la puissance installée passera de 1,5 MW à 75 MW dans les cinq prochaînes années. En 2015, le coût moyen actualisé de l’électricité CPV serait de 8 c$/ kWh seulement, le prix d’installation HCPV serait abaissé à $2,47/W et $1,75/W pour le LCPV.

   Cartographie CPV   

La carte ci-dessus recense les activités de développement du CPV aux Etats-Unis : fabrication de cellules MJ, de systèmes LCPV et HCPV et développement de projets (NB : les entreprises de trackers n’ont pas été représentées). Il apparaît que tous les acteurs de la chaîne sont présents sur le territoire et en nombre suffisant pour qu’il y ait compétition et émulation entre eux. Comme souvent, l’activité technologique a lieu surtout le long des côtes auprès des grands centres de recherches et la Californie est d’autant plus entreprenante que son climat politique est favorable au développement des énergies renouvelables et qu’elle se situe à proximité des zones fortement ensoleillées. Les projets de grandes centrales (tous HCPV pour le moment) sont naturellement situés dans des régions où l’énergie directe normale provenant du soleil est la plus forte – supérieure ou égale à 6 kWh/m2 – mais s’éloignent le moins possible des pôles de consommation d’électricité (notamment les agglomérations urbaines). Des usines d’assemblages des modules sont localisées aux mêmes endroits pour diminuer les frais de transports, ce qui favorise la création de main d’oeuvre locale.

Ce sont les trois entreprises leaders du marché mondial du HCPV qui initient les larges projets du sud-ouest américain :

– Solfocus et Amonix, qui sont originaires de Californie ;

– Soitec-Concentrix, une spin-off de l’institut Fraunhofer (allemand) rachetée en décembre 2009 par le français Soitec.

Soulignons que, même si elle ne fait pas l’objet de cet article, la recherche sur de nouveaux systèmes est toujours active. A l’université d’Arizona par exemple, le Dr. Angel s’inspire de ses connaissances en conception de télescope pour mettre au point des systèmes à très haute concentration (x1000) composés de larges optiques d’environ trois mètres carrés et utilisant le moins de verre et d’acier possible. Outre l’augmentation de rendement des cellules MJ mentionnée plus haut, l’amélioration des systèmes actuels est encore possible grâce à des idées nouvelles. Les étudiants du programme Cleantech to Market ont, par exemple, pensé à utiliser un revêtement thermoélectrique innovant dans les systèmes HCPV, pour exploiter la différence de température entre la cellule et l’air ambiant et augmenter le rendement de conversion électrique. D’après eux, ceci est envisageable car leur matériau polymère recouvert de nanotubes de tellure présente l’avantage d’être imprimable et bien moins coûteux que le tellure de bismuth (Bi2Te3) utilisé d’ordinaire pour les usages thermoélectriques.

En conclusion, le CPV semble avoir amorcé sa phase de développement aux Etats-Unis. Grâce au retour d’expérience acquis et aux différents projets en cours de construction, le CPV pourrait rentrer dans un cercle vertueux et ainsi faire enfin baisser le coût moyen actualisé de son électricité. Bonne nouvelle pour les américians, leur pays est en avance sur les autres. En effet d’après un rapport de GreenTech Media recemment publié, 331 MW y sont installés ou en construction, loin devant les deux pays suivants : l’Espagne (18 MW) et l’Australie (3 MW).

Sources : http://www.bulletins-electroniques.com/actualites/66820.htm

 

Déjà paru :

Affaire DSK : comment fonctionne un bracelet électronique ?

19 mai 2011 : Dominique Strauss-Kahn, l’ancien président du Fonds Monétaire International, le FMI, est officiellement inculpé d’agression sexuelle et de tentative de viol sur une femme de chambre de l’hôtel new-yorkais dans lequel il se trouvait cinq jours plus tôt. Les mesures de sa libération sous caution sont exceptionnellement drastiques : outre le versement d’une caution d’un million de dollars avec un dépôt de garantie de 5 millions, il sera assigné à résidence en présence constante d’un garde armé, sera sous la surveillance de nombreuses caméras et devra porter un bracelet électronique.

Le bracelet électronique de DSK devra constamment être porté à la cheville, le pistant où qu’il aille, et fonctionnant grâce à la technologie GPS, alors que d’autres fonctionnent sur une base RFID. Ce bracelet assurera le suivi de la position et des mouvements de DSK en temps réel, à l’aide de connexions toutes les minutes. Comme pour le GPS d’une voiture, la position de DSK sera signalée sur un écran de contrôle par un point, se déplaçant par exemple d’un endroit à l’autre de la résidence. Si le système rencontre le moindre problème dans ses rapports, se faisant à intervalles réguliers, les autorités ainsi que l’agence responsable de la surveillance sont prévenues par mail, SMS ou par un appel téléphonique automatique.

Pesant moins de 500 grammes, ce système permet de programmer des zones d’inclusion ou d’exclusion géographique. Dans le cas présent, la zone d’inclusion serait la résidence de DSK. Mais on pourrait aussi très bien définir des zones d’exclusion géographique, lui interdisant formellement de se trouver autour des aéroports ou des gares. Si ces zones ne sont pas respectées, une alerte se déclenche. Une alerte se déclenche aussitôt si on tente de « bidouiller » le bracelet, voire si on essaie de l’enlever ou de le couper, grâce au monofilament intégré.

Moonzur Rahman

Déjà paru :

Métro insolite

À quels projets de métro vraiment loufoques les Parisiens ont-ils échappé ? Où peut-on découvrir l’impressionnante machinerie d’une sous-station ? Au détour de quel couloir s’émerveille-t-on devant les superbes faïences du Nord-Sud ? Pourquoi certaines stations ont-elles perdu leur nom de baptême ? Que signifient les mystérieux signaux des rames et des tunnels ? Où se trouvent les « stations fantômes » jamais ouvertes au public ? Comment prendre la mesure de l’incroyable lacis des voies de service et arrière gares ? Pour tous les passionnés du métro et du rail, une belle aventure à travers l’histoire du métro, ses secrets et son fonctionnement !

L’auteur Clive LAMMING, historien des chemins de fer, a publié de nombreux ouvrages sur le sujet mais aussi sur le modélisme ferroviaire ou les jouets anciens de collection, dont Paris ferroviaire, Métro insolite et Paris Tram. Il a été également le conseiller scientifique du Centre Pompidou pour l’exposition “La mythologie des chemins de fer”.

Références : Editions Parigramme, 176 pages, avril 2011, ISBN 284096726X

A noter également :

  • A l’occasion de la sortie de son livre, Clive LAMMING animera une conférence le jeudi 09 juin 2011 à 18h30, au Musée des Arts et métiers 60, rue Réaumur 75003 Paris (Entrée libre dans la limite des places disponibles)
  • Le Musée des arts et métiers, soutenu par la RATP, proposera également une exposition sur le métro parisien du 7 juin 2011 au 1er janvier 2012.

par MB

Optimisation du procédé de fabrication du bioéthanol de 2éme génération

La viabilité économique de la production de bioéthanol de deuxième génération repose largement sur l’efficacité de l’étape d’hydrolyse enzymatique. Celle-ci consiste à utiliser les enzymes produites par une souche de champignon pour transformer la cellulose issue d’une biomasse ligno-cellulosique non alimentaire, comme la paille de blé, en sucres fermentescibles. Ces sucres sont ensuite fermentés par des levures pour la production de bioéthanol.

En partenariat avec IFP Energies nouvelles (IFPEN), la société de biotechnologie industrielle Protéus S.A. (groupe PCAS) vient de publier les résultats obtenus sur l’optimisation de l’activité enzymatique de la b-glucosidase Cel3A du Trichoderma reesei par sa technologie de « Gene shuffling » ou « L-Shuffling ».

Alors que les sélectionneurs doivent attendre des mois, voire des années, que les animaux ou les plantes soient à même de se reproduire, la technologie in vitro L-Shuffling, développée par Protéus en 1998 et protégée par plusieurs brevets,  permet d’obtenir des milliers de protéines nouvelles en seulement quelques heures. A partir d’un ou plusieurs gènes parents codant pour une ou des protéines non optimales, le « Gene shuffling » permet d’obtenir très rapidement une banque de gènes de seconde génération qui est exprimée puis criblée pour en sélectionner les protéines qui présentent des performances améliorées. Ce procédé peut être répété à plusieurs reprises, les protéines « filles » issues d’un premier tour d’évolution dirigée servant à leur tour de protéines « parentales »  dans le suivant, jusqu’à ce que l’une d’entre elles remplisse les conditions ciblées.

Grâce à l’amélioration de cette enzyme, IFPEN a pu construire une nouvelle souche de Trichoderma reesei produisant un cocktail enzymatique qui diminue par quatre la quantité d’enzyme nécessaire à l’hydrolyse complète de la paille de blé, prétraitée pour la production de bioéthanol de deuxième génération. Brevetés, les premiers résultats d’optimisation obtenus permettent d’envisager une diminution significative du coût de cette étape.

Les travaux conduits par Proteus et IFPEN ont été financés en partie par l’Agence Nationale de la Recherche, via le Programme National de Recherche sur les Bioénergies, de 2006 à 2009 (projet HYPAB) mais ces deux partenaires poursuivent leurs recherches sur l’amélioration d’autres activités enzymatiques impliquées dans l’hydrolyse de la cellulose, dans le cadre d’un nouveau programme soutenu par l’ANR (Actife).

 

Déjà paru :

 

L’acier solution pour des véhicules légers ?

Lancé il y a trois ans, le programme, « FutureSteelVehicle » (FSV) était destiné à développer des concepts de véhicules électriques tout en acier, totalement opérationnels, et qui permettent de réduire les émissions de gaz à effet de serre sur l’ensemble du cycle de vie du véhicule.  Le WorldAutoSteel qui représente le groupe automobile de l’Association mondiale de l’acier et se compose de dix-sept des principaux producteurs mondiaux d’acier, vient de dévoiler les résultats de cette étude. Il a présenté des concepts de carrosserie en acier qui réduisent la masse de 35 % par rapport à un véhicule de référence, ainsi que près de 70 % des émissions sur le cycle de vie entier du véhicule. Ces performances n’empêchent pas le véhicule de respecter une longue liste d’exigences générales en matière de sécurité et de durabilité, tout en évitant un surcoût trop élevé lié à l’allègement.

« FutureSteelVehicle met à profit les principaux avantages de l’acier en terme de liberté de conception, de résistance et d’aptitude à la réalisation de forme complexe, ses faibles émissions de CO2 lors de la phase de fabrication, et son faible coût », a déclaré Cees ten Broek, directeur de WorldAutoSteel, dont la mission principale consiste à faire progresser et connaître la capacité unique de l’acier à satisfaire les besoins et relever les défis de l’industrie automobile de manière durable et respectueuse de l’environnement. « Durant le développement du programme « FutureSteelVehicle », une large gamme d’applications acier ont été réalisées, qui permettent de réduire les émissions de tout type d’automobile sur l’ensemble du cycle de vie ».
 
Une approche, fondée sur l’évaluation du cycle de vie (ECV) des émissions, aide les constructeurs automobiles à évaluer et à réduire la consommation totale d’énergie et les émissions de gaz à effet de serre de leurs produits sur l’ensemble du cycle de vie. Les règlementations qui ne prennent en compte que la phase d’utilisation du véhicule, en ne considérant que les émissions mesurées à l’échappement, peuvent inciter à l’utilisation de matériaux à faible densité et à fortes émissions de gaz à effet de serre, qui peuvent, dans certains cas, fournir des composants plus légers et donc permettre des économies de carburant et de plus faibles émissions à l’échappement. Cela peut cependant avoir des conséquences contraires à l’objectif souhaité en augmentant les émissions de gaz à effet de serre sur la totalité du cycle de vie du véhicule. 

Le concept FSV répond aux exigences réglementaires de 2020

D’après Cees ten Broek, « l’importance de la réduction de poids, réalisée grâce à de nouveaux aciers et une optimisation de la conception, fixe un nouveau standard pour la conception des véhicules dans le futur ». « Dans l’évaluation des diverses solutions lors de la phase 2, nous avons pris comme référence le modèle de comparaison des matériaux produisant des gaz à effet de serre, développé par l’Université de Californie à Santa Barbara (UCSB) ». « Le programme FSV anticipe les futures législations ou autres exigences règlementaires qui seront fixées à travers le monde en matière d’émission. L’industrie de l’acier dans sa globalité assume la responsabilité de montrer l’exemple en démontrant que l’usage de l’acier et des évaluations du cycle de vie peuvent réduire l’empreinte carbone des véhicules ».
 
Les concepts FSV sont très efficaces et très légers. Un concept FSV pèse 188 kg et réduit la masse de 35 % sur la base d’une caisse en blanc à architecture ICE (moteur à combustion interne) après transformation en véhicule 100 % électrique à batteries et en tenant compte des exigences réglementaires de l’année 2020. 

Prise en compte de toutes les phases du cycle de vie

Il est important de remarquer que, grâce aux capacités de réduction de poids des nouveaux aciers, l’acier est le seul matériau permettant de réduire les émissions dans toutes les phases du cycle de vie. Les efforts fournis par l’industrie automobile, en matière de réduction des émissions d’équivalents de dioxyde de carbone (CO2), se tournent de plus en plus vers les technologies hybrides et 100 % électrique et les carburants alternatifs. C’est pourquoi la production des matériaux représentera un pourcentage croissant des émissions sur la totalité du cycle de vie.
 
FSV est le programme le plus récent, conduit par l’industrie mondiale de l’acier, dans une série d’initiatives visant à apporter des solutions utilisant l’acier aux défis rencontrés par les constructeurs automobiles, à travers le monde, en matière de rendement énergétique des carburants et de réduction des gaz à effet de serre, tout en améliorant la sécurité et les performances à des prix abordables. « En se focalisant sur les exigences environnementales imposées dans le futur aux constructeurs automobiles, sur une gamme complète de nuances d’acier et une méthodologie unique d’optimisation, le programme FutureSteelVehicle dispose de tous les ingrédients pour devenir un succès incontournable », selon Cees ten Broek. « FutureSteelVehicle permet à l’industrie mondiale de l’acier de faire progresser sa position sur le marché de l’automobile. » 

 

Déjà paru :

 

DIAPORAMA – L’éruption du volcan islandais Grimsvötn

Un nuage de cendres s’échappe du volcan Grimsvötn

L’éruption du volcan Grimsvötn photographiée par la Nasa

Le panache de fumée s’élèvait à 17 km d’altitude, dimanche 22 mai

Ce berger rentre ses moutons pour les mettre à l’abri des cendres

Des passagers, dont les vols ont été annulés, dorment à l’aéroport d’Édimbourgh (Écosse)

L’aéroport de Keflavik, plus grand aéroport international islandais, a fermé dimanche pour finalement réouvrir lundi soir

Ces touristes sont équipés de masques afin de ne pas respirer les particules de cendres

En avril 2010, le nuage dégagé par l’éruption d’un autre volcan islandais, l’Eyjafjöll, a entraîné la fermeture de l’espace aérien européen

Boîtes noires du vol Rio-Paris : conclusions hâtives ?

A peine ouvertes, les boites noires livrent leurs secrets. C’est tout du moins ce que laissent penser des informations qui filtrent au compte-goutte du Bureau d’Enquêtes et Analyses (BEA), les premières analyses semblant mettre hors de cause Airbus dans le crash du 1er juin 2009. Un telex envoyé par le constructeur européen à ses clients indique qu’il n’a aucune recommandation immédiate à faire à ses opérateurs. En clair, rien dans les premières analyses des boites ne donnent de raisons à Airbus d’alerter ses clients sur une quelconque faille technique de l’A330. De son côté, le BEA rappelle que lui seul est habilité à communiquer sur l’avancée de l’enquête, et de préciser que « les données contenues dans les deux enregistreurs de vol donnent aujourd’hui la quasi-certitude que toute la lumière va pouvoir être faite sur l’accident ».

La colère du Syndicat National des Pilotes de Ligne (SNPL) devant ces conclusions hâtives ne s’est pas faite attendre, refusant vigoureusement que « les pilotes morts dans cette catastrophe ne soient jetés en pâture ». Airbus s’appuierait sur les premières analyses de la FDR (Flight Data Recorder), l’une des deux boites noires, qui a pourtant passé près de deux ans dans l’océan Atlantique, au large du Brésil, bien que le timing du BEA ne promette pas de rapport avant l’été.

L’Airbus A330 d’Air France effectuait la liaison Rio-Paris avec à son bord 228 personnes. Les boites noires ont été repérées puis repêchées début mai, alors qu’elles reposaient à près de 3 900 mètres de profondeur, par un robot submersible automatisé équipant le navire « Ile de Sein », du Français Alcatel. Si les enquêteurs ont établi le dysfonctionnement des sondes Pitot, il ne peut probablement pas expliquer à lui-seul le crash.

Moonzur Rahman

Déjà paru :

Un écran ultrafin et flexible, dont on peut «tourner les pages»

« C’est le futur. Tout ressemblera plus ou moins à ça dans les cinq ans », s’emballe Roel Vertegaal, créateur du « PaperPhone » et directeur du Human Media Lab de la Queen’s University, dans la région canadienne de l’Ontario.

« Cet écran ressemble, s’appréhende et fonctionne tout comme une simple petite feuille de papier interactif », explique-t-il. L’interface se veut très intuitive, exploitant des gestes habituels pour déclencher des commandes simples. Il suffit par exemple de saisir le coin supérieur droit de l’écran, comme si l’on désirait tourner les pages d’un livre, pour également passer à la page suivante sur cet écran. Pas forcément facile à visualiser, voici plus de précisions dans la vidéo qui suit :

Le Paperphone peut se décrire comme un prototype de Smartphone flexible, puisqu’il est capable d’en assumer les mêmes fonctionnalités (lecteur de musique, lecteur de livre électronique, ou évidemment passer un coup de fil…). Son écran de 9,5 centimètres de diagonale, fin et souple, utilise la technologie de l’encre électronique E-ink, et est encore plus mobile que n’importe quel autre Smartphone, car il peut s’adapter à nos poches.

Son créateur y voit même une technologie qui sera à même de signer la fin du papier et des imprimantes dans les entreprises. « L’avenir du bureau, sans papier, se trouve ici, entre nos mains. Tout peut être enregistré numériquement, et l’on peut placer ces écrans les uns sur les autres, comme une pile de papier, ou même les jeter négligemment sur nos bureaux. », dit encore Vertegaal.

Roel Vertegaal a révélé sa trouvaille le 10 mai à la conférence de l’Association of Computing Machinery’s CHI 2011 (« Computer Human Interaction ») à Vancouver, première conférence internationale traitant de l’interaction humain-ordinateur. Il reste tout de même du chemin à parcourir avant une éventuelle commercialisation.

Moonzur Rahman

Déjà paru :