Une nouvelle technologie associant géolocalisation et Twitter pour l’hiver prochain

Concrètement, Twitter dispose d’un important volume de tweets (qui sont des messages ou des statuts écrits par les utilisateurs et publiés sur ce site) stockés dans ses centres de données. Après suppression de tout détail permettant d’identifier les utilisateurs ayant rédigé ces tweets, mots-clés, emplacements et horaires seront extraits automatiquement. Grâce à ces informations, il est possible d’identifier des événements ou des points d’intérêts spécifiques à une certaine zone géographique.

Même si Twitter est actuellement fortement utilisé pour transmettre et/ou collecter de l’information, il lui est difficile de collecter des données pertinentes pour une localisation donnée. La technologie prévue par les deux sociétés rendra capable les utilisateurs de téléphones portables de connaître facilement les événements, les bons plans shopping ou d’autres informations particulières dans une certaine zone. D’autres entreprises seraient aussi en mesure d’utiliser ce système en tant qu’outil marketing pour dégager, par exemple, des tendances de consommation régionales.

Le logiciel nécessaire pour cette technologie ne sera préalablement disponible que sur les téléphones NTT Docomo (à la fois conventionnels et smartphones), mais pourrait ensuite être proposé aux utilisateurs d’autres réseaux téléphoniques. Les deux sociétés souhaitent lancer le service à l’hiver prochain. L’outil permettait de propager rapidement des informations, le nombre d’utilisateurs de Twitter au Japon (estimé à environ 17,5 millions en mars 2011) a très fortement augmenté depuis le séisme du 11 mars 2011.
 

Source : Les bulletins électroniques

En savoir plus : http://www.bulletins-electroniques.com/actualites/66759.htm

Des grilles de haut-parleurs en ABS/PA

Commercialisé à grande échelle depuis 2010 le début de l’année, un mélange de ABS et de PA,  le Terblend N NM 21 EF de BASF, vient de trouver sa première application en grande série dans les habillages intérieurs automobiles. L’entreprise Peguform, un équipementier automobile implanté à Bötzingen, en Allemagne, utilise en effet ce matériau qui présente d’excellentes propriétés d’écoulement,  pour produire des grilles de haut-parleurs intégrés dans les panneaux de portière destinées à une série d’automobiles allemandes fabriquée en grande série.

Terblend N NM 21 EF (EF étant l’abréviation anglaise d’Excellent Flow ou excellent écoulement) présente une qualité de surface telle qu’elle ne nécessite aucune mise en peinture, et peut être coloré dans une large gamme de teintes pour les applications automobiles. Les caractéristiques d’écoulement du produit permettent le moulage par remplissage des fines structures des grilles de haut-parleurs de grandes dimensions. La morphologie de la résine délivre une surface mate d’une grande uniformité.

Une étroite coopération avec Peguform a été mise en place afin d’obtenir les couleurs recherchées par l’équipementier. Ce qui n’a pas tardé à porter ses fruits : Thomas Weber, chef de projet chez Peguform en charge des éléments d’habillage intérieur, relate le déroulement de cette phase de développement : «Le woofer, un haut-parleur très robuste optimisé pour les sons graves, nous a posé pas mal de difficultés techniques dans la transformation de la matière plastique pour la grille. Toutefois, en collaborant avec les experts de la Designfabrik de BASF, nous avons réussi à colorer la résine Terblend N pour obtenir la très haute qualité recherchée par les fabricants automobiles. Ces derniers sont en effet très exigeants en matière de couleurs d’habillage intérieur. Ils recherchent des coloris parfois insolites et difficiles à formuler.»

Le gaz hilarant… Il y a plusieurs facettes à chaque histoire

La manchette du journal israélien Haaretz était plutôt tragique : « Deux adolescents meurent à la suite d’une surdose de gaz hilarant ». Deux victimes de plus associées à l’utilisation indue de ce gaz.

Découvert en 1776 par Joseph Priestley, ce gaz, dont le nom chimique est l’oxyde nitreux (N2O), devint très rapidement populaire pour ses effets euphorisants. On le retrouvait dans les plus grands salons, où la haute société organisait des soirées appelées « frolics ». Les invités, après avoir inhalé le gaz, perdaient leurs inhibitions et agissaient de manière cocasse en riant sans raison, d’où son surnom. On s’en servait aussi dans les fêtes foraines, où l’on payait pour avoir le privilège d’inhaler de l’oxyde nitreux et d’en apprécier les effets. C’est après avoir découvert les effets du gaz lors d’un tel événement que le dentiste américain Horace Wells (1815-1848) eut l’idée de l’utiliser comme anesthésique. L’un des visiteurs de la foire avait en effet trébuché alors qu’il était sous l’effet du gaz et malgré une profonde blessure à la jambe, il ne semblait ressentir aucune douleur. Horace Wells commença donc à utiliser l’oxyde nitreux dans le cadre de sa pratique à partir de 1844.

Le 20 janvier 1845, il décida de démontrer les effets du gaz nitreux au Massachussetts General Hospital. Malheureusement, une erreur dans l’administration du gaz fit en sorte que le patient volontaire se mit à hurler de douleur. Horace Wells quitta la salle sous les quolibets et ne se remit jamais de cet échec. Il se tourna donc vers le chloroforme, un autre anesthésique découvert en 1847. En 1848, il se suicida en se tranchant l’artère fémorale. Pourtant, l’histoire désigne désormais Horace Wells comme ayant été le fondateur de l’anesthésie. Pour ceux d’entre vous qui habitez Paris (il y en a parmi mes lecteurs), rendez- vous à la Place des États-Unis. Vous y trouverez la statue d’Horace Wells, qui porte l’inscription : « Au dentiste américain Horace Wells, novateur de l’anesthésie chirurgicale 1844-1848 ».

S’il vivait encore, Horace Wells serait surpris d’apprendre que l’oxyde nitreux est toujours utilisé par certains dentistes*. Comme relaxant, il est particulièrement efficace chez les patients souffrant d’anxiété ou de phobie dentaire, respectivement 20 % et 5 % de la population. L’American Academy of Pediatric Dentistry le recommande pour les enfants. D’après certaines données, 30 % des dentistes aux États-Unis l’utiliseraient régulièrement. Il est nettement moins populaire au Canada, possiblement à cause d’anecdotes liant son utilisation à des fausses couches et des problèmes d’infertilité parmi le personnel dentaire qui y est exposé.

Mais là où il n’existe aucun doute au sujet de l’oxyde nitreux, c’est au niveau des dangers qu’il représente lorsqu’il est utilisé à des fins « récréatives ». Dans le cas mentionné ci- dessus, les jeunes avaient volé un tank d’oxyde nitreux d’un cabinet de dentistes et l’avait inhalé sous sa forme pure (comme sédatif, il est plutôt mélangé avec de l’oxygène). Ils sont morts asphyxiés.

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

 

* L’oxyde nitreux est lipophile, c’est-à-dire qu’il se dissout facilement dans les gras. C’est pourquoi on le retrouve aussi comme agent propulseur dans les cannettes de crème fouettée. Ne vous précipitez pas chez votre épicier. Les quantités y sont trop faibles pour avoir un effet « hilarant ».

Le chèvrefeuille protégerait des rayons UV

La France a connu son printemps le plus chaud depuis une centaine d’années. C’est dans ce contexte de printemps ardent, que des chercheurs ont découvert que des extraits de chèvrefeuille pourraient être extrêmement efficaces dans la protection contre le potentiellement dangereux rayonnement ultraviolet (UV), lors de l’exposition au soleil, en s’en servant de couche extérieure naturelle sur certains vêtements.

Dans un rapport publié dans le journal Industrial & Engineering Chemistry Research de l’American Chemical Society, les chercheurs Ren-Cheng Tang et Sha-Sha Sun font part de leur découverte, en remarquant l’intérêt et l’inquiétude croissants des consommateurs pour les risques de cancer de la peau et de vieillissement prématuré de celle-ci, jusqu’à faire le lien avec la recherche de vêtements permettant de protéger la peau des rayons UV solaires.

Des qualités connues depuis des siècles

Un revêtement naturel protégeant des UV présente de nombreux avantages, tels que de n’avoir qu’un impact environnemental léger à la production, et de pouvoir s’ancrer dans une mode durable, n’étant que la couche extérieure. Les deux chercheurs ont remarqué que le chèvrefeuille était utilisé depuis des siècles dans la médecine chinoise traditionnelle pour soigner les rhumes et faire baisser la fièvre. Un extrait de chèvrefeuille est également utilisé dans la préservation des aliments et dans l’industrie cosmétique pour lutter contre le vieillissement de la peau.

Résistant aux lavages

Les deux cherchers ont désiré vérifier si des extraits de chèvrefeuille pouvaient accroître la capacité de la laine à bloquer les rayons UV. Ils ont découvert que la laine traitée au chèvrefeuille bloquait bien mieux les UV que la laine non traitée, lui donnant même un indice de protection élevé. L’extrait resterait actif même après de longues expositions aux rayons du soleil, et de nombreux lavages.

Par Rahman Moonzur

 

Déjà publié :

La cosmétique séduite par les nanotechnologies

La micro-analyse X au secours des œuvres de Van Gogh

Des panneaux solaires qui « accrochent » la lumière

Améliorer l’automatisation des tests en 8 étapes

L’automatisation ne rend pas forcément le test logiciel plus rapide, plus fiable ou moins onéreux. Les coûts initiaux liés à la configuration et aux outils d’automatisation pouvant être élevés, l’automatisation des tests n’est profitable que si les coûts à long terme compensent ces dépenses initiales. En outre, les outils et méthodologies d’automatisation ne possèdent pas tous les mêmes caractéristiques, fonctionnalités et capacités, et chaque projet peut répondre à des exigences différentes, ce qui a des répercussions sur les coûts et les bénéfices.

Afin de profiter au mieux de l’automatisation des tests, voici huit recommandations issues de notre expérience, acquise au cours de plus de 50 projets internationaux d’automatisation des tests en entreprise. Ces conseils sont destinés à aider l’amélioration du retour sur investissement en automatisation de tests et à améliorer la qualité logicielle.

1 – Choisissez bien ce que vous devez automatiser

Pour atteindre l’équilibre des coûts et des bénéfices, il est essentiel d’identifier les facteurs qui augmentent la complexité de l’automatisation d’un projet de test spécifique. L’automatisation des tests s’applique idéalement à du code qui :

  • joue un rôle important dans une application ;
  • traite de hauts volumes de données ;
  • exécute des processus courants ;
  • est utilisable sur un ensemble d’applications.

  

Un arbre décisionnel de test en 9 points, destiné aux entreprises

 

Il est conseillé aux entreprises de rechercher également les domaines non traditionnels, voire non prévus dans le périmètre, auxquelles elles pourraient étendre leur investissement en automatisation, notamment pour le test des routines d’installation des correctifs et corrections d’anomalies, pour la gestion des tests, et pour la création des rapports de test.

Cognizant a conçu un arbre décisionnel en neuf points (voir ci-dessus) afin de guider le client dans le choix des meilleurs candidats à l’automatisation, en fonction des critères suivants :

  • La faisabilité technique ;
  • La fréquence d’exécution des tests ;
  • Le degré de réutilisabilité des composants de test ;
  • Le nombre total de ressources nécessaires ;
  • La complexité des cas de test ;
  • La possibilité d’utiliser les mêmes cas de test pour de multiples navigateurs ou environnements ;
  • Le temps nécessaire à l’exécution des tests.

2 – Choisissez bien vos outils de test

Les entreprises doivent amortir leur investissement en automatisation. Elles doivent donc choisir des outils de test en mesure de satisfaire leurs besoins sur plusieurs années. Parmi les critères d’évaluation appropriés:

  • La prise en charge de divers types de tests automatisés, notamment le test fonctionnel, la gestion des tests, le test de technologies mobiles, le test d’architecture SOA et le test de logiciel RVI (réponse vocale interactive) ;
  • La prise en charge de multiples frameworks de test ;
  • La capacité de reconnaissance d’objets créés dans une grande diversité de langages de programmation ;
  • La stabilité de la configuration et de l’exploitation sur tout environnement et toute plateforme ;
  • Le degré d’efficacité de l’exécution des tests pour un effort manuel minimum ;
  • La capacité de reprise automatique après défaillance applicative, afin d’empêcher l’interruption des tests ;
  • La performance du langage de script, facilitant le développement de scripts (instructions exécutées dans le cadre d’un test spécifique) réutilisables sur plusieurs plateformes et types de test.

Nous avons mis au point une méthodologie afin d’aider nos clients à choisir le logiciel d’automatisation de test le plus adapté à leurs besoins et à optimiser l’utilisation de ces outils, nouveaux et existants. Cette méthodologie consiste en premier lieu à définir les objectifs auxquels les outils doivent répondre et à spécifier les tests à automatiser, tels que le test fonctionnel ou la validation back-end. Puis, il s’agit de définir les exigences, de créer un tableau de bord d’évaluation, de réaliser une validation de principe et enfin, de préparer les outils pour le déploiement. Les clients peuvent également optimiser l’utilisation de leurs outils d’automatisation grâce à l’identification de l’ensemble des besoins en test à travers l’entreprise, à la création d’un inventaire des outils disponibles et à une revue des accords de licence existants, garantissant que seules les licences nécessaires seront achetées.

    

Choix des outils

3 – Affinez vos processus

Dans de nombreuses entreprises, le manque de processus d’automatisation centralisés et normalisés a entraîné un allongement du cycle de vie des tests, devenu exagérément onéreux et inapte à détecter un nombre maximal d’anomalies. Pour améliorer ces processus, il faut :

  • décrire les risques inhérents aux méthodes actuelles et démontrer que le test peut être réalisé pour un coût moindre et/ou avec une plus grande efficacité ;
  • que la Direction s’implique pour fournir le budget et le support nécessaires à la modification des flux de travail en vue de l’amélioration des processus de test ;
  • obtenir le soutien des équipes de test afin d’atteindre les objectifs d’amélioration ;
  • proposer des formations aux responsables des tests, spécialistes et ingénieurs de test, pour l’acquisition de compétences spécialisées en méthodologies de test ;
  • prioritiser les améliorations des processus en fonction des objectifs de l’entreprise ;
  • mettre en place une mesure continue des processus de test afin d’obtenir un meilleur retour sur investissement.

4 – Choisissez un Framework

Comme pour tout autre outil, les solutions d’automatisation de test doivent être utilisées correctement pour être efficaces. Le choix d’un framework approprié contribue à accroître la réutilisabilité et l’efficacité à long terme.

Un framework ne remplace pas un outil d’automatisation mais sert de feuille de route pour l’utiliser de manière optimale. Dans un espace de stockage différent, il doit également permettre de paramétrer les scripts de test et les données de test, pour que ces derniers soient réutilisables autant que possible et plus simples à gérer.

Parmi les frameworks les plus appréciés, on trouve les frameworks « pilotés par les données », où les données de test sont stockées indépendamment de l’outil d’automatisation. L’utilisation et la personnalisation des rapports sont ainsi simplifiées, de même que la maintenabilité des données, et de multiples cas de test peuvent être réalisés sur plusieurs jeux de données en entrée. Toutefois, les coûts initiaux ainsi que ceux de la maintenance peuvent être considérables.

L’autre approche est celle « déterminée par mots clés ». Les tables de données et les mots clés y sont gérés indépendamment de l’outil d’automatisation et des scripts de test qui pilotent les tests. Toutefois, cette méthodologie demeure plus difficile à utiliser que celle pilotée par les données, qui augmente les coûts et les délais.

Nous avons conçu un framework composite (voir ci-dessous), associant les meilleurs éléments des deux approches –déterminée par mots clés et pilotée par les données. Il assure le stockage des données de test indépendamment de l’outil d’automatisation (en général, dans une feuille Excel), ce qui permet de maintenir et réutiliser les scripts très facilement.

    

Une approche composite de l’automatisation des tests

5 – Ne sous-estimez pas l’effort manuel

Le terme « automatisation » sous-entend que ce sont les machines qui font le travail et non les humains. Le volume d’effort manuel requis dans le cadre des tests automatisés est l’un des aspects les moins bien compris du test logiciel. En effet, les individus doivent configurer les machines de test, créer les scripts, sélectionner les tests, analyser les résultats des tests, enregistrer les anomalies et nettoyer les machines de test. Il est important d’estimer précisément ces coûts, non seulement à des fins de budgétisation et de planification, mais également pour calculer précisément le retour sur investissement.

Au cours de nos missions, nous avons identifié les facteurs que les sociétés informatiques doivent prendre en compte pour estimer l’effort manuel nécessaire à l’automatisation des tests. Parmi ces facteurs : la complexité du langage utilisé pour la création des scripts de test et le volume de travail requis pour planifier, produire, exécuter et maintenir les scripts. Un autre élément contribuant à l’estimation de l’effort consiste à classer les tests par niveau de complexité (simple, moyenne, complexe) en fonction du nombre de transactions et du nombre d’étapes définis par les scripts requis pour chaque cas.

6 – Veillez à la qualité de vos scripts

Respecter les normes est particulièrement important dans le cas de :

  • La gestion des exceptions, qui permet de déterminer si le script de test peut opérer (et dans quelle mesure) une reprise après défaillance de l’application en cours de test ou après comportement inattendu tel que l’affichage d’une fenêtre contextuelle ;
  • L’enregistrement des erreurs, où l’utilisation de normes aide les équipes de développeurs et de testeurs multiples à analyser les résultats de test et à influer sur ces derniers;
  • La documentation, par exemple, pour la mise en commentaire ou la mise en retrait, aide les développeurs à créer des scripts uniformes et à comprendre le code de script créé par d’autres.

   

Des scripts gagnants

 

  Traduction des légendes :

Naming Conventions

Conventions de nommage

Script naming conventions

Conventions de nommage des scripts

Data Table naming conventions

Conventions de nommage des tables de base de données

Variable naming conventions

Convention de nommage des variables

Code Standards

Normes de codage

Comments and Standards

Commentaires et normes

Code Organisation and Style

Organisation et style du code

Template

Modèle

Script Header Template

Modèle d’entête de script

Format Header Template

Modèle d’entête de format

Scripting Standards

Normes de script

Script readability

Lisibilité du script

Script Modularity

Modularité du script

Exceptional Handling

Gestion des exceptions

Error Logging

Journalisation des erreurs

 

7 – Identifiez le responsable de l’exécution des tests

Opter pour l’automatisation des tests suscite l’espoir, parmi les responsables, de parvenir à réaliser les tests avec très peu de travail manuel, voire aucun. Par conséquent, ils n’affectent pas les ressources nécessaires à l’exécution des étapes manuelles requises pour le test automatisé, notamment l’analyse des résultats des tests ou la création et le nettoyage des machines de test. La plupart des personnes pressenties pour ces opérations sont soit indisponibles, soit ne disposent pas des compétences idoines.

Par exemple :

  • Les testeurs fonctionnels sont déjà affectés à des tests manuels ;
  • Les ingénieurs en automatisation, malgré leurs compétences en exécution de tests, ne maîtrisent pas suffisamment les exigences fonctionnelles pour pouvoir analyser les scénarios non réussis. Ils sont par ailleurs trop occupés au développement et à la maintenance des tests pour prendre en charge l’exécution des tests et le suivi des anomalies ;
  • Sans une planification rigoureuse du nombre requis de ressources qualifiées, tout programme de test automatisé échouera, victime d’interruptions de service inattendues, de retards et de dépassements de coûts. L’entreprise ne sera pas en mesure d’exécuter un nombre de tests suffisants, à un rythme suffisamment soutenu, pour pouvoir justifier l’investissement en automatisation de tests.

C’est pourquoi il est important de déterminer, dès le début, la personne « propriétaire » chargée d’exécuter l’ensemble des processus liés à l’automatisation concrète des tests.

    

Affectation de ressources à la fonction d’automatisation des tests

 

  Traduction des légendes :

Automation Framework Development

Développement de framework d’automatisation

Automation Script Development

Développement de script d’automatisation

Automation Script Maintenance

Maintenance de script d’automatisation

Automation Script Execution

Exécution de script d’automatisation

Legend

Légende

Functional Tester

Testeur fonctionnel

Automation Engineer

Ingénieur en automatisation

8 – Mesurez votre réussite avec précision

Pour mesurer l’efficacité de l’automatisation des tests, des outils sont disponibles, tel que le « Automated Execution Efficiency Ratio » ou AEER, qui analysent le ratio de l’effort humain en pourcentage de l’effort total requis pour exécuter les tests automatisés.

Cependant, il ne suffit pas de comparer le nombre d’heures-homme requises pour les tests manuels et les tests automatisés pour un volume de code donné. Vous devez également inclure d’autres facteurs positifs, tels que :

  • Le pourcentage plus élevé d’anomalies détectées ;
  • La réduction du temps nécessaire pour les tests ;
  • La réduction du délai de mise sur le marché ;
  • L’amélioration du taux de satisfaction client ;
  • Les gains de productivité suite à l’amélioration de la qualité de l’application.

L’ensemble de ces avantages vérifiés est à mettre en balance avec les coûts de personnel et de licences d’outils afin de déterminer avec précision le retour sur investissement.

L’automatisation du test logiciel n’est ni aussi simple ni aussi rapide que semble l’indiquer cette appellation. Les outils de test logiciel peuvent s’avérer coûteux, tandis que la configuration, l’exécution et l’analyse des résultats de test exigent un effort manuel important. Toutefois, par l’usage d’outils adéquats, notamment de logiciels en Open source, et de processus et frameworks d’automatisation appropriés, les entreprises sont en mesure de réaliser des économies de coûts et de bénéficier de la qualité du test logiciel automatisé.

Par Pradeep Govindasamy, Directeur Centre d’excellence Automatisation, Cognizant / Experts IT

 

Déjà paru :

Vector : le savoir faire des systèmes embarqués

Les solutions s’adressent aux secteurs technologiques liés à l’automobile, aux utilitaires, à l’aéronautique, au transport et à l’automatisme. Elles couvrent la conception de systèmes distribués, les logiciels embarqués dans les calculateurs, les tests et la calibration de calculateurs, le développement du diagnostic automobile, la gestion de processus.

Les logiciels Vector pour calculateurs embarqués équipent les véhicules du monde entier et des outils comme CANoe et CANalyzer sont pratiquement devenus la norme pour le développement de systèmes distribués.
Des prestations de consulting technique ainsi que des possibilités de formation complètent l’offre.

A la pointe de l’expertise, Vector participe à de nombreux groupes de travail européens sur les projets et les normes de ses domaines de compétence. Vector est, notamment, membre actif du consortium AUTOSAR.
Très attaché à la qualité de ses solutions et services, le groupe confirme régulièrement ses certifications à la norme ISO 9001, à CMMI niveau 2 et SPICE niveau 3.

Les solutions développées à Stuttgart sont utilisées par pratiquement tous les constructeurs et équipementiers en électronique du monde entier. Les filiales implantées aux États-Unis, au Japon, en Europe (France & Suède) et en Asie (Corée, Chine) et Inde permettent aux collaborateurs de Vector d’offrir sur place un service hautement qualifié à tous les clients.

Toutes les informations sur : www.vector.com
 

Les défauts fleuris du graphène, une chance ?

Le graphène est déjà renommé pour ses qualités de résistance et de conductivité, résultant toutes deux de la structure de ce nanomatériau. C’est un cristal monoplan de carbone, sans défaut, dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille. Les propriétés électriques et mécaniques du nanomatériau sont altérées par les défauts apparaissant lors de sa conception.

Les défauts résulteraient du mouvement des atomes de carbone portés à haute température lors de sa conception, en chauffant du carbure de silicium (SiC) sous ultravide (pression inférieure à 10−7 pascal), d’après l’un des chercheurs responsables de la découverte, Joseph Stroscio, du National Institute of Standards and Technology (NIST). L’institut de Technologie de Géorgie (Georgia Tech) est également associé à la découverte d’une catégorie de défauts en forme de fleur, encore mal comprise.

Assemblage d’anneaux normalement composés de six atomes de carbone, le réarrangement le plus simple, à savoir celui réclamant le moins d’énergie et rompant la parfaite régularité du motif, est de passer d’un anneau de six à un anneau de cinq ou sept atomes, satisfaisant toujours toutes les liaisons carbone, et résultant d’une rotation d’une partie du réseau atomique qui se propage aux anneaux voisins. C’est ce qui donne l’impression de défauts en forme de fleur.

La trame très rigide du graphène est déjà extrêmement résistante, mais ces défauts pourraient bien lui permettre d’être plus flexible, l’amenant vers plus de résistance aux cassures et aux déchirements. Il reste aux scientifiques à parvenir à contrôler suffisamment le processus d’élaboration du matériau, pour empêcher à l’avenir l’apparition de ces défauts, ou bien les faire apparaître… à volonté.

Par Rahman Moonzur

 

Déjà publié :

Une nouvelle propriété du graphène mise en évidence

Un composite céramique 200 % plus résistant

« Nanomat training » formera les futurs experts en nanomatériaux

 

 

La récupération d’énergie au freinage fait ses preuves

Le concept de base d’un système de récupération d’énergie au freinage est de transformer, lors du freinage, l’énergie cinétique en énergie hydraulique et de la stocker au lieu de l’éliminer. L’énergie ainsi  stockée est ensuite réutilisée lors de la phase d’accélération, ce qui permet d’alléger le moteur à combustion. « Nos attentes concernant la réduction de consommation de diesel par le système de récupération d’énergie au freinage ont été comblées. D’après les premiers résultats, nous comptons sur une économie à hauteur de 15 à 18% pour le cycle complet. Cette tendance suffit pour justifier la prochaine acquisition d’un véhicule avec système hybride hydraulique » déclare Carsten Mielke, chef de service du transport pour le traitement des déchets du district urbain de Kassel.

« A New York, notre tournée de ramassage des ordures nous conduit dans différents quartiers avec des densités de bâtiments différentes. Pour cette raison un entraînement hybride hydraulique avec son mode de fonctionnement et de travail est la solution parfaite. De même, nous espérons que les coûts d’entretien de nos poids lourds vont sensiblement diminuer grâce à la réduction de l’usure des freins et des besoins en pièces de rechange » surenchérit  Rocco DiRico, gérant adjoint au service municipal de nettoyage de New York.

Après ces tests couronnés de succès en Allemagne et aux Etats-Unis, le système de récupération d’énergie au freinage de Rexroth  – l’entraînement hybride hydraulique HRB (Hydrostatic Regenerative Braking system) – est désormais en production. Il est plus particulièrement adapté aux véhicules utilitaires qui freinent fréquemment et de manière prolongée. Plus le freinage est intensif, plus la probabilité de diminuer la consommation de carburant par le système de récupération d’énergie est élevée, allant jusqu’à 25%.

Un processus reversible

Le HRB supporte les véhicules équipés d’une transmission mécanique conventionnelle et d’un moteur à combustion, comme par exemple les véhicules de collecte des ordures ménagères ou les véhicules de distribution. Une unité à pistons axiaux hydraulique est reliée par un réducteur à la transmission mécanique du véhicule (arbre à cadran) pour transformer l’énergie cinétique en énergie hydraulique lors du freinage. L’unité à pistons axiaux agit alors comme une pompe et exécute cette transformation d’énergie en remplissant un accumulateur à vessie hydraulique avec de l’huile hydraulique. En relation avec un bloc de commande des valves hydraulique, un boîtier de commande électronique pilote ce processus qui permet de réduire de 50% l’usure des freins.

Lors du démarrage, le processus s’inverse complètement : l’huile sous pression se décharge sous le contrôle du bloc de commande et est renvoyée via l’unité à pistons axiaux. Celle-ci devient donc un moteur, entrainé par cette huile sous pression, et transmet sa puissance à la transmission mécanique, réduisant notamment l’émission de particules grâce à une sollicitation moindre du moteur à combustion lors de l’accélération.

Déjà paru :

Une webcam pourrait aider dans la lutte contre la cardiotoxicité

Un composant basique des webcams devrait aider les fabricants de médicaments et les médecins à détecter et suivre un effet secondaire relativement commun, la cardiotoxicité, un changement plutôt dangereux dans les battements du cœur. Les chercheurs se servent de cette technologie pour créer un outil de suivi de ces effets sur certaines cellules musculaires du cœur, les cardiomyocytes, en temps réel. Utilisant le capteur d’images de la webcam, cet outil portable de détection en temps réel repère les cardiomyocytes dérivés de cellules souches de souris, ajoutés au préalable aux différents médicaments, et leur permet de suivre les possibles changements dans les battements de cœur induits par les médicaments en question.

La cardiotoxicité est un problème majeur sur le plan humain, mais aussi dans le développement des médicaments, car près de 30 % des médicaments retirés du marché entre 1996 et 2006 l’ont été parce qu’ils induisaient des problèmes cardiaques. Cette technologie pourrait donc permettre de gagner du temps et de l’argent dans les phases de conception et de développement du médicament, avant même sa mise sur le marché.

Cette technique pourrait aussi jouer un rôle non négligeable dans une médecine plus personnalisée, les cellules souches pouvant se différencier en cellules cardiaques qui, une fois étudiées, donnent des indices sur les éventuels effets secondaires d’un médicament sur une personne, ouvrant la voie à un traitement totalement personnalisé.

Ce suivi était auparavant très couteux et nécessitait un équipement lourd et spécifique, mais ne devrait ici pas couter plus de 8 euros.

 

Déjà paru :

Vers des éoliennes de 20 MW ?

Le projet européen UpWind, entamé cinq ans plus tôt, réunissant près de 120 spécialistes et acteurs de l’énergie éolienne pour un budget de 23 millions d’euros, a pour but de répondre à la question suivante : est-il possible de construire des éoliennes de 20 MW en utilisant les méthodes et les matériaux connus actuellement, et est-ce économiquement réalisable ?

Peter Hjuler, en charge du projet, explique que « ces éoliennes seraient 15 à 20 % plus chères que les éoliennes standards, ce qui est loin d’être décourageant », se basant sur une estimation réalisée à partir des éléments principaux des quelques 16 000 composants d’une éolienne.

De 15 000 à 20 000 foyers

La Risø DTU, l’Université Technique du Danemark, a contribué à ces travaux en développant des solutions se servant des connaissances actuelles en aéroélasticité, l’étude des vibrations des structures élastiques dans un écoulement d’air. Une des solutions étudiées serait l‘utilisation de pales dites intelligentes, intégrant un bord de fuite régulant, le bord de fuite étant la partie arrière de la pale, dans le sens de l’écoulement de l’air, permettant de diminuer la trainée aérodynamique et donc de diminuer les forces s’opposant au mouvement et à la vitesse de celle-ci.

La télédétection par laser (LIDAR, LIght Detection And Ranging), qui fonctionne sur le principe du radar, mais avec la lumière plutôt qu’avec des ondes radio, permet de compléter le panel d’outils de mesures de faisabilité de ces éoliennes gigantesques. Une seule de ces éoliennes en mer du Nord pourrait fournir en électricité entre 15 000 et 20 000 foyers, en offshore ou en inshore.

 

Déjà paru :

DIAPORAMA – Une centrale nucléaire allemande recyclée en parc d’attractions

Située à quelques kilomètres des Pays-Bas, l’ancienne centrale nucléaire de Kalkar devait, à l’origine, être un fleuron technologique. Le destin en aura finalement décidé tout autrement.

Les bâtiments des turbines et du réacteur contiennent des chambres d’hôtel, des restaurants et des bars, dans des décors évoquant l’Egypte antique ou l’Ouest américain. Repas et boissons sont à volonté, y compris l’alcool, selon des formules forfaitaires. Une piscine intérieure, un spa, des boutiques et un village bavarois sont prévus dans les années à venir, pour attirer plus de monde en hiver.

Pour rassurer certains visiteurs méfiants, « nous précisons systématiquement dans nos brochures que nous n’avons rien à voir avec le nucléaire. La centrale n’a d’ailleurs jamais fonctionné », insiste Han Groot Obbink, le directeur du parc.

Bien avant que le gouvernement allemand décide de fermer définitivement ses centrales nucléaires d’ici 2022, celle de Kalkar était mort-née.

Dans les années 1970, l’Allemagne, la Belgique et les Pays-Bas avaient décidé de bâtir à Kalkar une centrale nucléaire d’un genre nouveau, un « surgénérateur », qui devait produire plus de combustible fissile qu’il n’en consommait, grâce à un réacteur à neutrons rapides (RNR). Mais le projet avait aussitôt soulevé de vives inquiétudes.

« Le sodium, utilisé pour refroidir les neutrons rapides, est inflammable au contact de l’air et de l’eau », rappelle Willibald Kunisch, un ancien opposant à la centrale et aujourd’hui représentant des Verts au conseil municipal de Kalkar. Il se souvient des grandes manifestations de 1977 et de 1982 à Kalkar, qui avaient réuni des dizaines de milliers de manifestants et contribué à l’essor du parti Vert.

Des exigences de sécurité constamment modifiées, des procès en série, les catastrophes nucléaires de Three Mile Island aux États-Unis et de Tchernobyl en Ukraine, ou encore le contre-choc pétrolier de 1986 ont lentement creusé la tombe du surgénérateur, dont le coût ne cessait d’enfler.

Le projet est définitivement enterré en 1991, après avoir englouti quelques 7 milliards de Deutschemarks — environ 3,5 milliards d’euros. Un entrepreneur néerlandais, Hennie van der Most, spécialiste de la reconversion de friches industrielles, rachète quatre ans plus tard le site et ses environs, soit une cinquantaine d’hectares, pour quelques 3 millions de marks (1,5 million d’euros).

Aujourd’hui, « Wunderland Kalkar » accueille 600 000 visiteurs par an et emploie jusqu’à 550 personnes en haute saison, selon M. Groot Obbink.

Willibald Kunisch regrette que d’autres projets de réhabilitation du site n’aient pas été retenus. « Certains proposaient d’en faire un centre d’énergies renouvelables, mais les temps n’étaient pas encore mûrs pour cela. À l’époque, c’était nous, les écologistes, qui passions pour des fous. »

En France, les surgénérateurs Phénix et Superphénix ont aussi été abandonnés. Mais la recherche mondiale se poursuit sur le nucléaire de quatrième génération, vanté par ses promoteurs pour sa meilleure utilisation de l’uranium et le recyclage durable du combustible.

 

Déjà publié :

Astrid, futur réacteur nucléaire de 4e génération

L’AIEA se montre sévère face à la catastrophe de Fukushima

 

[1/7]

La tour de refroidissement de la centrale nucléaire abrite désormais un manège, qui fait tournoyer des enfants assis sur des balançoires.

[2/7]

Recouverte d’une fresque de paysage alpestre, la paroi en béton de la tour de refroidissement sert de mur d’escalade.

[3/7]

Des poupées géantes décorent le parc d’attractions nucléaire.

[4/7]

Comme tout parc d’attractions qui se respecte, Wunderland Kalkar possède ses propres montagnes russes.

[5/7]

Les enfants s’amusent au sein de ce bâtiment, qui devait être à l’origine la tour de refroidissement de la centrale nucléaire.

[6/7]

600 000 personnes visitent annuellement Wunderland Kalkar.

[7/7]

Au plus fort de la saison touristique, Wunderland Kalkar emploie quelques 550 personnes.

Un composé thermo-conducteur remplace l’aluminium dans des DEL

Implanté à Xiamen, en Chine, Leedarson Lighting, une société privée pionnière dans la fabrication de produits d’éclairage et fournisseur de solutions d’éclairage éco-énergétiques, a décidé d’utiliser un composé thermo-conducteur comme substitut de l’aluminium dans les puits thermiques pour deux nouvelles ampoules à diodes électroluminescentes (DEL). Ce choix  est justifié par les objectifs fondamentaux que Leedarson s’est fixé : une couleur blanche, une résistante à la chaleur sans besoin de peinture supplémentaire, une productivité améliorée grâce à l’utilisation du moulage par injection et une conformité aux exigences de l’industrie en matière d’isolants électriques.

Leedarson a évalué plusieurs thermoplastiques conducteurs et a finalement choisi le composé LNP Konduit SABIC Innovative Plastics pour ses capacités conductrices, ses propriétés de non-propagation de flamme non-halogène, pour son potentiel en isolation électrique susceptible de passer un essai de décrochage de 6kV et pour la stabilité de sa couleur.

Par rapport à l’aluminium et aux autres métaux, les composés conducteurs thermiques présentent généralement des coefficients de dilatation thermique (CTE) inférieurs, ce qui permet de réduire les contraintes liées à la dilatation différentielle. Ils sont également bien plus légers que l’aluminium.

En combinant une qualité esthétique améliorée et des avantages de production présentant un fort potentiel en dissipation de chaleur, le LNP Konduit permet de promouvoir l’adoption du système d’éclairage DEL et d’étendre ses avantages pour réduire la consommation énergétique et l’impact sur l’environnement. Il offre une importante flexibilité aux concepteurs qui ont désormais la liberté de créer des formes complexes et de réaliser l’intégration des parties à travers le moulage par injection, contrairement aux solutions d’estampage, de moulage et de finition secondaire traditionnelles imposées par les métaux. Les thermoplastiques ouvrent donc la voie à des configurations novatrices susceptibles d’optimiser le transfert de chaleur, tout en offrant les bénéfices de coûts engendrés pour un grand volume de production.

Le moulage par injection remplace l’usinage

« En qualité de premier producteur d’éclairages à utiliser le composé blanc LNP Konduit pour les puits thermiques, nous faisons œuvre de pionnier dans l’industrie en proposant des produits DEL élégants et modernes », a déclaré Eder Lee, directeur général de Leedarson Lighting. « Nous pensons que l’amélioration de l’apparence des ampoules DEL aura un effet considérable sur son acceptation par le marché. Avec la hausse de la demande, ce composé nous permettra de booster facilement la capacité de production grâce à l’utilisation du moulage par injection qui est extrêmement évolutif par rapport à l’usinage des métaux. Ce matériau polyvalent nous donne également la liberté de concevoir la future génération de puits thermiques pour les prochaines technologies DEL ».

Dans un premier temps, Leedarson a ainsi développé des puits thermiques cylindriques pour ces ampoules DEL transparentes de 2 watts en forme de bougie et pour son ampoule DEL ronde et transparente de 2 watts en utilisant le nouveau composé blanc LNP Konduit. Ces ampoules sont vendues dans les grands magasins d’aménagement de la maison et dans des chaînes de magasins globaux.

« Grâce à une durée de vie de 50 000 heures et à une très faible consommation en énergie, les systèmes d’éclairage DEL offrent un potentiel énorme dans l’économie d’énergie. Nos composés LNP Konduit pour puits thermiques, notamment, jouent un rôle crucial dans l’optimisation de la brillance et dans la promotion d’une durée de vie plus longue de la DEL. Notre œuvre de pionnier auprès de Leedarson Lighting marque un pas de géant dans l’atteinte de ces objectifs environnementaux », a déclaré Peter Chan, président de SABIC Innovative Plastics, Greater China.

 

Déjà paru :

Le café, c’est bien plus que de la caféine

Beaucoup boivent du café pour son effet stimulant, mais la caféine qui en est responsable n’est qu’une des quelque 800 molécules que l’on retrouve dans ce breuvage. Et, outre la caféine, ce sont ces composés chimiques qui sont responsables du goût et de l’arôme du café, mais aussi de ses effets sur la santé.

Une grande partie de ces composés sont naturellement présents dans le grain, notamment, ceux de la famille des acides chlorogéniques, auxquels on associe des propriétés antioxydantes bénéfiques. D’ailleurs, du fait que nous en consommons beaucoup (90 pour cent de la population boit du café quotidiennement), le café est notre première source d’antioxydants, bien avant les fruits et les légumes.

L’autre apport de molécules bénéfiques vient du processus de torréfaction. Les réactions de Maillard, les mêmes qui donnent leur goût au scotch, au roast-beef et au pain grillé – en fait, à tout ce qui est rôti –, produisent des centaines de nouvelles molécules, certaines amères, d’autres veloutées. Le talent du torréfacteur est de bien doser la température et le temps de torréfaction pour obtenir le meilleur équilibre entre les différents composés. Nombre de ces composés sont très volatils et s’expriment dans l’odeur du café. Il y a en particulier le 2-furfurylthiol, qui est associé à l’arôme du café fraîchement préparé. C’est grâce à lui que je fais sortir ma femme du lit le matin ! Oui, comme je suis matinal, c’est moi qui suis en charge.

Le secret d’un bon café est d’extraire le maximum de composés agréables et de ne pas laisser passer ceux qui ne le sont pas. C’est là que je trouve que la méthode espresso offre, à mon goût, un réel avantage. Le vrai « barista » peut jouer avec la température, la pression et la vitesse d’effusion pour préparer son nectar. Il peut ainsi obtenir le maximum de 2-éthyl-3,5-diméthylpyrazine, à la saveur de chocolat, et laisser derrière le 2,4 décadienal au goût d’amertume. Quoi qu’il en soit, il ne faut jamais dépasser 30 secondes d’infusion, car, après ce délai, les molécules au goût de ranci deviennent prédominantes. Contrairement à ce que l’on pourrait penser, une tasse d’espresso a plus de goût, mais contient moins de caféine qu’une tasse de café filtre. Cela vient du fait qu’au départ, les volumes sont moindres, mais aussi que, dans le cas de l’espresso, le liquide d’extraction, l’eau, reste bien moins longtemps en contact avec le café.

Dans le cas du café filtre, qui reste sur la plaque chauffante trop longtemps, les composés volatils plaisants s’échappent, ce qui augmente la concentration en acides chlorogéniques amers et désagréables. L’attention que porte Tim Horton à cet effet a fait le succès de la compagnie. Comme le dit sa publicité – si le café n’est pas servi dans les 20 minutes, il n’est pas servi du tout.

Je me souviens que, lorsque j’habitais en France, il m’arrivait, le matin, par économie et par paresse, de réchauffer dans une casserole du café restant de la veille. Malheureusement, il m’arrivait quelquefois de le laisser trop longtemps sur le gaz, avec des résultats désastreux. Je ne sais pas combien d’entre vous se rappellent du film « Le vieil homme et l’enfant », mais pour ma part, je me souviens de Michel Simon qui disait : « café bouillu, café foutu ».

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

Marcher en dépit d’une moelle épinière sectionnée, bientôt possible ?

La recherche est sur le point de parvenir à un exploit médical sans précédent : un jeune Américain paraplégique de 25 ans parvient à se tenir debout et à bouger ses jambes grâce à une électro-stimulation, suscitant un espoir immense dans le monde scientifique comme chez les personnes souffrant de paraplégie.

Rob Summers était une étoile montante du baseball lorsque son ascension a été stoppée nette par une voiture. Sa moelle épinière est sectionnée, et les médecins lui annoncent la terrible nouvelle : il ne pourra plus jamais marcher. C’était il y a 5 ans. Maintenant, regardez bien ces images, elles datent d’il y a seulement quelques jours, et proviennent du quotidien anglais « The Daily Telegraph » :

« Je peux me tenir debout environ deux heures par jour. Je peux bouger mes orteils, mes genoux, mes hanches, tout ce que je veux. J’ai commencé à reprendre de la force abdominale, et maintenant je peux me lever et m’asseoir de nouveau. ». Ce miracle est le résultat d’un entrainement intensif et surtout celui de l’implantation d’un stimulateur électrique à la base de sa colonne vertébrale, une avancée scientifique majeure après des décennies de piétinement.

« La vraie nouveauté, c’est d’avoir découvert que les neurones ou les nerfs de la moelle épinière peuvent effectuer les mêmes choses que ceux du cerveau ». Les chercheurs, qui travaillent en collaboration avec la fondation Christopher Reeves, alias Superman, devenu tétraplégique et aujourd’hui décédé, ont publié leurs résultats dans la revue scientifique médicale britannique « The Lancet », un espoir pour des millions de personnes selon Rob Summers, qui se met à rêver à nouveau de baseball. Il reste à souligner que la recherche ne porte que sur un seul patient, et que sa potentielle universalité reste encore à prouver.

Par Rahman Moonzur

Déjà paru :

Photovoltaïque : Éviter la surchauffe en créant des conditions stables

On pourrait croire que l’optimisation constante de l’efficacité et la production croissante d’énergie solaire qui en découle sont devenus naturels. Pourtant, beaucoup d’efforts seront encore nécessaires avant que l’énergie photovoltaïque se hisse au niveau des autres énergies sur les marchés mondiaux et assoie ainsi durablement son succès. Les entreprises qui se lancent sur le marché du photovoltaïque doivent se garantir d’une ossature stable pour s’implanter.

Les prévisions pour 2011 ne sont pas très encourageantes sur la plupart des marchés de l’énergie solaire en Europe. La France risque même de reculer dans ce domaine puisqu’elle a annoncé des diminutions drastiques des prix de rachat : le Ministère Français de l’environnement a réduit ses subventions pour l’installation à grande échelle de panneaux solaires.

Les prévisions sont meilleures pour le marché allemand. Le cabinet d’études de marché américain iSuppli prévoit de nouvelles installations à hauteur de plus de 9,4 Gigawatt. Bien qu’elle comporte certaines incertitudes, la législation allemande semble moins incertaine. Si l’on tient compte de l’amélioration continue de l’efficacité, le calcul actuel laisse penser que la situation financière du secteur dans son ensemble est solide. Toutefois, d’autres changements à court terme, tels que ceux prévus en 2011, pourraient mettre à mal un grand nombre de modèles financiers.

La rentabilité joue un rôle clé

La situation financière des sociétés promotrices d’un projet est essentielle. Elle s’apparente aux « véhicules de titrisation ». « Les banques vérifient la rentabilité et les flux de trésorerie pour un ratio de fonds propres donné », indique le Dr. Heiko Ott, Directeur des investissements de BayTech Venture Capital, société spécialisée dans les énergies renouvelables. Les sociétés promotrices d’un projet n’ont généralement aucune garantie autre que celle du dispositif en lui-même, ce qui rend le chiffre d’affaires prévisionnel d’autant plus important. « L’analyse de la rentabilité consiste à analyser à la fois l’ensemble des coûts et le chiffre d’affaires. »

Le résultat de ces vérifications permet d’obtenir un aperçu de la rentabilité, qui détermine l’aptitude à percevoir des financements de la part des banques. La rentabilité permet de décider si une société percevra des financements et selon quels termes. Par conséquent, les produits de certains fabricants de modules solaires sont accrédités par de nombreuses et importantes sociétés bancaires, d’assurance et de réassurance. « De cette manière, nous aidons nos partenaires à percevoir des financements », explique le Dr. Shawn Qu, Directeur Général de Canadian Solar. Toutefois, certaines  sociétés ne satisfont pas les critères requis. « Les exigences sont élevées », confirme Carsten Schmitz, Directeur d’une succursale de GLS Bank à Munich. « La certification par une banque n’est pas dénuée de difficultés ».

En outre, les fabricants de modules s’efforcent continuellement d’améliorer leur efficacité, de manière à ce que l’accroissement de la production se traduise par des retombées positives sur leur rentabilité. « Nous investissons continuellement dans la recherche et le développement de nouveaux produits. Les scientifiques spécialisés dans la recherche sur les cellules travaillent en étroite collaboration avec les ingénieurs de production des modules pour proposer sur le marché de nouveaux produits qui augmenteront la production électrique des systèmes photovoltaïques pour un prix très compétitif. Sur le plan technologique, notre objectif est de ramener le coût de l’énergie solaire au même niveau que celui des autres installations en 2012 », indique Shawn Qu. Grâce aux nombreuses améliorations en matière de technologie et d’échelle, le prix par kilowatt d’un système photovoltaïque a considérablement baissé.

Un concept adapté, mais peu exploité

Pourtant, la diminution réussie du coût de revient de base est également à l’origine des réductions successives du tarif de rachat par le gouvernement allemand. Ces réductions n’ont toutefois pas réussi à tirer le marché vers le haut comme la plupart des experts l’avaient prédit. Elles ont par contre créé de nouveaux défis pour les sociétés. « L’incertitude quant aux conditions cadre n’est pas une bonne chose pour les personnes impliquées dans la chaîne de valeur », indique Shawn Qu. « Les effets externes à court terme compliquent la planification ; les goulots d’étranglement des livraisons seront rapidement sanctionnés par une baisse de la demande. Ce n’est pas une bonne chose pour le secteur. »

Comme la plupart des fabricants, Shawn Qu n’est pas contre les réductions en général, mais il critique la manière dont elles ont été mises en œuvre. « Une répartition par trimestre, par exemple, simplifierait réellement les choses pour tous. L’approche n’a pas été adaptée. » Une répartition trimestrielle des réductions des dépenses, telles qu’elle est suggérée par le Directeur de Canadian Solar, égaliserait les répercussions. En profitant de conditions cadre stables, les sociétés seraient à nouveau en mesure de se concentrer sur leur tâche réelle, la fabrication de modules solaires, et contribueraient ainsi à faire évoluer le secteur de l’énergie.

Par Gregory Spanoudakis

Déjà paru :

Le méthane apprivoisé

Constituant majoritaire du gaz naturel et du biogaz, le méthane (CH4) qui est un gaz à effet de serre, est aujourd’hui principalement utilisé pour produire de l’énergie, par sa combustion qui donne du dioxyde de carbone (CO2), ou du gaz de synthèse (CO/H2). Cette molécule qui est abondante,  est le plus simple des alcanes, molécules constituées exclusivement d’atomes de carbone (C) et d’hydrogène (H), liés entre eux par des liaisons simples, ce qui donne un nombre maximal d’atomes d’hydrogène autour des chaines de carbone.

Les alcanes étant considérés comme des composés inertes, tenter de les transformer est donc un formidable défi scientifique. De par sa grande symétrie, la force et l’inertie des liaisons entre les atomes de carbone et d’hydrogène, le méthane est très difficile à « fonctionnaliser », (en particulier de façon catalytique), une opération qui revient à greffer une nouvelle fonction à une molécule, c’est-à-dire un nouveau groupe d’atomes qui donnent de nouvelles propriétés et in fine un nouveau produit.

Pouvoir transformer le méthane en un composé à forte valeur ajoutée est donc un enjeu considérable. Jusqu’alors, les chimistes n’y étaient arrivés qu’en de rares occasions : soit dans des conditions extrêmes (température élevée, milieu très acide), soit en utilisant une toute autre chimie (approche bio-inspirée ou utilisation de modèle biochimique). Dans le cadre du programme européen Era-chemistry initié par le CNRS, l’équipe de Michel Etienne du Laboratoire de chimie de coordination du CNRS et de l’Université Toulouse III – Paul Sabatier, en collaboration avec entre les équipes espagnoles de Pedro J. Pérez de l’université de Huelva et de Gregorio Asensio de l’Université de Valencia ont réussi cette prouesse par catalyse organométallique dans des conditions extrêmement douces.

Transformation en molécule potentiellement valorisable.

En réunissant leurs compétences complémentaires dans les domaines de la synthèse et de la catalyse en milieu supercritique, ces chimistes ont directement converti le méthane en ester (propionate d’éthyle) par réaction avec un diazocarbène en présence d’un catalyseur et à température modérée (40°C). Cet ester est une molécule que les chimistes savent aisément utiliser,  par exemple dans l’industrie agroalimentaire ou des arômes.

C’est le catalyseur qui permet l’insertion d’un carbène, un composé très réactif dont le comportement est généralement difficile à contrôler, dans une des liaisons CH du méthane et ainsi la fonctionnaliser. Ce catalyseur est un complexe d’argent rendu extrêmement actif grâce à une complexation avec des ligands hautement fluorés. Cette complexation rend également le catalyseur soluble dans le dioxyde de carbone supercritique (scCO2). L’utilisation de scCO2 est nécessaire car il permet de dissoudre l’ensemble des réactifs et produits, et est lui-même totalement inerte vis à vis du catalyseur.

Si des applications synthétiques peuvent encore sembler éloignées, les performances de ces catalyseurs démontrent qu’une molécule aussi peu réactive que le méthane peut être « fonctionnalisée » par formation d’une liaison carbone-carbone en molécule potentiellement valorisable. 

Des robots en charge d’une partie de la manutention de l’US Air Force

L’US Air Force, la célèbre armée de l’air américaine, n’en peux plus d’avoir à gérer les lourds et encombrants paquetages de matériel, embarqués à bord des avions cargos, lors des opérations engageant les États-Unis, qu’elles soient liées aux conflits ou à missions humanitaires. Responsables du paquetage, de la mise sur palette, du chargement et du déchargement, ces actions mobilisent de la main d’œuvre. Alors pourquoi ne pas laisser des robots le faire ?

Même si chronophage, le déplacement, l’empilement, et la coordination des palettes est pourtant relativement simple. C’est fort de ce constat que l’US Air Force a décidé de faire exécuter ces tâches par des robots-palettes intelligents, en s’octroyant les services en sous-traitance de deux entreprises spécialisées en robotique, HStar Technologies et Stratom, chargées de résoudre cette problématique et de faire en sorte que le chargement se fasse « tout seul ».

HStar se dirige vers un système de palettes nommé i-Pbot, utilisant des roues omnidirectionnelles ainsi que des actionneurs hydrauliques, permettant aux palettes de se déplacer vers l’endroit désiré. Le système serait également équipé d’un capteur sans fil permettant la communication en réseau des palettes entre elles, assurant la coordination des mouvements. Le robot chargeur de l’Américain Stratom se base sur la norme de palettes 463L, utilisant un véhicule automatique et téléguidé pouvant transporter jusqu’à 5 tonnes. Il sera lui aussi équipé d’un système réseau et pourra jusqu’à téléphoner le centre de commande.

L’armée américaine s’intéresse, depuis quelques années déjà, aux solutions robotiques dans le transport de l’équipement et du matériel, comme nous le montre cette très impressionnante vidéo datant déjà de mars 2008, présentant « Big Dog », un robot transporteur quadrupède presque tout-terrain :

 

Par Rahman Moonzur

 

DÉJÀ PUBLIÉ :

Des robots quadripèdes tout terrain

Un robot pour fabriquer des palettes ?

L’utilisation des robots toujours plus simple

Des robots et logiciels pour des missions extra-terrestres

Le Cloud Computing au service du plus grand télescope du monde

L’Australie se verrait bien accueillir le plus grand et le plus sensible radiotélescope du monde, le « Square Kilometre Array » (S.K.A.). C’est dans cette optique que l’offre d’accueil du projet, représentant plus de 2 milliards de dollars et regroupant les efforts conjugués des Australiens et des Néozélandais, pourrait se targuer d’être accompagnée d’une gigantesque opération de Cloud Computing, dont la campagne de recrutement est prévue pour septembre.

Cette initiative aura pour but de prouver que le projet australien est à même de gérer l’immense flux de données recueillies par le SKA. Elle pourrait assez vite se transformer en la plus gigantesque opération de Cloud Computing jamais réalisée, drainant la puissance de calcul et la mémoire offertes par les ordinateurs participants du monde entier.

50 fois plus sensible

Le « Square Kilometre Array », comme son nom l’indique, sera énorme : plus de 3 000 antennes paraboliques seront dispersées sur plus de 3 000 kilomètres par rapport à un noyau central, dans le but de simuler un seul et unique radiotélescope géant doté d’une très grande sensibilité – près de 50 fois plus sensible – et d’une haute résolution angulaire (à savoir, la capacité à observer nettement des détails de plus en plus petits), et dont la surface collectrice cumulée sera d’environ 1 kilomètre carré (d’où son nom de « Square Kilometre », kilomètre carré).

Un instrument d’une telle sensibilité pourrait sonder les prémices de l’Univers, aider à vérifier la théorie générale de la Relativité, et permettre de cartographier le cosmos avec des détails jusqu’ici sans précédent.

PétaFLOPS

Le SKA risque de produire, selon l’expression, des « tartines et des tartines » de données, à tel point que certains estiment le besoin en couche liaison de données (protocole lié au transfert des données) absolument énorme. L’Australie a englouti près de 80 millions de dollars dans le Centre Pawney, à l’Ouest de l’Australie, un hub supercalculateur dont la vitesse de calcul dépasse le pétaFLOPS (« FLoating point Operations Per Second », nombre d’opérations à virgule flottante par seconde, le préfixe péta correspondant à 1 015, soit 1 million de milliards), qui deviendra le troisième supercalculateur le plus rapide au monde, lorsqu’il sera inauguré en 2013, en se basant sur le classement actuel.

Alternative Cloud

Mais ce hub risque d’être bien dérisoire. Bien que partiellement complet en 2020, le SKA devrait fournir une telle quantité de données que deux chercheurs de l’Université d’Oxford ont commencé à examiner une alternative Cloud Computing, dans le but d’aider à gérer cet océan de données. S’en remettre, par exemple, à l’offre de service Cloud d’Amazon serait extrêmement onéreux, sans même considérer les récents problèmes que celui-ci a essuyés. Diriger les données vers tous les serveurs et unités centrales universitaires et institutionnels partenaires pourrait donc être bien plus qu’un bon début.

Donnant-donnant : puissance de calcul en contrepartie de données

Mais les chercheurs ne s’arrêtent pas là. Ils ont en vue la possibilité d’associer les particuliers et les institutions, non partenaires et non affiliés au projet SKA, leur permettant d’ouvrir leurs ordinateurs à l’initiative Cloud Computing, s’inspirant du projet de calcul distribué SETI(@)home hébergé par le Space Sciences Laboratory de l’Université de Berkeley (Californie), concernant notamment le radiotélescope de l’observatoire d’Arecibo, sur la côte Nord de l’île de Porto-Rico. Et là, ce sera donnant-donnant : abandonner une partie de sa puissance de calcul en échange de la récupération de quelques données. Cela pourrait offrir aux astronomes, amateurs comme professionnels, un accès plus ou moins libre à un certain nombre de données, en contrepartie de la participation au Cloud.

Impact écologique positif

Cette formule semble très équitable, si l’Australie récupère effectivement le SKA – car l’Afrique du Sud est également sur les rangs -, et que la décision concernant l’emplacement final du projet n’est pas prise avant l’année prochaine. Cela permettrait aussi au SKA de ne pas rentrer dans une éternelle surenchère en terme de puissance de calcul, ce qui aurait pour conséquence d’engendrer d’énormes moyens de refroidissement, dont la facture et l’impact écologique seraient diablement salés. En procédant ainsi, on utilise une énergie et une chaleur, distribuées à travers des ordinateurs qui auraient de toute façon été en train de tourner. Mais cela engagerait surtout le public et la communauté scientifique et universitaire à participer à un des plus grands et des plus fantastiques appareils sur le point de voir le jour.

Voici, en conclusion, une vidéo de présentation du SKA, en anglais :

 

Par Rahman Moonzur

Le CH de Soissons homogénéise son approche de la virtualisation

 Dans le cadre d’un vaste projet de modernisation de son parc informatique, le Centre hospitalier de Soissons a, dès 2005, positionné la centralisation d’applications et la virtualisation comme une donnée stratégique, synonyme de performance. De manière concrète, le CH de Soissons s’appuie désormais sur plusieurs centaines de stations de travail, dont notamment des postes tournant sous Windows NT4.

Le choix de la mise en place d’une solution de centralisation d’applications a été motivé principalement par le fait de pouvoir continuer à utiliser l’application dossier patient McKesson qui n’était plus supportée sur NT4. C’est dans ce contexte que, après un appel d’offres, la solution AppliDis Fusion de Systancia a été sélectionnée pour sa richesse fonctionnelle, son ergonomie et son rapport qualité-prix. Après la mise en place d’une maquette puis une phase pilote, un déploiement massif de la solution a été réalisé. Ce déploiement concerne l’ensemble des départements administratifs et médicaux.
 
En s’appuyant sur la virtualisation, le CH de Soissons a également pu faire évoluer son parc en intégrant des terminaux légers tournant sous Linux. Différents types de terminaux légers cohabitent désormais au sein du centre hospitalier : fixes et portables (Neoware, HP…).

Des postes VDI pour répondre à des usages spécifiques

« Nous avons choisi de remplacer nos postes clients lourds par des postes légers afin de garantir à l’hôpital une meilleure sécurité des données médicales qui, de ce fait, ne sont plus disséminées sur tous les postes mais centralisées sur des baies de disques doublées dont les sauvegardes sont assurées  par le service informatique », précise Edouard Laloy, DSI du CH de Soissons.
 
Malgré un parc hétérogène (100 terminaux légers et 450 machines fixes), la DSI est en mesure de publier aisément ses applications, de gérer les processus d’impression et de centraliser les procédures de déploiement et d’administration au travers de la console de pilotage de la solution AppliDis. A ce stade, le dernier point qui restait à gérer pour la DSI concernait une partie des utilisateurs qui ne pouvaient pas accéder à la virtualisation des applications. En effet, une application au sein du laboratoire interne du Centre Hospitalier nécessitait de fonctionner sur un système d’exploitation Windows XP.
 
Ainsi, l’approche virtualisation des postes de travail (Virtual Desktop Infrastructure ou VDI) a également été abordée avec la solution de Systancia, pour répondre à ces besoins spécifiques. L’hyperviseur utilisé pour accueillir les postes de travail virtuels est VMware Vsphere 4 dont le déploiement a été  réalisé sur une certaine machines, notamment dans le cadre de l’activité des laboratoires, et sur une application disponible sur les terminaux légers. En choisissant Systancia pour cet aspect, le Centre Hospitalier a pu homogénéiser son approche de la virtualisation et répondre aussi bien à des déploiements de masse (publication d’applications) qu’à des déploiements spécifiques et orientés poste de travail (approche VDI), le tout étant piloté par la même console d’administration.
 

HauteLook accélère et sécurise son site de ventes privées

Le site d’HauteLook propose à ses membres de participer à des ventes privées portant sur les marques de renommée internationale de mode et d’accessoires, les cosmétiques, les articles pour enfants, la décoration, les voyages et les services de proximité. Compte tenu de la qualité des produits proposés et de l’ampleur de la clientèle de HauteLook, qui dépasse les quatre millions de membres américains et canadiens, il n’est pas rare que l’afflux de visiteurs provoque la saturation du site dès l’envoi des e-mailings. S’ajoute à cela le fait que chaque page du site est générée dynamiquement, d’où des hausses subites de trafic qui imposent d’énormes contraintes aux serveurs du e.commerçant, hébergés à Los Angeles.

HauteLook avait donc besoin d’une solution capable d’assurer une montée en charge immédiate, afin de prendre en charge et gérer ces pics de trafic. L’adoption de la solution Dynamic Site Accelerator et de la plate-forme d’Akamai, premier fournisseur de services d’optimisation dans le Cloud,  lui a permis de prendre en charge, de façon fiable, les hausses subites de trafic et assure une diffusion rapide de ses contenus dynamiques à tous les membres, sans nécessiter d’extension de ses propres infrastructures.

Depuis l’utilisation de cette solution, HauteLook a enregistré une hausse de plus de 200% de ses inscriptions et de plus de 400% de son chiffre d’affaires, Akamai ayant constitué un élément décisif, bien qu’invisible, de cette impressionnante croissance. Il a également délesté plus de 95% de ses contenus sur la plate-forme d’Akamai, ce qui permet de traiter un volume de trafic élevé avec une disponibilité de 100%. En pratique, la solution Dynamic Site Accelerator permet d’obtenir des performances homogènes même lorsque le trafic atteint quotidiennement des pics supérieurs de 70% à la moyenne.

L’indispensable conformité aux normes PCI

« L’infrastructure extensible et les technologies d’Akamai constituent le bon choix au bon moment » estime Kevin Diamond, responsable des technologies chez HauteLook. « Depuis que nos contenus sont diffusés par Akamai, nos membres peuvent accéder au site à la seconde même où une vente est en ligne, rechercher exactement ce qu’ils veulent, puis finaliser leur commande simplement et rapidement ».

HauteLook exigeait également la mise en place des mesures de sécurité les plus strictes afin de protéger les informations d’expédition et de facturation de ses membres. Grâce au réseau SSL (Secure Sockets Layer) certifié PCI (Peripheral Component Interconnect) d’Akamai, HauteLook permet d’assurer que les données de ses membres sont acheminées et gérées conformément à la norme PCI.

« La conformité aux normes PCI est essentielle pour nous permettre d’offrir à nos membres les avantages pratiques des transactions par carte de crédit en ligne », ajoute Kevin Diamond. « Avec Akamai, nous gagnons en tranquillité d’esprit, tout en sachant que nous proposons un service rapide et sécurisé quel que soit le nombre de visiteurs de notre site ou les nouvelles technologies que nous ajoutons. »

 

Un effet de damier en 3D pour un mur-rideau

Le nouveau siège madrilène de l’un des plus grands groupes mondiaux de la mode s’habille d’un mur-rideau qui offre un effet de damier vivant en trois dimensions, en harmonie avec son environnement direct. Cet effet a été obtenu en alternant des panneaux de verre feuilleté transparent et d’autres dans lesquels est enchâssé le tissu Sefar Architecture Vision de Sefar AG. Décoré sur sa face extérieure d’une enduction d’aluminium réfléchissant, ce tissu, dont c’est la première application commerciale en Europe avec un verre feuilleté, reflète en permanence toutes les variations des conditions climatiques autour du bâtiment.

De l’intérieur, le tissu de couleur noire permet une vue quasiment exempte de toute entrave sur le monde extérieur, ainsi qu’un bon éclairage de la pièce. « Je voulais créer une façade neutre et abstraite, qui en même temps s’animerait sous les variations de lumière et de tonalité au fil de la journée et des saisons », confie Rafael de La-Hoz, l’architecte espagnol qui a conçu la façade. « Le jeu d’ombres et de reflets n’est jamais uniforme, grâce aux carrés foncés de la peau intérieure parsemés de miroirs qui semblent vibrer sous la lumière du soleil, mais s’éteignent dès qu’ils ne la reçoivent plus directement. »

Tous les panneaux de verre feuilleté à bords libres formant le mur-rideau ont été produits avec l’intercalaire SentryGlas de DuPont. Chacun mesure 3,44 x 1,95m et se compose d’un intercalaire de 1,52mm entre deux couches de verre trempé à faible teneur en fer de 8mm. Les panneaux de verre transparents ont été produits par Vitro Cristalglass, le partenaire de DuPont pour la promotion de SentryGlas en Espagne, et ceux qui contiennent le tissu Sefar Architecture Vision par Cricursa pour le compte de Vitro.

Un procédé complexe de métallisation

Produit par la société suisse Sefar AG, Sefar Architecture Vision est une gamme de tissus de haute précision produits à partir de fibres synthétiques noires. La gamme de base comprend six tissus dont l’ouverture de maille s’étend de 25 à 70%. Ces tissus sont métallisés selon un procédé complexe avec de l’aluminium, du cuivre, du chrome, du titane et de l’or, ainsi qu’avec un alliage d’aluminium et de cuivre. La gamme de base est enduite sur l’endroit, le revers étant de couleur neutre. Lorsqu’il est utilisé conjointement avec le verre feuilleté, le tissu Sefar Architecture Vision confère au verre une structure de tissu inhabituelle et réduit son aspect dur. Jusqu’à 35 filaments par centimètre permettent une réflexion sans précédent de l’environnement et de la lumière du soleil. En plus de ces possibilités esthétiques, il offre l’avantage d’assurer une protection accrue contre le soleil et d’éviter que les oiseaux ne viennent heurter le verre.

Sefar AG  recommande d’utiliser son tissu architectural avec un verre feuilleté produit avec l’intercalaire SentryGlas, des recommandations qui s’appuie sur des tests approfondis de cet intercalaire et du PVB (polyvinyle butyrale). « Parmi tous les matériaux de feuilletage testés avec notre tissu, c’est SentryGlas qui a obtenu les meilleurs résultats », confirme Rouven Seidler, responsable grands comptes Architecture chez Sefar AG. « Il a surpassé le PVB,  notamment au niveau de l’adhérence à la maille du tissu, d’où une meilleure résistance à l’humidité et une plus grande stabilité thermique qui assurent une durabilité à long terme. »

Comme pour de nombreuses autres applications du SentryGlas, sa plus grande résistance structurelle par rapport au PVB a permis de réduire le poids global des panneaux de verre feuilleté et d’utiliser un support en acier quasiment invisible. Outre sa robustesse intrinsèque, SentryGlas offre une excellente stabilité des bords et de très bonnes qualités optiques. Ainsi, les panneaux à bords libres formant le mur-rideau du bâtiment madrilène résisteront à la décoloration des bords sous l’effet des conditions climatiques. De plus, l’intercalaire SentryGlas accroît la sécurité et la robustesse de toute l’installation : sa résistance post-rupture est plus élevée que celle d’un PVB et il maintient le verre en place même lorsque celui est brisé.

 

Autisme : des hormones pour socialiser

Cette étude a été menée par l’Institut de Neurosciences du Conseil National des Recherches (In-Cnr) de Milan, en collaboration avec les Universités de Milan – Statale, Bicocca et Politecnico – l’Université de l’Insubria et l’Université de Tohoku au Japon. Financée par la Fondation Cariplo, l’étude a été publiée sur la revue Biological Psychiatry qui a dédié sa couverture à ce sujet.

« Pour mettre au point et valider une approche thérapeutique envisageable pour les troubles de l’autisme, nous avons mené une caractérisation approfondie de modèles de souris génétiquement modifiées, exemptes de récepteur de l’Ot dans le système nerveux central », explique Bice Chini de l’In-Cnr et coordinatrice de la recherche. « En l’absence de ce récepteur, ces animaux font preuve d’altérations de la mémoire sociale et d’une flexibilité cognitive réduite, reproduisant ainsi le noyau central de la symptomatique autistique, qui consiste en un déficit des interactions sociales, des anomalies de la communication, une rigidité cognitive et des intérêts restreints. »

Les chercheurs ont montré que les animaux ne familiarisaient pas avec d’autres sujets de la même espèce et surtout, qu’ils n’étaient pas en mesure de distinguer une souris déjà rencontrée d’une nouvelle. En outre, ils présentent un manque très caractéristique de flexibilité cognitive : ils sont capables d’apprendre une tâche de manière très efficace, mais une fois apprise, ils ne sont pas en mesure de l’abandonner pour en acquérir une nouvelle, adaptée au changement d’environnement. Les chercheurs ont aussi remarqué que les animaux étaient plus agressifs et que, si on leur administrait des doses normalement inefficaces d’agents pharmaceutiques convulsionnants, ils répondaient avec une crise de type épileptique, manifestation fréquemment associées à la symptomatique autistique qui indique une augmentation de leur excitabilité cérébrale de base.

L’étude a révélé que l’administration d’Ot et de Avp est en mesure de combler tous les manques cités plus haut. Cette découverte est d’une importance capitale car elle démontre que le système Ot/Avp est capable de moduler l’activité de processus cognitifs complexes, et ce bien après le développement complet du système nerveux. Ces résultats ouvrent la porte à de potentielles nouvelles approches thérapeutiques basées sur l’utilisation de ces molécules.

Sources : http://www.bulletins-electroniques.com/actualites/66922.htm

DIAPORAMA – le Falcon 2000S est disponible

Le 16 mai 2011, Dassault a dévoilé le Falcon 2000S. Les dimensions de sa cabine, sa charge utile, son rayon d’action, sa flexibilité d’emploi et son efficacité carburant en font le leader dans la catégorie des « Super Mid Size ».

La vitesse d’approche du Falcon 2000S est de 200 km/h/ 108 nœuds. Son système de freinage automatique et sa capacité forte pente lui permettent de se poser sur des aéroports réputés difficiles d’accès, comme c’est le cas pour l’aéroport de London City.

L’avion présente un rayon d’action de 6,200 km/3,350 nm. Il est équipé de becs de bords d’attaque mobiles et d’ailettes marginales à haut rendement aérodynamique.

Le Falcon 2000S offre la plus importante charge utile du marché avec une capacité de 2,245 kg/4,950 livres. À la masse maximum au décollage (MTOW) de 18,688 kg/ 41,000 livres, l’avion décolle d’une piste de 1,360 m/4,450 pieds, soit 500 pieds de moins que les avions concurrents.

Le Falcon 2000S est doté d’un cockpit EASy II, dont l’aménagement a été entièrement revu. Un travail poussé a notamment été réalisé pour mieux intégrer les écrans et les équipements au pylône central et à la planche de bord.

La cabine intérieure n’est pas seulement plus haute, et plus large que celle des avions concurrents, elle intègre également de nombreux équipements traditionnellement proposés en option. La cabine présente une configuration d’aménagement idéale pour 10 passagers. L’espace intérieur, le mobilier et les équipements ont été conçus en partenariat avec BMW Designworks USA. 3 harmonies de couleurs et de matériaux différentes sont proposées aux clients. 

Au-delà de son style moderne et contemporain, la cabine intègre le nouveau système multimédia de Rockwell Collins. Celui-ci offre une ergonomie d’emploi qui rend son utilisation beaucoup plus intuitive et efficace. Ce système offre des écrans de très haute définition, de 19 pouces et des lecteurs Blu-Ray. Tous les réglages de la cabine (lumière, température…) peuvent-être réalisés grâce à une simple application accessible depuis un iPod Touch ou un iPhone. Le système de téléphonie AirCell AXXess II Satcom est également intégré dans l’offre standard.

La poussée du Falcon 2000S est délivrée par deux réacteurs Pratt & Whitney Canada PW308C d’une poussée de 7 000 livres (ISA+15°C) chacun. Ces moteurs sont reconnus pour leur fiabilité et leur efficacité. La nouvelle génération de PW308C qui équipera le 2000S est encore davantage respectueuse de l’environnement avec des niveaux d’émissions d’oxyde d’azote, de 20 % inférieurs au modèle actuel. La nouvelle chambre de combustion TALON II présentera au total des niveaux d’émissions de 40 % inférieurs à la règlementation CAEP/6.

Le premier vol du Falcon 2000S a été réalisé le 17 février 2011 à Bordeaux-Mérignac. Plus d’une centaine d’heures de vols d’essai ont été effectuées à ce jour pour un programme d’essai et de certification qui comprend près de 500 heures de vol.

 

C.H.

L’INRS mesure les expositions aux champs électromagnétiques

Les applications industrielles basées sur les propriétés physiques des champs électromagnétiques se sont multipliées au cours des dernières années. Huit familles d’appareillages particulièrement émettants ont été repérées par l’INRS et les Carsat. Ils sont utilisés pour l’électrolyse industrielle, la soudure et la fusion électrique, le chauffage par induction, le chauffage et le soudage par pertes diélectriques, la magnétisation et la démagnétisation industrielle, la magnétoscopie, le chauffage et le séchage industriels par micro-ondes ainsi que le fonctionnement d’IRM ou RMN.

Les mesures effectuées sur ces catégories d’équipement ont montré que les opérateurs qui les manipulent peuvent être exposés à des intensités de champs électromagnétiques supérieures à la VDA, Valeur déclenchant l’Action[1] (à l’exception de la famille IRM/RMN). Dans la plupart des cas, la seule démarche de prévention rencontrée en entreprise consiste à éloigner le plus possible le poste de travail de la source d’émission. Il faut cependant souligner que les fours à micro-ondes et les presses hautes fréquences sont équipés d’un blindage par les fabricants et que dans le cas des presses à souder les bâches, une solution originale pour limiter les expositions consiste à utiliser un patin de masse, système qui permet de diminuer la surface rayonnante.

Ce travail pionnier en Europe, qui a consisté à estimer le parc de machines rayonnantes et à réaliser un bilan aussi exhaustif que possible des expositions industrielles aux champs électromagnétiques, est une première étape. En effet, les mesures vont se poursuivre pour compléter les données concernant certaines familles (magnétiseurs, chauffage par micro-ondes…) qui recouvrent des équipements de puissance et de dimension très variables. A terme, ces travaux donneront lieu à la réalisation d’un guide de bonnes pratiques à l’usage des entreprises qui leur permettra d’identifier sans mesure les dispositifs à risque, d’évaluer les probabilités de dépassement de la VDA et de mettre en place des actions de prévention.

Notes : [1 ] Valeur qui correspond au déclenchement d’une action de prévention au sein de l’entreprise. L’employeur doit alors contrôler et réduire les risques chez ses travailleurs.

 

Déjà paru :

Les effets des téléphones mobiles sur l’activité cérébrale

Malgré les nombreuses études faites à ce sujet, aucune n’est arrivée à la conclusion qu’un lien existe entre leur utilisation et un risque accru de cancer cérébral. Je pense en particulier à l’étude Interphone publiée au mois de mai 2010 dans l’International Journal of Epidemiology.

Menée auprès de participants de 13 pays et conduite sous l’égide du Centre international de recherche sur le cancer de l’Organisation Mondiale de la Santé (OMS), c’était une des plus importantes du genre. Plus de 5 000 patients souffrant de deux rares formes de cancer cérébral, gliome et méningiome, avaient été invités à répertorier leur utilisation du téléphone cellulaire sur une période pouvant remonter jusqu’à dix ans plus tôt. Les résultats avaient ensuite été comparés à un nombre équivalent d’individus en santé. Après avoir investi plus de 30 millions de dollars, les auteurs ont conclu que : « Globalement, l’étude ne démontre pas de risque accru de gliome et de méningiome associé à l’utilisation du téléphone cellulaire. »

Cette nouvelle étude ne met pas elle non plus à jour de risque accru de cancer. Par contre, elle suggère que les ondes électromagnétiques de radiofréquence émises par les téléphones cellulaires pourraient avoir un impact sur l’activité cérébrale de leurs utilisateurs. Pour arriver à cette observation, une équipe de chercheurs dirigée par le docteur Nora Wolkow du National Institute of Drug Abuse au Maryland a mesuré le métabolisme cérébral du glucose par tomographie à émission de positrons (PET Scan), l’intensité de ce métabolisme étant un bon marqueur de l’activité cérébrale. Pour les besoins de l’étude, qui impliquait 47 individus en bonne santé, un téléphone cellulaire a été placé sur chacune des oreilles des sujets. Deux mesures ont été prises, de 50 minutes chacune. Pour une des mesures, agissant comme contrôle, les deux téléphones, sur l’oreille droite et l’oreille gauche, étaient désactivés. Pour l’autre, le téléphone sur l’oreille droite était activé alors que celui sur l’oreille gauche était complètement désactivé. Le téléphone activé recevait un message enregistré, mais avec le son supprimé pour ne pas causer de stimulation auditive. L’ordre dans lequel ces deux mesures étaient conduites était aléatoire (random) et les participants ne savaient pas à quel ensemble de mesures ils participaient.

L’étude n’a mis en évidence aucune différence globale sur le métabolisme cérébral du glucose. Par contre, les chercheurs ont pu constater une augmentation du métabolisme dans la région du cerveau qui était la plus proche de l’antenne du téléphone activé. Ceci se voit sur la photo de gauche (cf. plus bas), indiqué par une petite flèche. La différence était relativement faible, de l’ordre de 7 %, mais quand même significative. La conclusion des auteurs de l’étude : « … les résultats montrent que chez les humains le cerveau est sensible aux effets des champs électromagnétiques modulés par les radiofréquences provenant de l’utilisation de téléphones cellulaires. »

Que faut-il penser de tout cela ? Pour l’instant pas grand-chose. Il n’y a pas d’informations suffisantes pour tirer quelque conclusion que ce soit sur ces observations. Les chercheurs eux-mêmes admettent qu’il n’y a aucune indication que cette augmentation du métabolisme cérébral puisse être dangereuse à long terme. Ils remarquent aussi que l’augmentation de 7 % observée à la suite des effets du cellulaire est bien moindre que celles notées à la suite de stimulations visuelles où elles peuvent atteindre plus de 50 %. Et il n’y a pas d’indication qu’une augmentation de l’activité cérébrale soit néfaste pour la santé ; on pourrait penser que cela serait plutôt le contraire.

Cette étude, qui – il faut le dire – a été menée sur des bases scientifiques rigoureuses, demande à être répétée sur une plus longue durée et avec plus de participants. Entre-temps, si vous êtes inquiet, faites comme le docteur Volkov qui utilise son téléphone avec la fonction haut-parleur ou avec une oreillette pour éloigner l’antenne de son cerveau, des précautions qui sont jugées superflues par des experts comme le docteur Dimitrios Trichopoulos, professeur d’épidémiologie et de prévention du cancer à la Harvard School of Public Health. Il déclare : « Ces données sont cliniquement de valeur inconnue et cela ne va pas me faire changer ce que je fais. »

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

« Il faut absolument garder la possibilité de désactiver les puces RFID » (2/2)

Instantanés Techniques : Que pensez-vous de la récente signature, le 6 avril 2011, d’un accord entre la Commission européenne et l’industrie visant à protéger la vie privée des consommateurs lors de l’usage d’étiquettes RFID ? Pour rappel, cet accord garantit que les entreprises effectueront une évaluation complète des risques liés à la vie privée et prendront des mesures pour déterminer les risques décelés avant qu’une nouvelle application de puce intelligente ne soit mise sur le marché.

Michel Alberganti : Je pense que tous les systèmes d’auto-évaluation ont démontré leur inefficacité. On voit ce qu’il se passe dans l’industrie nucléaire… Et on a vu ce que ça a donné pour l’industrie pharmaceutique avec l’affaire du Mediator.

Pour la RFID, c’est la même chose. Les recommandations émises n’ont aucune force d’application. Le problème de la Commission européenne est qu’elle ne veut pas être trop interventionniste. Du coup, ses recommandations n’ont pas grand pouvoir.

En même temps, depuis que la Commission s’est emparée de la question et qu’elle a procédé à des études, le développement de la RFID s’est plutôt ralenti. J’ai écrit Sous l’œil des puces, la RFID et la démocratie en 2007. Si je devais réécrire ce livre aujourd’hui, je crois que je n’aurais pas grand-chose à rajouter. Ce qui prouve qu’il ne s’est pas passé grand-chose depuis.

Le public est-il mieux informé sur les risques de la RFID depuis 2007 ?

Honnêtement, je pense que non. La seule chose qui a évolué, c’est une meilleure prise de conscience des industriels sur les risques qu’ils prendraient à se lancer dans la RFID, sans prendre les précautions nécessaires.

Vous avez participé en 2008 à un débat sur la RFID qui s’intitulait « Le Débat Numérique : une vie sous l’oeil de la technologie ».  Vous proposiez alors avec les autres participants, la création d’un organisme européen de l’Internet des objets (type CNIL) avec un droit de sanction. Est-ce vous pensez que ce type de projet pourrait aboutir dans les années à venir ?

Oui, car la RFID pose des problèmes qui sont loin d’être résolus. Ce qu’on appelle l’« Internet des objets » est très problématique, car il relie tous les objets à un système informatique.

L’Internet des objets est quelque chose qu’il va falloir apprendre à maîtriser, à connaitre, si l’on veut en garder le contrôle démocratique. Dans le cas inverse, le citoyen perdra tout contrôle sur les informations qui concernent sa vie, à la fois commerciale et privée.

Alors, après, à la question « Quelle est la structure qu’il faut créer ? », il est difficile de répondre. Dans aucun domaine, on a réussi à créer de structures qui soient véritablement efficaces. La position de Bernard Benhamou consiste à tenter de concilier le développement économique et la protection des citoyens. Or dans le cadre de la RFID, ces deux axes sont en opposition frontale.

L’une des rentabilisations importantes qu’espère faire l’industrie avec la RFID, c’est, en gros, tout ce qui se passe après l’encaissement. Si les puces restent actives après la caisse, de nombreuses d’applications deviennent possibles sur le suivi, l’optimisation des parcours, etc. Malheureusement, c’est là que commence la fin de la vie privée du consommateur.

Pour rentabiliser la RFID, il faudrait que l’industrie puisse utiliser les puces au-delà des caisses. Or,  afin de protéger la vie privée des citoyens, il faut absolument les désactiver au passage en caisse. Tout le débat est au centre de ce genre de questions.

Le mouvement de l’Internet des objets est inéluctable, car il est le prolongement naturel de l’informatisation de la société.

C’est comme ces jeux pour enfants où il faut relier des points. Si vous n’avez qu’un nuage de points, une interprétation est difficile. Mais si vous avez suffisamment de points et que vous savez les relier entre eux, un dessin, qui fait sens, apparait. La RFID, c’est précisément ce qui permet à la fois d’augmenter le nombre de points et de les relier entre eux.

C’est pour cela qu’il me parait difficile d’imaginer que l’on va revenir en arrière. Je pense qu’on va contenir les choses un certain temps – c’est ce qui se passe en ce moment –  grâce à l’action d’associations et autres. Mais c’est un combat qui ne peut durer éternellement. Il va falloir trouver un moyen de régulation, même si honnêtement j’y crois peu.

Il y a déjà eu des abus aux États Unis…

Les abus aux États-Unis, par le tollé qu’ils ont provoqué, ont été en fait très utiles aux citoyens et aux hommes politiques. Il y a eu une prise de conscience assez forte, qui explique notamment le ralentissement de la progression de la RFID.

Quelles mesures préconisez-vous pour protéger les droits des citoyens ?

Je ne crois pas tellement aux mesures purement administratives. Je pense qu’il faut qu’il y ait une réelle prise de conscience du public.

À mon niveau, elle est passée par un livre. À plus grande échelle, elle doit passer par la multiplication des canaux d’information.

Les nouvelles générations sont plus à même de comprendre ces choses. Il faut qu’elles soient informées et qu’elles aient les moyens de savoir ce qu’elles font. C’est-à-dire essayer de préserver le libre-choix.

Il faut absolument éviter que les puces soient mises en place de façon autoritaire et garder la possibilité de les désactiver.

Il existe aujourd’hui des passeports équipés de puces à distance, qui là aussi posent des problèmes de piratage. Si on réussit à voler votre identité, on peut la reproduire, la dupliquer, etc. À partir de là, comment donner aux citoyens les possibilités de maîtriser ce phénomène ? Là est tout l’enjeu.

Les gens doivent apprendre à se protéger eux-mêmes. Et réclamer les moyens de pouvoir le faire. La loi doit leur permettre de garantir cette liberté de choix. Mais je ne vois pas tellement quels systèmes efficaces pourraient les protéger. Protéger les gens malgré eux me paraît difficile. Donc il faut leur donner les moyens de se protéger eux-mêmes.

Quand on voit l’actualité de la RFID, on ne peut pas dire qu’il y ait de véritable explosion. Le point de basculement sera quand une grande enseigne de la grande distribution décidera de généraliser cette technologie. Aujourd’hui, la RFID se développe parce qu’elle équipe tous les produits, jusque dans les entrepôts. Le problème consiste à passer des cartons de plus en plus équipés, aux produits individuels et à l’utilisation de ces puces dans les magasins.

À ma connaissance, cela ne s’est pas encore produit. Et on observe même des mouvements inverses d’une certaine façon, puisque beaucoup de magasins créent des caisses automatiques, avec le code barre. C’est une façon de résoudre le problème.

Cela me fait dire que nous ne sommes pas encore à la veille d’une utilisation massive des puces RFID. Les industriels sont plutôt attentistes, ils se focalisent sur l’amont de la distribution, et non pas sur l’aval. Ils ont déjà beaucoup à gagner sur la logistique, avant la distribution. Pour l’instant, ils s’en satisfont.

Depuis une étude réalisée en 1996 sur des souris, la rumeur ne cesse d’enfler sur un possible lien entre les puces RFID et les risque de cancer. Qu’en pensez-vous ?

Rien n’est avéré. Je pense qu’il y a une grosse part de fantasme derrière ces rumeurs.  Après, le risque de cancer peut être lié aux conséquences  des ondes électromagnétiques. Mais là encore, rien n’est sûr. Les études sur les ondes électromagnétiques liées au téléphone portables n’ont pas été concluantes. Cela reste à l’état d’interrogations. Le débat n’est pas tranché, ni dans un sens, ni dans l’autre.

 

Michel Alberganti

Michel Alberganti est journaliste scientifique et producteur de l’émission « Sciences Publiques » sur France Culture. En 2007, il a écrit en Sous l’oeil des puces, la RFID et la démocratie, et en 2008 La RFID, quelles menaces, quelles opportunités ? avec Patrice Georget, PDG de GS1 France, première entreprise à avoir introduit la RFID en France.

 

 

 

 

 

 

 

 

Propos recueillis par Carole Hamon

« La RFID représente pour les entreprises d’énormes intérêts marketing » (1/2)

Techniques de l’ingénieur : Est-ce que vous pourriez nous rappeler ce qu’est la RFID, et nous expliquer pourquoi, selon vous, cette nouvelle technologie fait peser de sérieuses menaces sur la démocratie ?

Michel Alberganti : La RFID est une technologie de communication électronique, qui permet de faire communiquer une puce électronique posée sur un objet, avec une base, c’est-à-dire un récepteur qui peut lire des informations à distance et qui peut aussi, dans certains cas, modifier les informations qui sont sur la puce.

C’est un dialogue sans fil, par radio, entre une puce électronique très petite, munie d’une antenne, et un appareil électronique posé à une distance variable selon les cas, en fonction de critères techniques, c’est-à-dire la puissance du lecteur, etc.

RFID signifie « Radio Frequency Identification », ce qui dit bien que cette technologie permet d’identifier un objet à distance, grâce aux informations qui sont contenues dans sa puce.

Cela  « permet d’identifier un objet », ou un être humain…

Effectivement, on peut mettre une puce sous la peau d’un être humain, et obtenir ainsi des informations sur son identité, et aussi sa santé.

Aux États-Unis, la RFID est utilisée, par exemple, sur des soldats en cas d’intervention médicale d’urgence. Grâce à la RFID, les médecins connaissant le dossier médial du patient dès son entrée aux urgences.

Les États-Unis sont-ils en avance par rapport à la France sur la RFID ?

Oui. Il y a eu un mouvement très fort entre 2005 et 2007, mais celui-ci s’est un peu essoufflé après le tollé qu’ont provoqué certaines associations américaines, inquiètes des risques liés à la RFID.

De quels risques s’agit-il ?

La RFID vient s’ajouter à de nombreux systèmes déjà existants, permettant de tracer à la fois les mouvements mais aussi les activités de tout objet. Comme vous l’avez dit, cet objet peut être une bouteille de Coca-Cola mais aussi un être humain.

Pour la puce, cela ne fait pas de différence évidemment : elle communique les informations liées à l’objet sur lequel elle est posée, ainsi que les informations qui ont été rentrées dans sa mémoire.

S’agissant de l’être humain, on peut mettre sur une puce RFID sa carte d’identité, son dossier médical, son numéro de compte en banque etc.

Grâce à certaines applications bancaires, un client peut par exemple se rendre dans une banque, et être automatiquement  identifié dès son entrée, sans qu’il n’ait rien à faire. La banque lit à distance les informations qui sont sur la puce et accède immédiatement au numéro de compte du client.

Dans quel pays existe cette application ?

Je n’ai pas de confirmation de sa mise en œuvre, j’ai juste vu cette application à l’état de démonstration.

Mais pour revenir aux problèmes que pose la RFID, il y a deux problèmes majeurs qui limitent actuellement son usage.

Pour la grande distribution, cette technologie représente indéniablement un coût supplémentaire, par rapport au code barre dont le prix est dérisoire. En même temps, le prix des puces ne cesse de baisser, même s’il est encore loin d’atteindre celui du code barre. Il faut donc que les entreprises trouvent un réel  intérêt économique à utiliser la RFID.

Le deuxième problème est la réticence que la RFID  provoque chez les marques, que ce soit les enseignes commerciales ou les autres. Celles-ci craignent en effet qu’il n’y ait un rejet de cette technologie jugée très, même trop, intrusive.

Ce rejet vient des marques comme des consommateurs donc ?

Le rejet vient des marques, à cause des consommateurs.  

En fait, la RFID permet de joindre ensemble les « points » qui mènent au contrôle total des citoyens. Je m’explique. Beaucoup de points permettent dans la vie courante, de localiser et d’identifier les gens. Ce sont le téléphone mobile, la carte à puces, le passe Navigo, le passe Liberté sur l’autoroute, etc. La spécificité de la RFID est qu’elle permet de relier tous ces points déjà existant entre eux. Elle rend donc encore plus difficile le contrôle de tous ces phénomènes.

Grâce aux puces RFID, on peut capter des informations sans que le porteur de la puce n’ait à accomplir la moindre action. Quand vous utilisez votre téléphone portable, vous savez que vous utilisez votre téléphone portable. Idem pour la carte bancaire. En revanche, quand vous passez avec une puce RFID près d’un lecteur, il ne se passe rien. L’action de passer se suffit à elle-même.

Pour vous donner un exemple concret, vous achetez une veste qui comporte une puce RFID. Au moment de l’encaissement, votre nom, le jour et l’heure à laquelle vous avez acheté cette veste, sont ajoutées dans la mémoire de la puce. Indirectement, vous pourrez dès lors être identifié grâce à votre veste.

Pour les entreprises, cela représente d’énormes intérêts marketing, car la RFID permet de mieux analyser le comportement des consommateurs.  En même temps, c’est une atteinte à leur vie privée car les gens ne veulent pas être constamment espionnés. Le sujet est encore plus sensible concernant les médicaments.

Une utilisation dont je n’ai pas parlée, est, en effet, la RFID comme mesure pour lutter contre la contrefaçon. Une des premières applications a été le viagra, un des médicaments les plus contrefaits au monde. Il est évident que les consommateurs de viagra tiennent à conserver leur anonymat. […]

 

Michel Alberganti

Michel Alberganti est journaliste scientifique et producteur de l’émission « Sciences Publiques » sur France Culture. En 2007, il a écrit en Sous l’oeil des puces, la RFID et la démocratie, et en 2008 La RFID, quelles menaces, quelles opportunités ? avec Patrice Georget, PDG de GS1 France, première entreprise à avoir introduit la RFID en France.

 

 

 

 

 

 

 

 

Propos recueillis par Carole Hamon

Google fait le pari de la NFC

Le géant américain Google a une nouvelle fois révélé ses ambitions dans le paiement sur mobile ce jeudi, depuis son quartier général New-yorkais, dévoilant ses deux derniers services, Google Wallet et Google Offers, lançant ainsi la course aux services de paiements à l’aide de smartphones, et empiétant sur le territoire de Paypal.

Google Wallet

Google a d’abord présenté Google Wallet, une solution de paiement utilisant les smartphones équipés d’Android, le système d’exploitation maison, basée sur la technologie de la communication en champ proche (Near Field Communication, NFC), permettant une communication sans-fil courte portée et haute fréquence, jusqu’à une distance de 10 cms. Il suffira d’approcher son smartphone d’un terminal de paiement, d’effectuer un code et le paiement sera effectué. Cette technologie est utilisée car considérée comme sûre, la très courte distance impliquant une démarche volontaire de l’utilisateur. Google s’est ici associé avec la Citibank et Mastercard côté banque, FirstData pour les terminaux et Sprint se chargeant de la partie télécoms. Le géant répète qu’il est ouvert à tous les partenariats, indispensables à la pérennisation du service Wallet, et que les partenariats sont… gratuits.

NFC en série

Stephanie Tilenius,vice-présidente en charge du commerce chez Google, a annoncé que de nombreux tests sont d’ores et déjà en cours grandeur nature à New York et à San Francisco et que ces services seront officiellement disponibles cet été, notant qu’en 2014 près de 50 % des smartphones seraient équipés dès leur sortie d’usine de la NFC, représentant pas moins de 150 millions d’appareils.

Compatible avec Paypass

Wallet permet l’agrégation de vos propres cartes de crédit (bien qu’il n’y ait que la Citibank comme partenaire déclaré au jour d’aujourd’hui), conservant certaines informations bancaires cryptées, autorisant le paiement après avoir approché son téléphone et composé son code de sécurité. Un reçu bancaire digital attestant le paiement sera envoyé sur votre mobile. Le système est compatible avec le système Paypass de Mastercard, permettant déjà de payer grâce à la NFC, mais avec une carte bleue, ce qui signifie qu’un certain nombre de commerçants sont déjà équipés, notamment aux États-Unis, où sera initialement mis en place ces services avant de gagner l’Europe et le monde.

Google Offers

Google Offers permet, en parallèle avec Google Wallet, de trouver des offres censées nous intéresser, de les sauvegarder et de trouver rapidement l’endroit où le produit ou le service est disponible, à proximité. De nombreuses grandes enseignes sont partenaires, comme Subway et Toys R Us. Il est assez difficile de définir pour le moment à quel point ce service sera intrusif, car vos précédents achats détermineront (évidemment) les offres que vous serez à même de recevoir, et la géolocalisation vous amènera (évidemment) chez l’enseigne partenaire la plus proche. On notera aussi que Google est sur le point de marcher sur les platebandes de Groupon, avec son offre de réduction ainsi qu’avec un intéressant système d’unification de points et des cartes de fidélité.

Plainte de Paypal

Outre les éternels griefs concernant la protection de la vie privée, cette annonce est toutefois entachée par la plainte, lancée par le service de paiement américain Paypal, pour vol de secrets industriels par Google, en débauchant deux des cadres de Paypal, appartenant à eBay, Stephanie Tilenius et Osama Bedier, en charge chez Google… de Google Wallet.

Par Moonzur Rahman

Déjà paru :

Epaves d’avions en mer : optimiser leur localisation et la récupération des données en vol

Optimiser la localisation des avions en mer et la récupération des données en vol, c’est l’objectif du projet BELOCOPA, lancé à l’initiative de plusieurs PME de la Région Provence-Alpes-Côte d’Azur (TETHYS, ACSA et ISEI) et labellisé par le pôle de compétitivité Pégase. Il s’agit en effet de développer un équipement embarqué permettant, non seulement de localiser avec précision un aéronef qui s’est abîmé, mais aussi de récupérer à distance les principales données de vol sans intervention de moyens sous-marins. Une telle solution éviterait ainsi d’être confronté à la mise en oeuvre d’opérations extrêmement difficiles et onéreuses comme cela a été le cas dans le cadre de la recherche de l’épave du vol AF 447 Rio-Paris. Rappelons que cet avion a disparu il y a un an déjà, dans la nuit du 31 mai au 1er juin 2009, au large des côtes brésiliennes, sans message de détresse, sans témoin et sans trace radar. Or quatre campagnes de recherche ont été nécessaires pour découvrir enfin, récemment, l’épave de cet avion et récupérer les boîtes noires contenant les données de vol.

Autonome et facilement intégrable à bord des aéronefs en service ou en construction, le système proposé dans le cadre de ce projet comportera un système compact d’éjection et une bouée autonome munie d’un système de radiocommunication performant. La bouée sera elle-même équipée d’un système de positionnement GPS grâce auquel on pourra retracer son parcours à la surface de l’eau depuis son éjection lors de l’impact. Le consortium bâti autour de ce projet regroupe donc trois entreprises, ACSA, fabricant de bouées et spécialisée dans les équipements de transmission et de recherche en mer, spécialiste du GPS « sous-marin », ISEI, spécialisée dans les systèmes électroniques embarqués à bord d’aéronefs et principalement dans le secteur des enregistreurs de vol, chargée des liaisons entre la bouée et les enregistreurs de vols, enfin TETHYS, spécialisée dans la R&D et la production d’équipements et de systèmes énergétiques complexes pour la sécurité, qui s’occupera du système d’éjection. Le consortium intègre aussi l’Institut Fresnel, chargé des transmissions radio et les Arts et Métiers ParisTech Aix-en-Provence, un établissement d’enseignement supérieur qui s’intéressera aux contraintes physiques liées au choc de l’impact à l’eau.

Sources : http://www.bulletins-electroniques.com/actualites/66832.htm

 

Déjà paru :

Boîtes noires du vol Rio-Paris : conclusions hâtives ?

[Vidéo] Crash Rio-Paris : les deux boîtes noires repêchées

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

Des synchrotrons pour visualiser les liaisons chimiques

Comme chacun sait, le vivant est essentiellement basé sur la chimie du carbone et de l’oxygène. La distribution tridimensionnelle de ces éléments et leurs liaisons chimiques ont été jusqu’à maintenant très difficiles à étudier lorsqu’ils étaient enfouis profondément à l’intérieur de matériaux beaucoup plus denses. C’est le cas, par exemple, des inclusions d’eau à l’intérieur d’échantillons de roches martiennes, des fossiles conservés dans de la lave durcie ou de certains minéraux ou composants chimiques au coeur des météorites.

La tomographie en rayons X, très utilisée en médecine et en science des matériaux, est sensible à la forme et la texture d’un échantillon donné, mais ne peut pas révéler l’état chimique à l’échelle macroscopique. Par exemple, le graphite et le diamant sont tous les deux composés de carbone pur, mais leurs propriétés sont radicalement différentes car les liaisons chimiques entre atomes de carbone ne sont pas du tout les mêmes. Arriver à distinguer les différents types de liaison chimique serait très appréciable dans des domaines variés, couvrant l’ingénierie et la recherche en physique, chimie, biologie ou géologie.

Une équipe internationale de scientifiques de  l’Académie de Finlande, de l’Université de Helsinki (Finlande) et de l’European Synchrotron Radiation Facility (ESRF), à Grenoble, vient de développer une technique qui pourrait révolutionner l’analyse chimique d’échantillons rares comme des météorites ou des fossiles en permettant de visualiser les liaisons chimiques.

Des applications industrielles en vue

Pour cela, les chercheurs utilisent des rayons X extrêmement brillants produits dans un synchrotron. Ils ont ainsi réussi à voir la distribution des liaisons chimiques entre atomes de carbone cachés profondément dans un matériau opaque, ce qui était impossible auparavant sans détruire ce matériau.

« J’aimerais maintenant tester cette technique sur des roches martiennes ou lunaires. Notre nouvelle technique permet non seulement de voir quels éléments sont présents dans les inclusions mais de comprendre à quelle molécule ou cristal ils appartiennent. Si on trouve du carbone, on peut dire si c’est du graphite, du diamant ou une autre forme de carbone. Imaginez ce que serait la découverte de minuscules inclusions d’eau ou de diamant profondément enfouies à l’intérieur de roches martiennes », s’enthousiasme Simo Huotari de l’Université d’Helsinki.

La technique développée récemment dont les résultats ont été publiés dans la version en ligne du journal Nature Materials, permettra également une nouvelle compréhension de la structure moléculaire de toutes sortes de matériaux allant des nanomatériaux fonctionnels aux piles à combustible ainsi qu’à des nouveaux types de batteries.