Boîtes noires du vol Rio-Paris : conclusions hâtives ?

A peine ouvertes, les boites noires livrent leurs secrets. C’est tout du moins ce que laissent penser des informations qui filtrent au compte-goutte du Bureau d’Enquêtes et Analyses (BEA), les premières analyses semblant mettre hors de cause Airbus dans le crash du 1er juin 2009. Un telex envoyé par le constructeur européen à ses clients indique qu’il n’a aucune recommandation immédiate à faire à ses opérateurs. En clair, rien dans les premières analyses des boites ne donnent de raisons à Airbus d’alerter ses clients sur une quelconque faille technique de l’A330. De son côté, le BEA rappelle que lui seul est habilité à communiquer sur l’avancée de l’enquête, et de préciser que « les données contenues dans les deux enregistreurs de vol donnent aujourd’hui la quasi-certitude que toute la lumière va pouvoir être faite sur l’accident ».

La colère du Syndicat National des Pilotes de Ligne (SNPL) devant ces conclusions hâtives ne s’est pas faite attendre, refusant vigoureusement que « les pilotes morts dans cette catastrophe ne soient jetés en pâture ». Airbus s’appuierait sur les premières analyses de la FDR (Flight Data Recorder), l’une des deux boites noires, qui a pourtant passé près de deux ans dans l’océan Atlantique, au large du Brésil, bien que le timing du BEA ne promette pas de rapport avant l’été.

L’Airbus A330 d’Air France effectuait la liaison Rio-Paris avec à son bord 228 personnes. Les boites noires ont été repérées puis repêchées début mai, alors qu’elles reposaient à près de 3 900 mètres de profondeur, par un robot submersible automatisé équipant le navire « Ile de Sein », du Français Alcatel. Si les enquêteurs ont établi le dysfonctionnement des sondes Pitot, il ne peut probablement pas expliquer à lui-seul le crash.

Moonzur Rahman

Déjà paru :

Un écran ultrafin et flexible, dont on peut «tourner les pages»

« C’est le futur. Tout ressemblera plus ou moins à ça dans les cinq ans », s’emballe Roel Vertegaal, créateur du « PaperPhone » et directeur du Human Media Lab de la Queen’s University, dans la région canadienne de l’Ontario.

« Cet écran ressemble, s’appréhende et fonctionne tout comme une simple petite feuille de papier interactif », explique-t-il. L’interface se veut très intuitive, exploitant des gestes habituels pour déclencher des commandes simples. Il suffit par exemple de saisir le coin supérieur droit de l’écran, comme si l’on désirait tourner les pages d’un livre, pour également passer à la page suivante sur cet écran. Pas forcément facile à visualiser, voici plus de précisions dans la vidéo qui suit :

Le Paperphone peut se décrire comme un prototype de Smartphone flexible, puisqu’il est capable d’en assumer les mêmes fonctionnalités (lecteur de musique, lecteur de livre électronique, ou évidemment passer un coup de fil…). Son écran de 9,5 centimètres de diagonale, fin et souple, utilise la technologie de l’encre électronique E-ink, et est encore plus mobile que n’importe quel autre Smartphone, car il peut s’adapter à nos poches.

Son créateur y voit même une technologie qui sera à même de signer la fin du papier et des imprimantes dans les entreprises. « L’avenir du bureau, sans papier, se trouve ici, entre nos mains. Tout peut être enregistré numériquement, et l’on peut placer ces écrans les uns sur les autres, comme une pile de papier, ou même les jeter négligemment sur nos bureaux. », dit encore Vertegaal.

Roel Vertegaal a révélé sa trouvaille le 10 mai à la conférence de l’Association of Computing Machinery’s CHI 2011 (« Computer Human Interaction ») à Vancouver, première conférence internationale traitant de l’interaction humain-ordinateur. Il reste tout de même du chemin à parcourir avant une éventuelle commercialisation.

Moonzur Rahman

Déjà paru :

Maîtriser les processus de mesure pour gagner en compétitivité

Avec l’appui de la Direction Générale de la Compétitivité, de l’Industrie et des Services (DGCIS) du ministère de l’Industrie,  l’Association pour le développement des Sciences et Techniques de l’Environnement (ASTE) va, avec plusieurs partenaires, lancer la réalisation d’un outil d’aide à la décision en matière de câblage des appareils de mesure en environnement industriel. Cet outil, sous forme d’un guide interactif, sera mis gratuitement à la disposition des PME (constructeurs, installateurs et utilisateurs d’appareils de mesure) pour les aider à faire des mesures de qualité sans investissement complémentaire en matériel. Et, pour pouvoir répondre au mieux aux attentes des futurs utilisateurs, l’ASTE, qui souhaite connaître leurs besoins en mesures et les difficultés qu’ils rencontrent pour faire des mesures de qualité, leur propose un questionnaire accessible en ligne (http://www.gam-pme.com/gam-pme/Questionnaire.html).

Systématiquement utilisés dans l’industrie, les dispositifs de mesure dont la bonne utilisation est un gage de qualité, de progrès, de crédibilité, sont souvent très perfectionnés et semblent de plus en plus faciles à utiliser (philosophie « plug and play »). Conformes à un grand nombre d’exigences, pas toujours connues des utilisateurs (par exemple, les directives sur la CEM…), ils sont censés répondre aux besoins.

Malgré les nombreux progrès réalisés au cours des dernières années dans la tenue des équipements aux parasites électromagnétiques, on constate fréquemment des perturbations dans les mesures (parasites) en particulier dans le cas des systèmes utilisés dans les installations industrielles :

  • câbles des grandes longueurs reliant les différents constituants des systèmes de mesures (capteurs, conditionneurs, afficheurs, stations déportées de traitement et d’exploitation…) ;
  • systèmes de mesure alimentés en électricité par des secteurs parasités (variateurs de vitesses à thyristors ou les commandes vectorielles de machines) ;
  • perturbations d’origines autres qu’électromagnétiques : effets thermiques, capacitifs, piézorésistifs…

Un outil adapté aux non spécialistes en électronique et en CEM

Ces anomalies dont les utilisateurs n’ont pas toujours conscience, sont très gênantes car elles apparaissent au moment de l’utilisation des dispositifs, c’est-à-dire une fois qu’ils ont été choisis, installés et mis en service, et peuvent conduire, dans certains cas, à des résultats de mesure inexploitables. Résultat, certains utilisateurs des appareils de mesure abandonnent les mesures de qualité et retournent aux pratiques approximatives antérieures.

Pour éviter de se trouver dans de pareilles situations, le futur « Guide d’Aide à la Mesure » permettra, en seulement quelques heures, au plus, de :

  • saisir et analyser automatiquement les conditions d’environnement des dispositifs de mesure pour déterminer s’il y a un risque de perturbation de leur fonctionnement pouvant conduire à des erreurs de mesures ;
  • de proposer, s’il apparait effectivement des perturbations de fonctionnement, des actions correctives à mettre en place au moment de l’installation des dispositifs de mesure, de manière à ramener les effets des perturbations à des niveaux acceptables.

Adapté à des non spécialistes en électronique et en compatibilité électromagnétique, simple à manipuler et à utiliser, compatible avec le plus grand nombre possible de micro-ordinateurs, utilisable sans programmation spéciale au niveau utilisateur, cet outil informatique pourra être mis en œuvre, sans investissement, à partir d’un tableur universel type Excel en mettant à profit toutes les possibilités offertes par la programmation de formules dans les cellules et l’utilisation de macros ou d’un site WEB.

 

Déjà paru :

 

 

Gaz de schiste : quand l’eau du robinet prend feu

Un extrait du film « anti-schiste » Gasland est en effet devenu viral sur YouTube en 2010 : on y voit un résident, voisin d’un puits de gaz de schiste, approcher un briquet de son robinet, qui s’enflamme. Il s’agit de méthane, gaz qu’il ne faut surtout pas mettre en contact avec un briquet, et qui s’est retrouvé dans l’eau de son puits, à cause — c’est la thèse du film — de l’extraction de gaz de schiste menée à proximité.

Le problème avec cette théorie, c’est que le méthane à l’état naturel existe déjà un peu partout sur la planète, y compris dans l’eau de consommation. Des fuites naturelles de méthane sont rapportées depuis la plus haute antiquité. Donc, avec des milliers de puits de gaz de schiste aux États-Unis, l’industrie a beau jeu de se défendre en disant que, si elle était responsable, des incidents comme celui du robinet qui s’enflamme devraient être beaucoup plus répandus.

Or, pour la première fois, une étude prétend justement pouvoir établir ce lien. Quatre scientifiques de l’Université Duke, en Pennsylvanie, affirment que, dans l’eau des 68 puits qu’ils ont étudiés (dans une région couvrant une partie de la Pennsylvanie et l’État de New York), les niveaux de méthane sont 17 fois plus élevés lorsque ces puits sont à un kilomètre ou moins d’une extraction de gaz.

Peut-être plus important encore, les chercheurs ajoutent que la signature moléculaire de ce gaz révèle qu’il s’agirait de méthane thermogénique, ce qui signifie qu’il provient de très loin sous la surface (comme le gaz de schiste), au contraire du méthane biogénique, celui qu’on trouve traditionnellement un peu partout.

Toutefois, leur échantillon est minuscule, trop petit pour fournir une preuve définitive, reconnaissent-ils dans leur étude, parue dans l’édition du 9 mai de la revue PNAS : «  Nos résultats montrent des traces de contamination au méthane dans l’eau de consommation, en au moins trois endroits de la région. »

Du même souffle, le biologiste Robert Jackson et ses collègues de l’Université Duke, soulignent n’avoir trouvé aucune trace de contamination de l’eau par la « soupe toxique » qu’utilise l’industrie du gaz pour fracturer la roche (là où se cache le gaz). Comme la crainte de contamination par cette soupe toxique est soulevée bien plus souvent que la crainte de fuites de méthane, c’est une bonne nouvelle : ces produits chimiques, avec le peu qu’on en sait, pourraient être nocifs pour la santé humaine tandis que le méthane, lui, n’est pas à proprement parler un contaminant. Il peut se retrouver dans l’eau du robinet sans que quiconque ne soit incommodé. Mais en trop grande quantité dans un espace fermé, il peut entraîner l’asphyxie, ou une explosion.

D’où vient ce méthane ?

S’il se confirme qu’il y a fuite du méthane toutefois, cela pose une autre question : d’où vient-il ?

  • Soit la fracturation de la roche — lorsqu’on fait exploser la roche de schiste pour en extraire le gaz — provoque une série de fractures dans les couches géologiques, qui se rendent jusqu’à la nappe phréatique, des centaines de mètres plus haut. C’est l’hypothèse la moins probable, mais ce serait la plus inquiétante.
  • Soit ce méthane est passé par une fissure dans le puits par lequel le gaz remonte des profondeurs, ce qui voudrait dire que la compagnie a bâclé son travail — elle est censée renforcer considérablement ce puits, là où il passe au travers de la nappe phréatique. C’est l’hypothèse la plus plausible.

Dans un texte d’opinion publié par le Philadelphia Inquirer et qui a été envoyé à ce journal pour coïncider avec la parution de la recherche, l’auteur principal, Robert Jackson, semble anticiper les critiques : « Les environnementalistes ont souvent la tâche déplaisante de pointer les faiblesses de différentes technologies, et cette étude montre un côté sombre de la fracturation. Mais les autres énergies ont également leurs faiblesses et dans certains cas, de très grosses […] Il est très probable que nous utilisions le gaz de schiste pour un certain temps, et les problèmes que nous avons pointés pourront probablement être résolus. Il serait inexact et injuste de dire que notre étude prouve que la fracturation doit être abolie. »

 

Par Pascal Lapointe pour Agence Science-Presse

 

DÉJÀ PARU :

Les gaz de schiste enflamment l’Assemblée

Gaz de schiste : pour ou contre ?

Gaz de schiste : « Il y a des risques de contentieux »

Gaz de schiste : Fillon veut « tout remettre à plat »

L’exploitation des gaz de schiste plus polluante que celle du pétrole ou du charbon ?

Révélations inquiétantes aux Etats-Unis sur les Gaz de schiste

Le gaz de schiste, au premier plan de l’actualité

La fabuleuse histoire de l’aluminium (1/2)

Lorsque l’empereur Napoléon III recevait des invités de marque, ils étaient servis dans de la vaisselle en aluminium. Les autres devaient se contenter de vaisselle en or. Cette anecdote illustre le fait qu’au milieu des années 1800, l’aluminium était considéré comme un métal précieux, ce qui est étonnant quand on sait que l’aluminium est l’élément métallique le plus abondant de la croûte terrestre.

Mais il y existe non pas à l’état pur, mais combiné à d’autres éléments, comme l’oxygène dans l’alumine Al2O3.2H2O ou le fluor dans la cryolite (AlF3.3HF). Et l’aluminium est si intimement lié à ces autres éléments qu’il est très difficile de l’isoler, ce qui explique pourquoi l’aluminium est un métal « jeune ». Alors que des métaux comme le cuivre et l’étain sont utilisés depuis des millénaires, l’aluminium, lui, n’est disponible que depuis moins de 200 ans.

Le chimiste danois Hans Christian Œrsted a été le premier, en 1825, à préparer le métal en traitant du chlorure d’aluminium avec un mélange de mercure et de potassium. L’Allemand Friedrich Wöhler, puis le Français Henri Sainte-Claire Deville, améliorèrent le processus au cours des années suivantes. Mais cette démarche fondée sur des réactions chimiques complexes était très coûteuse, d’où la rareté du métal. Tout changea en 1886 quand deux chimistes, l’Américain Charles Martin Hall et le Français Paul Héroult introduisirent presque simultanément un processus faisant appel à l’électrolyse.

Un mélange d’alumine dissoute dans de la cryolite est soumis à un courant électrique, ce qui a pour conséquence la libération du métal à l’état pur. La simplicité de ce processus fit qu’en moins de 50 ans, le cours du métal tomba de plus de 1000 dollars à moins de 50 cents le kg. Aujourd’hui, le processus d’électrolyse « Hall-Héroult » est toujours la seule méthode commerciale utilisée pour la production de l’aluminium. Ironiquement, Charles Martin Hall et Paul Héroult sont liés plus que par le trait d’union qui décrit leur procédé. Ils sont nés la même année (1863) et décédés la même année (1914) aussi. De plus, ils ont tous deux fait leur découverte au même âge, 22 ans.

Le processus Hall-Héroult a mis à la portée de tous les multiples qualités du métal, et elles sont nombreuses. Sa densité est environ trois fois plus faible que celle de l’acier, ce qui explique son utilisation dans l’aviation. De plus, quand l’aluminium est exposé à l’air, il forme une mince couche d’oxyde d’aluminium en surface. Cette couche d’oxydation de quelques nanomètres d’épaisseur, contrairement aux autres métaux comme le fer, ne progresse pas et prévient une d’oxydation en profondeur. C’est pourquoi l’on peut dire que l’aluminium ne « rouille » pas.

Une autre qualité de l’aluminium est son excellente conductivité électrique. Bien que la conductivité de l’aluminium n’atteigne que 60 % de celle du cuivre, sa masse spécifique ne représente que le tiers de celle de ce dernier. C’est pourquoi l’aluminium est utilisé dans les lignes électriques à grandes distances où le poids est un facteur. Comme les propriétés thermiques et électriques des métaux sont intimement liées, l’aluminium est aussi un bon conducteur de la chaleur. Ce qui explique son utilisation dans les casseroles pour la cuisson, mais aussi pour la fabrication des cannettes de boissons gazeuses, qu’on veut garder fraîches.

C’est la grande malléabilité de l’aluminium qui permet sa transformation en « papier » d’aluminium. Pour la petite histoire, c’est un Suisse, Robert Victor Necker, qui, en 1910, créa la première usine de fabrication de papier d’aluminium. Il fut utilisé pour la première fois – ce qui n’est guère surprenant étant donné que notre histoire se déroule en Suisse – pour l’emballage… du chocolat ; plus particulièrement, le fameux chocolat triangulaire Toblerone. Aux États-Unis, par contre, le papier d’aluminium a été d’abord utilisé comme bague d’identification des pigeons voyageurs ! Je me suis toujours demandé – j’espère que c’est aussi votre cas – pourquoi un des deux côtés du papier d’aluminium est mat, alors que l’autre est brillant.

En fait, cela provient du système de production des feuilles. Lorsque l’aluminium est laminé successivement en couches de plus en plus fines, les rouleaux en contact des deux côtés avec le métal le polissent pour lui donner un aspect brillant. Mais au dernier passage, les feuilles sont devenues si minces qu’elles se briseraient si elles étaient polies individuellement. Pour prévenir cette éventualité, deux feuilles sont mises l’une contre l’autre avant de passer entre les rouleaux. Quand elles sont ensuite séparées, les faces extérieures qui ont été en contact avec les rouleaux sont brillantes, alors que les faces intérieures sont mates. Néanmoins, pour la cuisson, le côté avec lequel cela vous enveloppez votre nourriture avant de la passer au four n’a aucune importance.

Le papier d’aluminium a une myriade d’utilisations. Il vous permet notamment de nettoyer vos bijoux en argent. Avec le temps, l’argent se ternit lorsqu’il réagit avec l’anhydride sulfureux (H2S) de l’air pour produire une couche sombre de sulfure d’argent (Ag2S). On peut éliminer cette couche en polissant l’objet. Mais, ce faisant, on perd une quantité du métal. La solution consiste à déplacer le soufre pour former à nouveau de l’argent pur. Pour cela, déposez votre bijou dans de l’eau chaude avec un peu de papier d’aluminium et une cuillérée à thé de bicarbonate de soude. Après quelques minutes d’immersion, le ternissement aura disparu. Chimiquement, le soufre du sulfure d’argent s’est déplacé vers l’aluminium pour former avec ce dernier du sulfure d’aluminium. La réaction requiert un milieu basique, d’où l’addition de bicarbonate de soude.

À suivre… Dans une prochaine tribune, on retrouve encore l’aluminium, mais cette fois, nous traiterons des aspects plus controversés de son utilisation.

 

Par Ariel Fenster, professeur à l’Université McGill (Canada), et membre fondateur de l’Organisation pour la Science et la Société

Le contrôle du gaz de purge améliore les soudures orbitales

« D’une manière générale, le contrôle du gaz de purge est un paramètre clé de la soudure orbitale », affirme John Glessman, chef de produit chez Swagelok. « Pour certaines applications, il est nécessaire d’ajuster en permanence, manuellement, le gaz tout au long du processus de soudure. Ceci nécessite un véritable tour de main et tout mauvais réglage peut conduire à de nombreux rebuts pour mauvaise qualité des soudures. »

Le dispositif de contrôle automatique de purge interne de Swagelok dont le brevet est en cours, contribue à éliminer ces désagréments, qui peuvent être critiques pour des secteurs industriels dans lesquels un niveau élevé de qualité est requis, comme par exemple dans l’industrie biopharmaceutique ou dans l’industrie des semi-conducteurs. Il modifie en dynamique le débit du gaz de purge interne afin de maintenir une pression appropriée au niveau du diamètre intérieur du joint de soudure. Ainsi, avec son système automatique de contrôle du gaz de protection externe, l’alimentation M200 offre un ensemble complet et automatique de contrôle des gaz, pour une meilleure continuité, reproductibilité et qualité des soudures.

Les paramètres du balayage interne sont définis au moyen des procédures automatiques de gestion des soudures, ou directement au moyen de boutons. Un contrôleur de débit massique à réponse rapide, intégré à l’alimentation M200, ainsi qu’un capteur de pression externe, permettent un contrôle de purge plus précis et continu qu’un processus manuel. Toutes les opérations de purge sont suivies en temps réel et enregistrées dans le journal détaillé de l’alimentation M200.

Pour une plus grande souplesse du processus de soudure, Swagelok a ajouté un mode manuel à ses fonctionnalités standard de soudure orbitale, permettant ainsi la réalisation de soudures TIG présentant la continuité des soudures orbitales. Dès lors que l’accessoire de torche à main est connecté à l’alimentation, tous les paramètres et réglages de soudure sont affichés graphiquement. Les éléments de contrôle de la soudure manuelle sont affichés sur un écran industriel couleur haute résolution. L’alimentation comprend en outre un contrôleur de débit massique qui fixe automatiquement le débit de gaz de protection externe.
 

Mobilité et sécurité : un challenge stratégique pour les entreprises

Force est de constater que la mobilité est désormais une réalité concrète pour les entreprises. Structures multi-sites, collaborateurs nomades, banalisation des PC portables et autres périphériques amovibles sont autant de facteurs qui ont permis à la mobilité de s’imposer comme incontournable dans un contexte professionnel. Génératrice de gain de productivité, cette dernière doit néanmoins être encadrée afin de se prémunir de tout désagrément.

Les aspects liés à la sécurité sont donc un pré-requis incontournable à prendre en compte. Rappelons-nous des récents exemples ayant eu des conséquences malheureuses pour des entreprises de renom… De manière générale, les postes nomades sont exposés à des environnements non contrôlés et non sécurisés. Ils constituent donc une menace pour l’ensemble du réseau interne.

Concrètement, voici plusieurs cas de figure qu’il convient de prendre en compte lorsque l’on se préoccupe de la sécurité en situation de mobilité :

  • un ordinateur portable volé, perdu ou mal utilisé menace l’intégralité des données critiques de l’entreprise ;
  • les media de communication sans fil (clés 3G, points d’accès WIFI…) sont des cibles évidentes que les pirates corrompent facilement, s’ouvrant par là même l’accès aux informations les plus sensibles de l’utilisateur ;
  • les ordinateurs portables mal utilisés sont des portes ouvertes à l’accès intrusif au réseau interne de l’entreprise.

Ces quelques exemples concrets illustrent à eux seuls les dangers auxquels s’exposent les collaborateurs nomades qui manipulent des informations sensibles (fichiers clients, numéros de téléphone, fichiers comptables). Ces derniers doivent donc impérativement s’assurer de bénéficier d’une protection efficace. N’oublions pas que la sécurité doit être présente à tous les niveaux,  y compris à l’intérieur des murs de l’entreprise.

Les postes nomades sont donc au centre de toutes les attentions. Ces derniers doivent pouvoir prendre en compte un certain nombre de paramètres : gestion par liste blanche des points d’accès WiFi, routage obligatoire vers le VPN (Virtual Private Network ou Réseau Privé Virtuel) de l’entreprise pour échanger des données, contrôle et autorisation des périphériques externes, outil de détection et de protections contre des attaques hétérogènes, impossibilité d’accès aux données en cas de perte ou de vol de l’ordinateur…

Le poste de travail nomade doit donc être surveillé en continu afin de ne pas être à l’origine d’intrusions, de piratage. Conscientes de ces risques, les entreprises et les administrations commencent à s’équiper d’outils dédiés à la protection de leurs flottes de PC portables. Analyse comportementale et protection à base de signature, contrôle des applications, technologies de chiffrement de données… sont autant de dispositifs concrets et complémentaires qui se généralisent. Le travail de fond réalisé par l’ensemble des fournisseurs du marché a également permis de rationaliser l’approche liée à la sécurité des périphériques mobiles : approche unifiée et intégrée, facilité de mise en œuvre… Sécuriser son parc nomade est donc désormais une opération possible et simple à mettre en œuvre.

Ces principaux éléments expliquent en grande partie l’intérêt massif des entreprises et des organismes publics  pour les sujets liés à la sécurité des équipements portables.  À n’en pas douter, nous devrions à court terme voir ce sujet se banaliser et s’imposer comme un pré-requis dans les politiques de sécurité définies par les RSSI et les Directions des Systèmes d’Information.
 
par Jérôme Robert, Responsable Marketing Produit de SkyRecon
 

Avancées dans la lutte contre la maladie d’Alzheimer

Des équipes britanniques de scientifiques et de cliniciens (basés à l’Institute of Psychiatry de King’s College London et au complexe hospitalier d’excellence du sud de Londres, le South London and Maudsley – SLaM), en collaboration avec une équipe de l’Institut Karolina à Stockholm, ont développé et utilisé pour la première fois un programme informatique avancé visant à détecter les signes précoces de la maladie d’Alzheimer à partir d’un scanner IRM pratiqué lors d’examens routiniers.

A l’heure actuelle, les scanners effectués dans la pratique clinique de routine permettent d’exclure la présence de pathologies capables de mimer la maladie d’Alzheimer. Ce logiciel d’« IRM automatisé », au contraire, compare automatiquement l’image scannée du cerveau d’un patient à 1 200 images référencées, chacune correspondant à une étape différente de l’avancement de la maladie. Il s’agit donc de détecter la maladie plutôt que de l’exclure. Ce logiciel a été utilisé pour la première fois au sein du National Health Service (NHS, Service de santé britannique), dans un service hospitalier de la mémoire (Memory Clinic) pour obtenir un diagnostic précoce. L’étude a montré que 85 % des résultats indiquaient un diagnostic fiable, obtenu dans un délai inférieur à 24 heures suivant l’examen.

Le système est actuellement dans sa phase de test pour les douze prochains mois, dans les hôpitaux SLaM incluant Croydon, Lambeth et Southwark. Ceci permettra notamment d’accroître le nombre de patients testés et donc d’affiner les statistiques associées, mais également d’obtenir des images de haute qualité utilisables en recherche, étape incontournable dans le développement de nouvelles molécules thérapeutiques contre la maladie d’Alzheimer, la démence et la médecine personnalisée.

Cette avancée, issue des recherches d’équipes multidisciplinaires, est d’autant plus importante que les signes précoces de cette maladie sont rarement traités jusqu’à ce que les symptômes soient plus prononcés et définitifs. Les personnes touchées ayant un diagnostic plus précoce n’ont pas encore de symptômes cliniques et pourraient ainsi planifier les soins dont ils auront besoin lorsqu’ils sont en possession de toutes leurs facultés mentales, et améliorer leur qualité de vie aussi longtemps que possible. Une conséquence appréciable pour les Etats serait la réduction du nombre de personnes acceptées dans des maisons de soins intensifs, réalisant ainsi des économies importantes.

La maladie d’Alzheimer

La maladie d’Alzheimer est une maladie neurodégénérative du cerveau au cours de laquelle les fonctions cérébrales sont perdues de manière irréversible. Les signes et symptômes les plus fréquents touchent dans un premier temps la mémoire, suivis de troubles cognitifs de plus en plus sévères menant à une perte progressive d’autonomie jusqu’au décès. Les diagnostics actuels reposent sur des tests neuropsychologiques et l’observation d’une atrophie du cerveau dans ses zones corticales où sont situés les neurones importants pour la mémoire.

Au Royaume-Uni, on estime à 750.000 le nombre de personnes atteintes de démence, la maladie d’Alzheimer comptant pour 465.000 des cas. La charge financière se monte à environ 20 M£ par an. Selon la Alzheimer’s Society, association caritative dédiée à l’aide aux patients et leurs familles et finançant la recherche biomédicale pour lutter contre cette maladie, un million de personnes vivront avec la maladie dans 15 ans, et 1,7 million en 2051.

Sources : http://www.bulletins-electroniques.com/actualites/66712.htm

 

Déjà paru :

Mainframe et AS/400: des systèmes réellement en perte de vitesse ?

Bien entendu, le marché des nouvelles technologies sera toujours particulièrement avide de nouveaux concepts plus ou moins industriels qui viendront apporter leur part de buzz dans un éco système particulièrement dynamique. Ainsi, après avoir largement parlé du SaaS, ce dernier semble s’estomper au profit de l’incontournable Cloud Computing qui vient jusqu’à apparaître dans nos spots publicitaires télévisuels ! 
 
Oui mais voilà, l’industrie des nouvelles technologies ne se limite pas aux effets d’annonce. En effet, force est de constater que le système d’information des entreprises, bien que de plus en plus agile, s’appuie encore fortement sur des environnements « historiques » qui lui confèrent une pérennité certaine.
 
Ainsi, les traditionnels environnements Mainframe et AS/400, annoncés pour mort il y a quelques années, semblent faire de la résistance à bien des égards et notamment dans le domaine des applications stratégiques : métiers, sectorielles, gestion et finance. On estime qu’en 2011, l’environnement Mainframe assure plus de 85 % des transactions réalisées dans le monde ! 
 
Nous sommes bien loin des constats pessimistes lancés à la hâte par de nombreux fournisseurs désireux de commercialiser de nouveaux systèmes encore trop peu matures pour supporter des opérations stratégiques. Les utilisateurs ne s’y sont pas trompés et nombre de DSI ne se séparerait aujourd’hui de leur Mainframe pour rien au monde. Il n’est ainsi pas rare d’étendre les DSI s’exclamer : « Me débarrasser de mon Mainframe ? Pas question, il est au centre du bon fonctionnement de mon SI et héberge mes applications business et financières les plus stratégiques ! »
 
Mais pourquoi un tel succès ? Les raisons sont finalement assez simples et de bon sens : un environnement stable et éprouvé, la garantie d’une meilleure sécurité ou encore des coûts d’évolution et d’exploitation contenus. Ces arguments s’opposent aux détracteurs parlant uniquement d’ergonomie, d’intuitivité… Les usages sont tout simplement différents et ne prennent pas en compte les mêmes applications.
 
Pour autant, les environnements Mainframe tendent à se dépoussiérer et à s’orienter vers une approche Mainframe 2.0. Cette petite révolution en marche depuis quelques années a permis aux DSI de conserver leurs infrastructures et de capitaliser sur ces dernières, tout en modernisant l’usage de leurs applications. Nouvelles applications, nouvelles interfaces, intégration des nouveaux usages sont désormais des éléments et des axes d’amélioration existant dans l’industrie Mainframe. Les applications héritées sont donc modernisées et mise au goût du jour tout en conservant leurs qualités premières.
 
Même dans les domaines de type SOA (Service-oriented architecture) et Web services, le marché continue de croître à un rythme soutenu. Ainsi, selon une étude menée par BMC, 52 % des personnes interrogées considèrent que les environnements Mainframe jouent un rôle critique dans leur stratégie de mise en œuvre des SOA ou de Web services. L’on notera enfin que la bonne reprise du marché des serveurs profite largement aux nouveaux environnements Mainframe.
 
Il serait donc prématuré de ne plus positionner le Mainframe dans les axes de développement du SI. Il devrait continuer de fonctionner de manière intensive pendant de nombreuses années et jouer un rôle central dans le bon fonctionnement des DSI.
 
Par Yann COGNARD, Responsable Commercial de France Macro 4

 

Déjà paru :

Les mashups d’entreprise et le Cloud

Les systèmes CRM, une composante essentielle de la performance des entreprises

Le Cetim-Cermat fait confiance à un coffre-fort virtuel

Afin de fluidifier et optimiser les échanges avec ses clients, le Cetim-Cermat, laboratoire d’essais et d’analyses industrielles intervenant auprès de grandes société industrielles, a mis en place une solution de dématérialisation à valeur légale de ses PV d’analyses et  factures clients, incluant un archivage décennal règlementaire.

Pour répondre à l’ensemble de ses besoins fonctionnels, le laboratoire a ainsi opté pour la solution E-coffrefort de l’OFSAD (Office Français pour la Sécurité et l’Archivage des Documents). La cinématique est simple : une fois le rapport d’analyse rédigé, il est signé et contresigné électroniquement par le collaborateur et un responsable hiérarchique. Le collaborateur peut alors, d’un simple clic de souris, le transmettre et le classer simultanément dans le coffre-fort du client et dans celui du Cetim-Cermat, et notifier sa disponibilité aux correspondants concernés. De même, la journalisation des évènements doit permettre à Cetim-Cermat de suivre la consultation des documents.

Précurseur depuis 2006 des solutions d’archivage en ligne à valeur probante de documents du particulier et des entreprises, l’OFSAD, tiers de confiance (organisme habilité à mettre en œuvre des signatures électroniques), membre de la FNTC (Fédération Nationale des Tiers de Confiance), a développé un service de coffre-fort virtuel, service d’archivage de documents en mode hébergé (SaaS).

La qualité de « tiers de confiance » permet de certifier l’intégrité des documents restitués ainsi que leur date de dépôt au coffre en référence à la norme AFNOR NF Z42-013. Ainsi, en garantissant que les documents n’ont été ni falsifiés, ni corrompus depuis leur dépôt, ils pourront profiter d’une valeur probante (Art. 1348 aliéna 2 du Code Civil) face à un fournisseur, un juge, un assureur, un client, l’administration fiscale.

Tous les dépôts au coffre, quelque soit la méthode employée (ScanDirect, FaxDirect, PrintDirect, PhotoDirect, Drag & Drop, CD-Direct ou téléchargement) sont entièrement automatisés afin d’assurer la plus stricte confidentialité et d’éviter toute erreur humaine. Il en va de même lors de la récupération des documents (impression locale, envoi par mail, téléchargement) ou de la gestion des documents (classement, renommage, recherche, suppression…).

L’OFSAD peut restituer des copies de tous les documents, d’origine papier et numériques, transformés en PDF, toujours lisibles et exploitables plus de trente ans après leur dépôt. En effet, les formats de fichiers numériques (actuellement PDF/A) changent fréquemment et parfois même plusieurs fois par décennies. Les documents sont stockés dans trois data-centers sécurisés : un centre principal, un centre secondaire distant de 3 kilomètres et un troisième centre, qui assure un back-up quotidien.

 

À Fukushima, la catastrophe continue

Arrivée des experts de l’AIEA

Une équipe d’experts de l’Agence Internationale de l’Énergie Atomique (AIEA) est attendue par le Japon du 24 mai au 2 juin, dans le but d’inspecter le site de la centrale nucléaire de Fukushima Dai-ichi, théâtre d’une catastrophe nucléaire sans précédent depuis Tchernobyl, provoquée par le tremblement de terre et le tsunami qui s’en est suivi, il y a de cela près de deux mois. La TEPCO, exploitant de la centrale, a été énormément critiquée pour sa gestion de l’après catastrophe et pour son manque de transparence. C’est pour garantir celle-ci que les agents de l’AIEA inspecteront les installations afin de remettre leurs conclusions le mois prochain lors d’une réunion au siège de l’AIEA à Vienne.

De nouvelles fuites… colmatées

La TEPCO faisait état de nouvelles fuites d’eau radioactive dans le Pacifique la semaine dernière, expliquant qu’une partie des sept tonnes injectées chaque heure dans la cuve du bâtiment n°1 ne se trouvait plus dans la cuve, à l’aide d’une jauge. « La température de la paroi de la cuve était de 100-120 degrés, ce qui est considéré comme un niveau permettant un refroidissement du combustible dans des conditions relativement stables », expliquait un responsable. Les relevés de radioactivité, et notamment de césium 134 à proximité de la centrale révélaient un niveau… 18 000 fois plus élevé que la réglementation ne le permet. La fuite a toutefois été colmatée, grâce à une injection de béton. Les Japonais envisagent de refroidir également l’enceinte de confinement en l’inondant.

Une erreur humaine ?

Des documents internes de la TEPCO, révélés par le Japan Times, émettent l’hypothèse d’une erreur humaine ayant entrainé la fusion du réacteur n°1. « Une partie du système de refroidissement, connu comme étant le condensateur d’isolation, était à l’arrêt pendant trois heures, ce qui a pu contribuer à la fusion du cœur du réacteur » indique le quotidien. Une enquête interne devrait apporter plus de précisions le 23 mai.

Un calendrier difficile à respecter

L’opérateur électrique prévoit l’arrêt à froid des réacteurs pour le début de l’année 2012, ce qui selon les experts semble peu probable. Il faudra d’abord assurer un refroidissement durable, passant par le rétablissement du système de refroidissement. Les risques d’explosion ne sont toujours pas exclus, dus à la présence d’hydrogène et d’oxygène. Les injections d’azote semblent avoir plutôt bien marché jusqu’ici. Les experts tablent sur une vingtaine d’années avant de pouvoir souffler, se basant sur l’accident de la centrale de Three Mile Island.

Inquiétudes et arrêt provisoire de la centrale de Hamaoka

La centrale, exploitée par la compagnie Chubu Electric Power, a été construite dans une région à très forte activité sismique, les sismologues estimant à 87 % de chances qu’un séisme de magnitude 8 se produise dans les trente années à venir. Se situant aussi à près de 200 kilomètres de Tokyo et au bord du Pacifique, deux des cinq réacteurs sont arrêtés depuis 2009, alors qu’un réacteur est en maintenance depuis un an et qu’un autre vient tout juste d’être provisoirement arrêté. Le cinquième devrait suivre samedi, laissant le temps à l’exploitant de sécuriser les installations et de construire un mur de protection et des digues face à la mer, en prévision d’un futur tsunami. Protections dérisoires ?

 

Plan d’indemnisation

 

L’État prévoit un plan d’indemnisation aux entreprises et aux personnes sinistrées, précisant qu’il n’a pas pour but de sauver la TEPCO, mais d’éviter qu’elle ne tombe en cessation de paiement. Il a par ailleurs demandé l’abattage du bétail, plus ou moins livré à lui-même depuis l’évacuation de la population, dans le rayon de 20 kilomètres de la zone d’exclusion.

Par Rahman Moonzur

Déjà paru :

Construction de la première centrale électrique au BioSynGaz

La première centrale de valorisation énergétique de déchets industriels banals et de biomasse par gazéification, améliorée par la technologie plasma brevetée du Groupe CHO Morcenx sera opérationnelle à partir de 2012. Elle vendra alors l’électricité produite (90 000 MWh par an, de quoi alimenter 50 000 habitants environ.) à EDF sous le régime de l’obligation d’achat pendant 20 ans et bénéficiera des accords-cadres concernant les flux entrants de déchets signés avec de grands acteurs du marché (Sita et Veolia). Réalisée sous la maîtrise d’œuvre de CHO Power SAS (filiale à 100% d’Europlasma) alors que Inertam SAS (filiale à 100% d’Europlasma) sera en charge de l’exploitation et de la maintenance, cette réalisation dont la construction vient de commencer constitue une avancée majeure pour la société qui va accélérer ses démarches afin de qualifier d’autres sites de production d’énergie dans le monde. Le Groupe a en effet déjà identifié plusieurs projets potentiels comparables à CHO Morcenx et obtenu un accord sur les modalités de financement de deux autres usines de ce type.

La technologie de gazéification est une technologie éprouvée puisqu’elle existait déjà au XXème siècle pour produire du gaz de ville à partir de charbon. Oubliée lors de l’apparition du gaz naturel, elle est ensuite appliquée à la destruction de déchets.  En effet, la gazéification  qu’il ne faut pas confondre avec l’incinération, est un procédé thermique sans flamme qui consiste à chauffer des éléments principalement organiques (déchets, biomasse…) dans une atmosphère en défaut d’air. Les éléments carbonés réagissent  avec la vapeur d’eau et le CO2, à une température d’au moins 600°C. On obtient donc principalement un gaz composé de monoxyde de carbone et d’hydrogène, appelé gaz de synthèse ou syngaz. L’intérêt d’un tel procédé est de pouvoir convertir un élément solide en gaz chaud dont le pouvoir combustible est récupéré pour produire de l’électricité.

Alors que le charbon est un combustible stable et sec, le déchet ou la biomasse sont variables. La torche à plasma voit alors tout son intérêt à compléter un processus de gazéification.  En effet, la partie innovante mise en place par Europlasma est un outil de purification à haute température basé sur les torches à plasma. Le BioSynGaz obtenu est alors plus pur, conduisant à un meilleur rendement de l’installation : pour une même quantité de combustible utilisée, plus d’électricité est produite. De plus, étant moins chargé en goudrons et alcanes, il est plus respectueux de l’environnement.

Le procédé de gazéification amélioré par plasma apparait comme  un système plus efficace énergétiquement que la combustion car on passe directement à une phase gazeuse avec une empreinte environnementale moindre. De plus, il offre un rendement électrique de bout en bout pouvant atteindre  40 % (ultérieurement, ce gaz permettra de produire de l’essence de synthèse que l’on pourra directement utiliser dans les moteurs des voitures).

Les centrales électriques CHO-Power permettent donc de hauts rendements avec un impact environnemental minimal grâce des émissions très limitées, et très peu de résidus ultimes, des installations compactes mieux acceptées par les populations. Une attention particulière a, en effet, été portée à l’intégration architecturale et paysagère de ce site en faisant intervenir l’architecte Mr Bühler sur la conception de l’unité. Le site complet de Morcenx (regroupant l’unité CHO-Power et l’unité d’Inertam) fera référence aux couleurs et matériaux de la région et sera complété par la création d’espaces paysagers respectant au mieux les caractéristiques du site.

Une chaîne typique de gestion des déchets moderne débute par un tri mécano-biologique (séparation granulométrique, densimétrique et magnétique) qui permet de capter la fraction organique du reste des déchets. Cette étape permet d’aboutir à l’obtention des fractions suivantes :

  • une fraction valorisable : métaux ferreux et non ferreux ;
  • une fraction organique utilisée en compostage et/ou méthanisation ;
  • les refus à haut pouvoir calorifique (plastiques, bois…) utilisés comme combustible pour la gazéification ;
  • les inertes.

Le procédé CHO-Power est ainsi très complémentaire des autres technologies de valorisation de déchets en étant capable de transformer efficacement les fractions résiduelles après tris et séparations. En effet, la combinaison de ces technologies permet d’obtenir des taux de valorisation supérieurs à 85%.

La production d’énergie de CHO Morcenx se fera à partir de la valorisation de 55 000 tonnes par an de biomasse et déchets banals, la biomasse étant constituée de plaquettes forestières du massif landais. Les déchets produits par les entreprises locales, essentiellement des cartons, du bois, du papier et des tissus,  seront apportés par les principaux collecteurs des Landes et des départements limitrophes. Les collecteurs n’apporteront que la fraction résiduelle après leur propre tri et recyclage, ce flux partant  aujourd’hui principalement vers des décharges lointaines. L’installation permettra donc d’éviter un transport routier important et évidemment la mise en décharge.

Aujourd’hui l’arrivée de la biomasse et des déchets est prévue par camions. Est estimée une rotation de 15 camions en moyenne par jour, soit moins de 1% du trafic routier actuellement constaté sur la D38.
Demain, le fret ferroviaire pourrait être utilisé puisque le site dispose d’une voie dédiée. Cette alternative dépend essentiellement des infrastructures disponibles  entre les points de collecte et le site. Il faudra alors vérifier que l’utilisation d’une locomotive diesel et des véhicules de collecte sont bien moins polluants que le trafic camion.

 

Déjà paru :

Le biogaz, un marché en pleine croissance à l’international

Avec environ 1 000 nouvelles installations implantées en Allemagne en 2010, le bilan de la branche du biogaz est tout aussi positif qu’en 2009. Rien que l’année dernière, ce segment a enregistré un chiffre d’affaires de 4,7 milliards d’euros. Mais les fabricants allemands d’installations de biogaz réalisent encore environ 80 % de leur chiffre d’affaires sur le marché intérieur, même si les exportations jouent un rôle croissant dans l’évolution de leur entreprise. Une situation qui explique pourquoi le biogaz constituera nouveau un pôle thématique du salon de la gestion de l’eau, des eaux usées, des déchets et des matières premières secondaires, IFAT ENTSORGA, qui se tiendra à  Munich en mai 2012.

Selon une étude de l’institut d’études de marché Trend : Research, le nombre des installations de biogaz dans les seize pays européens considérés passera d’ici 2020 à plus de 16 000, ce qui représente plus du double du chiffre actuel. De plus en plus de pays remplissent les conditions nécessaires à une croissance rapide de la branche du biogaz à l’intérieur de leurs frontières. Le système déjà expérimenté en Allemagne, qui consiste en un taux de rémunération fixe pour l’électricité provenant d’énergies renouvelables et injectée dans le réseau de distribution, s’implante progressivement dans toute l’Europe.

D’après les indications fournies par les analystes de Trend : Research, c’est l’Italie qui, avec l’Allemagne, propose actuellement les taux de rémunération les plus intéressants, créant ainsi les conditions d’un développement du marché supérieur à la moyenne européenne. D’autres nations lui emboîtent le pas. C’est ainsi que la Grande-Bretagne, un pays plutôt libéral, a mis en place, l’an dernier, un tarif d’achat pour l’électricité produite de façon décentralisée à partir de fermentation anaérobie et en prévoit un autre en avril 2011 pour la production de chaleur à partir de biogaz et de biomasse. 

Installation de 350 usines de biogaz au Mexique en quatre ans

Si l’on cherche de vastes et nouveaux marchés susceptibles de connaître une croissance rapide, il faut, selon une étude réalisée conjointement par la société de conseil Ecoprog et l’institut Fraunhofer pour les techniques environnementales, de sécurité et énergétiques, aller voir surtout du côté de l’Europe de l’Est, par exemple en République tchèque, en Slovaquie et en Hongrie. « Sur les marchés traditionnels comme l’Allemagne, l’Italie ou l’Autriche, les sites les plus avantageux seront progressivement occupés », explique Mathias Zuber d’Ecoprog. « C’est pourquoi, dans ces pays, la construction d’installations neuves sera en léger recul au cours des prochaines années. Ces tendances à la baisse pourront toutefois, du moins en partie, être compensées par des investissements de remplacement dans les installations déjà existantes, ce que l’on appelle le repowering. »
 
Cependant, l’utilisation de biogaz est aussi en hausse en dehors de l’Europe, par exemple au Mexique, où le gouvernement a subventionné l’installation de 305 usines de biogaz au cours des quatre dernières années, et ce pour un volume de 17,7 millions d’euros. Selon les données fournies par la société allemande de développement économique Germany Trade & Invest, le nombre d’installations doit doubler d’ici l’année prochaine. Le ministère mexicain de l’Agriculture a débloqué à cet effet près de 33 millions d’euros de subventions.
 
Israël veut également promouvoir les énergies renouvelables. L’autorité israélienne de surveillance de l’électricité envisage d’autoriser, d’ici 2017 au plus tard, des installations anaérobies de biogaz présentant une capacité totale installée de 160 MW. Les investisseurs qui obtiennent une licence de production d’électricité se voient accorder pour une durée de 20 ans un tarif d’achat fixé pour l’instant à l’équivalent de 12 centimes/kWh. Le tarif sera réactualisé chaque année pendant toute la durée de la licence.
 
L’industrialisation croissante du secteur agricole dans beaucoup de pays en voie de développement et de pays émergents ouvre également des perspectives intéressantes pour la branche du biogaz. Afin d’intégrer encore davantage les entreprises privées à la création et à l’extension de systèmes énergétiques durables dans les pays partenaires de l’aide au développement pratiquée par l’Allemagne, l’Union professionnelle Biogaz et la Société allemande de coopération internationale ont signé, à la fin du mois de janvier de cette année, un accord de coopération. « Les entreprises allemandes de pointe en matière de technologie sont un moteur pour la construction de systèmes énergétiques modernes et porteurs dans les pays en voie de développement et les pays émergents, où s’ouvrent en même temps pour elles de nouveaux marchés. En coopérant, on peut garantir que les pays en voie de développement profitent eux aussi des expériences les plus récentes réalisées sur le marché allemand du biogaz », a souligné Dr. Claudius da Costa Gomez, directeur général de l’Union professionnelle Biogaz.

 

Déjà paru :

 

 

SIG informatise la gestion de ses 700 projets et chantiers annuels

Entreprise publique autonome genevoise, SIG (Services industriels de Genève) fournit et veille à la qualité de l’eau, du gaz, de l’électricité et de l’énergie thermique, valorise les déchets, traite les eaux usées et met à disposition un réseau de fibres optiques dans un contexte régional. La gestion de ces différentes activités nécessite une excellente organisation et une parfaite gestion des ressources en interne afin de mener à bien les différents projets en cours et à venir.
 
En 2007, SIG décida de réorchestrer ses ressources à travers la création d’une nouvelle entité nommée  « IPRO » (Ingénierie Projet Réseau Ouvrage) afin de réunir au sein d’un même bureau les différents ingénieurs de SIG (hydraulique, électricité, thermique, architecture, génie civil …), de centraliser leurs compétences et d’augmenter les synergies. « De part nos métiers techniques et nos différentes activités, des projets complexes étaient déjà gérés de bout-en-bout. Cependant, chacun de ces projets était géré différemment, rendant difficile une vue d’ensemble et la mise en place des tableaux de reporting homogènes pour le management» précise Philippe Liechti, Responsable Solutions Clients IT chez SIG. « Chacun s’organisait à sa façon, dans son coin, et les managers se retrouvaient souvent avec une information éparpillée dans une multitude de fichiers aux formats différents. Avec la libéralisation des marchés électrique et gazier, la pression s’est accrue sur SIG et ses projets, avec des exigences de plus en plus élevées en terme de gestion financière et de délais de livraison : la compétence technique seule ne suffit plus ».
 
La mise en place d’IPRO a donc été l’occasion d’adopter un nouvel outil de gestion de projet et de le tester au sein même de cette entité. L’objectif était de trouver une solution qui permettrait de fédérer les ingénieurs autour d’un même langage, d’utiliser des méthodes de travail communes et de pouvoir administrer et accéder aux ressources de l’entreprise à travers une base de données unique. L’une des plus fortes attentes était également de pouvoir générer rapidement des reportings homogènes et accessibles afin que tous les collaborateurs puissent en bénéficier. Cet outil ne serait donc pas uniquement dédié à la hiérarchie mais à l’ensemble des parties prenantes des projets (clients, membres des équipes projets …) afin de les aider à mieux gérer leur quotidien.

Un déploiement en seulement 7 mois

A la mi-2007, les différentes solutions du marché furent étudiées par les collaborateurs de SIG. « Plusieurs outils ont été évalués, puis trois ont été installés et testés. L’évaluation a porté à la fois sur leurs TCOs et fonctionnalités respectifs » explique Philippe Liechti. « Au final, c’est la solution logiciel de gestion de projet et de portefeuilles PSNext de Sciforma qui a été retenue. Elle se démarquait des autres de part sa convivialité, son interface simple et accessible mais également par son rapport qualité-prix très intéressant ».
 
Le déploiement a commencé au début 2008 au sein de la nouvelle entité IPRO qui compte une cinquantaine de collaborateurs. Afin d’impliquer les futurs utilisateurs et de bien s’imprégner de leurs besoins, SIG organise alors des ateliers avec l’accompagnement de consultants de Sciforma. L’expérience de déploiement de PSNext dans d’autres entreprises a ainsi été mise à profit. En parallèle, d’autres entités de SIG furent également conviées à des présentations afin qu’elles puissent à terme aussi mettre en œuvre PSNext.
 
La définition des différents processus dura six mois. En revanche, le paramétrage de l’outil ne dura que quelques semaines. L’adoption de PSNext s’est faite progressivement auprès des collaborateurs, en l’espace d’une année environ. 

Une meilleure planification des projets en cours et à venir

L’informatique de SIG repose sur un système SAP. En parallèle du déploiement de PSNext, les informaticiens de SIG ont donc développé, en collaboration avec Sciforma, des interfaces pour communiquer avec SAP afin d’y recueillir des informations complémentaires.

Un premier module a été créé afin de lier les informations dédiées à la finance et à la comptabilité. L’objectif était qu’un chef de projet puisse avoir une meilleure visibilité et une vue d’ensemble de ses projets, de leurs budgets et de leurs coûts. Le deuxième module développé permet d’intégrer dans PSNext les informations liées aux ressources humaines, elles aussi gérées dans SAP. Cette seconde interface permet au chef de projet d’avoir des ressources toujours à jour. Ces deux modules ont donc enrichi le nouvel outil et son intérêt au quotidien pour la direction et l’ensemble des collaborateurs.

PSNext, interfacé avec SAP, permet d’une part de mieux planifier et piloter les projets en cours et à venir, et d’autre part, de remplacer les innombrables fichiers Word, Excel, PowerPoint ou Microsoft Project que chacun utilisait. 

700 projets et chantiers gérés annuellement

A la base, PSNext ne devait être utilisé que par la nouvelle entité IPRO mais les bénéfices furent suffisamment intéressants pour que d’autres entités de SIG l’adoptent à leur tour. En 2008, les collaborateurs de la DSI et du Bureau des projets l’ont mis en œuvre. En 2009 ce fut au tour de la Distribution électricité et du BTP qui y gèrent la planification de leurs chantiers respectifs. Aujourd’hui, 130 collaborateurs de SIG utilisent PSNext et gèrent en moyenne un volume de 700 projets et chantiers par année. En 2011, une vingtaine de nouveaux utilisateurs prendront en main l’outil. SIG souhaite également créer un club d’utilisateur de PSNext afin de mutualiser les expériences en interne et de favoriser l’échange de « best practices » concernant le management de projet.

Grâce à l’outil de Sciforma, la gestion des projets et des ressources est devenue beaucoup plus simple. Le fait d’avoir amélioré la planification a également permis une meilleure anticipation de certains problèmes et donc d’avoir le temps d’y faire face. Autre bénéfice, la collaboration entre les différentes entités a été renforcée grâce à une meilleure communication (un langage commun, un outil commun).

 

Déjà paru :

 

Les bactéries peuvent-elles vraiment engendrer des ondes magnétiques ?

Les recherches mathématiques, menées par Allan Widom à la Northeastern University de Boston, ont permis de mettre à jour un mécanisme éventuel qui permettrait à l’ADN bactérien de produire des signaux radioélectriques. Cette preuve « théorique » expliquerait les résultats obtenus en 2009 par le professeur Luc Montagnier, biologiste et virologue, co-lauréat du Prix Nobel pour la découverte du virus du VIH.

Les études de Luc Montagnier avaient fait l’objet de nombreuses controverses, la plupart des chercheurs ayant nié les résultats, car aucune explication sur le mécanisme qui engendre les ondes radioélectriques n’avait été trouvée, c’est désormais fait ! Cette nouvelle découverte devrait attiser les esprits sur ce débat qui n’est apparemment pas clos.

Comment l’ADN bactérien peut émettre des ondes électromagnétiques ?

L’ADN bactérien forme souvent une boucle circulaire et le déplacement d’électrons libres autour de cette boucle pourrait produire différents niveaux d’énergie. Les fréquences de transition entre ces niveaux d’énergie, lorsque ceux-ci sont modélisés comme dans l’étude présente, montrent des signaux de radiodiffusion de 0,5, 1 et 1,5 kHz. Ces fréquences correspondent aux mêmes fréquences mesurées et publiées dans des études menées par Luc Montagnier en 2009.

 Retour sur les travaux de Luc Montagnier et l’origine des ondes magnétiques 

En 2009, avec la parution de deux articles, Luc Montagnier avance une nouvelle théorie : celle des ondes magnétiques. Tout d’abord, un peu d’histoire : l’une des plus grandes controverses du monde scientifique est initiée par un article publié par l’équipe du médecin et immunologiste Jacques Benveniste dans la revue Nature de juin 1988. L’étude publiée conclut que la dégranulation des basophiles a été activée grâce aux anticorps IgE alors que ces derniers sont dilués à tel point que, statistiquement, aucun n’est présent dans la solution : cette découverte est appelée la « mémoire de l’eau ». L’hypothèse repose sur le concept que l’eau, une fois en contact avec des molécules, conserve une empreinte des propriétés des molécules bien qu’il n’y ait statistiquement plus aucune molécule dans l’eau.

Les résultats obtenus provoquent un retentissement important et les expériences, refaites par d’autres équipes, n’aboutissent à aucun résultat. En juillet 1988, après contre-enquête, la conclusion est que : « Le phénomène décrit n’est pas reproductible au sens habituel du terme. Il n’existe pas d’arguments solides pour affirmer que l’anticorps à haute dilution garde une activité biologique, et que l’idée que l’on puisse imprimer dans l’eau la mémoire de solutés y ayant transité est aussi inutile que fantaisiste. »

En 2009, Luc Montagnier publie lui aussi des articles concernant les propriétés de l’eau face à des molécules fortement diluées. Ainsi, il déclare qu’après filtration et donc élimination totale du pathogène (Mycoplasma pireus) présent dans le sang des patients atteints du SIDA, le mycoplasme réapparait une vingtaine de jours plus tard. Il attribue alors ces résultats à la mémoire de l’eau. En ce qui concerne la production d’ondes magnétiques par l’ADN, Luc Montagnier affirme que l’ADN bactérien produit des changements structurels dans l’eau, qui persistent lors de dilutions élevées et qui conduisent à des signaux électromagnétiques.

Le manque d’explications concernant la source exacte de ces signaux électromagnétiques de la part de Montagnier relance la controverse sur les travaux de Benveniste. Il s’exile alors en décembre 2010 à Shanghaï, à l’âge de 78 ans, afin de poursuivre ses recherches.

Conclusion 

Aujourd’hui, certains scientifiques doutent de la valeur de l’étude mathématique qui apporte une explication sur l’émission d’ondes électromagnétiques par l’ADN bactérien, d’autres remettent aussi en cause les résultats obtenus en 2009 par Luc Montagnier. Des travaux plus poussés seront donc nécessaires afin de convaincre la communauté scientifique de la mémoire de l’eau et de l’émission d’ondes électromagnétiques par l’ADN bactérien. Luc Montagnier, lui, s’exclame à la fin d’une conférence en 2007 : « Absence of evidence is not evidence of absence, Carl Sagan ».

Sources : http://www.bulletins-electroniques.com/actualites/66692.htm

 

Déjà publié :

Vers une nouvelle génération de pompes à chaleur

Alors que la plupart des pompes à chaleur actuelles ont une durée de vie très limitée, entre une dizaine et une vingtaine d’années, des chercheurs de l’Université norvégienne de Stavanger (USN) et de l’Université d’Oslo ont uni leurs forces dans le développement d’une toute nouvelle pompe à chaleur, dont la durée de vie dépasserait toute espérance, à savoir près de 10 000 ans. De là à dire qu’elles durerait pour l’éternité, et que l’éternité ne dure (que) 10 000 ans, il n’y a qu’un pas.

Cette nouvelle pompe serait composée de très nombreuses pompes à chaleur miniatures, grandes d’un millimètre cube, pouvant être arrangées en réseau, ce qui offrirait une très grande modularité, permettant de créer des éléments longs et fins ou petits et larges. On voit assez facilement les avantages de cette flexibilité, notamment sa grande adaptabilité à tout type de surface ou de volume d’un bâtiment.

Cette nouvelle pompe n’est pas seulement flexible en pratique, lorsqu’elle permet virtuellement son installation absolument n’importe où, mais elle est aussi partie prenante d’une approche environnementale intéressante, comprenant un système thermoélectrique qui rend l’emploi du très toxique gaz fréon inutile.

Cette pompe peut s’enorgueillir d’une durée de vie très supérieure aux pompes actuelles, réduisant d’autant les frais de maintenance ou de remplacement, à long terme. Les pompes à chaleur existantes se détériorent et entament leur déclin dès les cinq premières années d’utilisation, réclamant de fréquentes inspections jusqu’à ce qu’elles deviennent hors service. Cette pompe pourrait être disponible sur le marché d’ici cinq à dix ans.

Par Rahman Moonzur

 

DÉJA PARU :

Pompes à chaleur et photovoltaïque pour le projet nZeB

La géothermie, écotechnologie d’avenir ?

Durcissement de la Directive sur la performance énergétique des bâtiments

Pompes à chaleur domestique, modérons noter enthousiasme

Le calcul hétérogène dope le développement des systèmes de test

Les systèmes de test automatisé ont toujours intégré plusieurs types d’instruments, chacun d’entre eux étant le mieux adapté à différentes tâches de mesure. Par exemple, un oscilloscope  peut effectuer une mesure de tension continue, mais un multimètre numérique le fait avec une meilleure précision et une meilleure résolution. C’est cette association de différents instruments qui permet aux tests d’être réalisés de la manière la plus efficace et rentable qui soit.

Selon l’étude annuelle « Perspectives du test automatique » que National Instruments vient de publier, cette même tendance influence dorénavant la façon dont les ingénieurs implémentent le traitement dans les systèmes de test. Des applications telles que la surveillance de spectre RF, par exemple, nécessitent un traitement et une analyse de signaux personnalisés et en ligne. Ce qui est impossible à réaliser avec un processeur de PC standard. De plus, les systèmes de test génèrent une quantité de données sans précédent qui ne peut plus être analysée avec une seule unité de traitement. Pour répondre à ces besoins, les ingénieurs doivent se tourner vers des architectures de calcul hétérogène afin de distribuer le traitement et l’analyse.

Les 4 nœuds de calcul les plus utilisés

Une architecture de calcul hétérogène est un système qui distribue les données, le traitement et l’exécution des programmes entre les différents nœuds de calcul qui sont les mieux adaptés aux tâches spécifiques. Par exemple, un système de test RF, qui utilise le calcul hétérogène, peut avoir un processeur contrôlant l’exécution des programmes avec un FPGA qui effectue la démodulation en ligne et une unité de traitement graphique assurant la reconnaissance de formes avant de stocker tous les résultats sur un serveur distant. Les ingénieurs de test doivent déterminer la meilleure manière d’utiliser ces nœuds de calcul et de concevoir l’architecture des systèmes pour optimiser le traitement et le transfert des données. Les nœuds de calcul suivants sont les plus fréquemment utilisés dans les systèmes de test :

  • l’unité centrale de traitement (CPU) : c’est un processeur d’usage général avec une mémoire cache et un jeu d’instructions, ainsi qu’un accès direct à la mémoire. Séquentielle dans son exécution, cette unité convient tout particulièrement à la programmation de l’exécution et peut être adaptée à presque toutes les activités de traitement. Les avancées effectuées au cours de ces dix dernières années se sont concrétisées par plusieurs cœurs de traitement sur une même puce, la plupart des processeurs intégrant deux ou quatre cœurs et bien plus dans les années à venir. Ces systèmes multi-cœurs permettent le traitement des opérations en parallèle, mais nécessitent que le programmeur implémente une application « multithread » en gardant un œil sur le parallélisme afin de tirer pleinement parti des capacités de ces systèmes ;
  • l’unité de traitement graphique (GPU) : il s’agit d’un processeur spécialisé, initialement développé pour le rendu de l’infographie 2D et 3D. La GPU a connu des avancées prodigieuses en raison de la forte demande de graphiques plus réalistes dans les jeux vidéo sur ordinateur. Ses performances sont le résultat de la mise en œuvre d’une architecture hautement parallèle de centaines ou de milliers de cœurs, particulièrement adaptés aux transformées de vecteurs. Les ingénieurs tentent d’adapter ces cœurs spécialisés au traitement d’usage général. Des gains de performances ont d’ores et déjà été constatés en utilisant des GPU dans le domaine du traitement d’images et de la surveillance de spectre ;
  • les FPGA (Field-Programmable Gate Arrays) : contrairement aux CPU et aux GPU, ils n’ont pas de jeux d’instructions, ni de capacités de traitement définis. Ce sont, en revanche, des circuits de portes logiques reprogrammables qui permettent aux utilisateurs de construire des processeurs personnalisés afin de répondre précisément à leurs besoins. Ils garantissent également une vitesse d’exécution cadencée par matériel assurant un niveau élevé de déterminisme et de fiabilité, caractéristique particulièrement adaptée au contrôle de systèmes et au traitement de signaux en ligne. Le revers de la médaille de cette performance reconnue est l’augmentation de la complexité de programmation, conjuguée à l’impossibilité de modifier les fonctionnalités de traitement au milieu de l’exécution du programme ;
  • le Cloud computing : ce n’est pas un type de processeur spécifique mais un ensemble de ressources dédiées au calcul accessibles via Internet. La force du Cloud computing est qu’il dispense les utilisateurs de l’achat, du maintien et de la mise à jour de leurs propres ressources dédiées au calcul. À la place, ils peuvent se contenter de louer juste le temps et l’espace de stockage nécessaires à leurs applications. Ce phénomène a rapidement pris de l’ampleur et HP prévoit que 76 % des activités se poursuivront sous une forme ou une autre de Cloud computing dans les deux années à venir. Toutefois, bien que donnant accès à certains des ordinateurs les plus puissants au monde, le Cloud computing présente l’inconvénient d’une latence très élevée. Les données doivent être transférées via Internet, ce qui rend son utilisation difficile, voire impossible dans les systèmes de test qui requièrent des capacités de traitement déterministe. Quoi qu’il en soit, le Cloud computing se prête parfaitement à l’analyse hors ligne et au stockage de données.

Des outils pour s’abstraire des complexités des nœuds de calcul spécifiques

Le calcul hétérogène fournit de nouvelles architectures puissantes, mais il introduit également davantage de complexités dans le développement des systèmes de test, la principale étant la nécessité d’apprendre un paradigme de programmation différent pour chaque type de nœud de calcul. Par exemple, pour utiliser pleinement une unité de traitement graphique, les utilisateurs doivent modifier leurs algorithmes afin de paralléliser massivement leurs données et de traduire les mathématiques de l’algorithme en fonctions avec rendu graphique. Avec les FPGA, l’utilisateur doit souvent connaître des langages de description de matériel, comme le VHDL, pour configurer des capacités de traitement spécifiques.

Des ingénieurs de l’industrie mettent au point un moyen de s’abstraire des complexités des nœuds de calcul spécifiques. Dans le cas des unités de traitement graphique, ils sont en train de développer le langage OpenCL (Open Computing Language). Il s’agit d’ une interface de programmation conçue dans le but de supporter non seulement les produits de différents fournisseurs de GPU, mais aussi des processeurs parallèles supplémentaires comme des CPU multi-cœurs.

Des travaux ont également été engagés afin de simplifier la configuration des FPGA. La « synthèse de haut niveau » est un nouveau processus adopté par certains fournisseurs afin d’utiliser des langages de haut niveau basés sur des algorithmes dans la programmation FPGA. Des outils comme le module NI LabView FPGA poussent encore plus loin l’abstraction des complexités en permettant la conversion directe de code graphique en circuiterie logique numérique.

Le PCI Express, principal bus de données pour les réseaux peer-to-peer

La programmation des nœuds de calcul n’est pas l’unique difficulté d’un système de calcul hétérogène. Disposer de davantage de ressources de calcul n’a pas grand intérêt si les données ne peuvent pas être transférées et traitées rapidement. En raison de ses caractéristiques point par point, de sa vitesse de transfert élevée et de sa faible latence, le PCI Express s’est imposé comme le principal bus de données pour ces réseaux peer-to-peer dans les systèmes de test. Responsable du standard PXI, le groupe PXI Systems Alliance au sein duquel National Instruments joue un rôle prépondérant, a récemment rédigé un nouveau document intitulé PXI MultiComputing Specification afin de garantir des capacités PCI Express peer-to-peer et de calcul hétérogène entre plusieurs fournisseurs.

 

Déja paru :

Vers des systèmes de test entièrement définis par logiciel

DIAPORAMA : le Phantom Ray, nouveau drone de combat de Boeing

Le dernier drone de combat de Boeing, baptisé « Pantom Ray » a été dévoilé le 10 mai lors d’une cérémonie à Saint-Louis, dans le Missouri.

Avec ses ailes d’une envergure de plus de 15 mètres, le drone furtif est destiné à des missions de surveillance et de reconnaissance, d’attaque au sol, ainsi que des missions de guerre électronique. Il mesure 11 mètres de long et pèse 16,5 tonnes environ. Il pourra voler à une altitude de plus de 12 kilomètres et à près de 1 000 km/h, soit 0,8 mach (un peu moins que la vitesse du son).

Le Phantom Ray a été développé en seulement 2 ans à partir d’un prototype qui avait déjà été créé pour l’armée américaine. Il effectuera ses premiers roulages au sol l’été prochain et ses premiers vols d’ici la fin de l’année, en décembre normalement.

 

 

Le Phantom Ray a effectué son vol inaugural le 27 avril dernier, depuis le centre de recherche de Dryden appartenant à la NASA, sur la base aérienne d’Edwards en Californie. Le vol a duré 17 minutes et a confirmé la capacité de Boeing à mettre au point rapidement un prototype volant avancé d’avion sans pilote.

 

 

C.H.

Parlez, vous êtes identifié !

Face à la sophistication croissante des techniques de piratage des systèmes d’informations et sites Web visant à subtiliser des données, l’European Network and Information Security Agency[1] invite les consommateurs à davantage de prudence et de précautions pour éviter les fraudes et la perte de données personnelles ou confidentielles. De même que les fraudes préoccupent de plus en plus d’entreprises. Selon la dernière enquête du Ponemon Institute, les entreprises françaises ont subi des pertes financières moyennes estimées à 1,9 millions d’euros en 2010. Autre conséquence et non des moindres, la perte de la confiance des clients qui, pour la plupart, rompent leurs contrats avec l’entreprise touchée par une faille de sécurité. L’entreprise victime d’une fuite d’informations confidentielles voit ainsi son image se dégrader très rapidement, comme les cas Renault et Sony ont largement pu le démontrer.

Le débat sur la responsabilité finale de la fraude continue de faire rage. D’aucuns diront qu’il incombe aux entreprises de mettre en place des mécanismes de protection plus stricts pour leurs clients. Or, les entreprises se sentent dépassées par l’ampleur de la tâche, sans compter que la crise économique a considérablement restreint leur budget et leur marge de manœuvre. Cependant, en période d’instabilité économique, il est essentiel d’inspirer confiance aux consommateurs. Et cela passe par des mesures de sécurité efficaces pour les protéger contre la fraude et l’usurpation d’identité.

Investir dans un système d’authentification vocale pour combattre la fraude 

L’authentification vocale, qui vérifie l’identité des interlocuteurs à partir de leur empreinte vocale, unique à chaque individu, séduit en effet, chaque jour, de nouvelles entreprises soucieuses de sécuriser leurs transactions.

Pour identifier les locuteurs, ces technologies analysent des échantillons de voix et mesurent la longueur et la forme du tractus vocal, ainsi que la tonalité et le débit de parole. Ces caractéristiques forment ce que l’on appelle l’empreinte vocale. La première fois qu’un client s’identifie auprès d’un système, un échantillon de sa voix est enregistré, puis l’empreinte vocale est extraite et stockée pour être réutilisée. Lorsqu’il rappelle l’entreprise, un second échantillon de voix est collecté, puis comparé à la première empreinte vocale stockée. Cette comparaison génère un indicateur de confiance basé sur le degré de correspondance de l’échantillon vocal avec l’empreinte stockée. Cette comparaison détermine si le locuteur peut ou non accéder au système. Ces technologies de pointe, extrêmement précises, sont en outre capables de s’adapter aux variations de la voix résultant, par exemple, d’un rhume ou du vieillissement.

Scott Wickware

Scott Wickware dirige la division Enterprise de Nuance Communications pour la zone Europe du Nord (Royaume-Uni, l’Irlande, la France, le Bénélux et les pays nordiques). Fort d’une expérience de 17 ans dans le secteur des réseaux, il a occupé diverses fonctions techniques, de gestion et de management.
Il était précédemment Vice-Président et Directeur Général, WiMax, et responsable de tous les aspects de la division WiMax de Nortel comprenant la stratégie, la propriété de P&L et le développement de produit.
Scott est un citoyen canadien et français. Il a habité et a travaillé au Canada, en France, au Singapour et en Australie. Il est diplômé en électrotechnique et histoire de l’université de la Reine au Canada, et du programme avancé de gestion (AMP) d’INSEAD France ainsi que du programme de commercialisation exécutif à l’école de commerce de Kellogg, Northwestern University, Evansville, Etats-Unis.

Une empreinte vocale étant pour ainsi dire impossible à usurper, ces solutions offrent sans conteste une bien meilleure protection que les cartes de crédit et codes PIN. Il s’agit également de la seule caractéristique biométrique à pouvoir être vérifiée à distance, ce qui rend l’authentification vocale particulièrement pratique. Sans compter que ce mécanisme identifie les individus plus rapidement que les méthodes traditionnelles tout en améliorant la satisfaction des clients. Qui plus est, il s’avère moins contraignant pour les clients, dispensés de répondre aux interminables questions des agents des centres d’appels.

En s’armant d’un système d’authentification vocale pour combattre la fraude, les entreprises peuvent réaliser des économies tout en rendant leurs procédures d’identification et de vérification plus conviviales pour leurs clients. Ces économies expliquent d’ailleurs en grande partie l’essor actuel des technologies de biométrie vocale. Selon Opus Research, plus de 6,5 millions d’empreintes vocales ont été enregistrées dans le monde, rapprochant ce marché de ses objectifs financiers, estimés à plus de 260 millions de dollars US.

Ses applications sont déjà nombreuses, allant de la réinitialisation sécurisée de mots de passe de salariés d’entreprises au contrôle des individus placés en résidence surveillée. La biométrie vocale est également exploitée dans le cadre de transactions bancaires et de négociations de titres. La mise en place de tels processus d’identification de haute précision permet aux entreprises d’offrir à leurs clients de nouveaux services automatisés, auparavant réservés aux centres d’appels. 

A la fois simple et pratique, la biométrie vocale relève le défi de sécuriser les entreprises et clients de manière rapide et conviviale. Quand d’autres méthodes de sécurité compliquent l’accès des utilisateurs à leur compte, elle affranchit les entreprises de ces barrières sans rien perdre en efficacité. L’authentification vocale est à coup sûr en passe de se démocratiser. Le « jeton vocal » pourrait bientôt remplacer les habituels mots de passe et codes PIN.

Par Scott Wickware, Vice-Président et Directeur Général de Nuance Communications pour l’Europe du Nord / Le Journal du Net

 

 

Notes : [1] L’ENISA ou Agence européenne chargée de la sécurité des réseaux et de l’information intervient en tant qu’expert en matière de sécurité des réseaux et de l’information auprès des autorités nationales et des institutions européennes.

Déjà paru :

Un nouveau procédé de désalinisation utilise les nanotubes de carbone

La désalinisation de l’eau de mer est un enjeu majeur pour nombre de pays subissant une pression sur les ressources en eau douce. Jusqu’ici, la méthode la plus basique et très énergivore, l’évaporation, permettait d’obtenir une eau séparée de ses sels, mais presque totalement déminéralisée et dont le goût laissait vraiment à désirer. Une autre méthode, l’électrolyse, peu gourmande en énergie, ne permet de traiter que de petites quantités d’eau tout en produisant des déchets polluants d’eau de Javel.

La distillation sur membrane, mise au point dans les années 80, est un procédé de séparation utilisant une membrane étanche aux liquides, mais perméable aux gaz. Le liquide, sous les effets conjugués d’une pression relativement basse et soumis à une température allant de 60 à 90°, se vaporise en partie et traverse donc la membrane, laissant « enfermé » le reste du liquide, bloqué par l’étanchéité.

Cette méthode offre de nombreux avantages : elle est propre, non-toxique, et assez peu gourmande en énergie, les températures nécessaires étant moins élevées que celles utilisées par les autres procédés. Elle reste assez chère, c’est donc pour cela qu’il fallait s’assurer de son efficacité et de sa pérennité. Et c’est là qu’intervient la membrane intégrant les nanotubes de carbone à sa structure, développée par le professeur Somenath Mitra, du New Jersey Institute of Technology. Ces matériaux, ultra résistants, d’une conductivité électrique et thermique remarquablement élevées, « ont amélioré d’une manière très significative la perméabilité de la vapeur, tout en renforçant son imperméabilité aux liquides », souligne-t-il. Cette structure couplée à ce matériau laisse donc augurer de bons résultats dans le domaine crucial de la désalinisation.

Par Rahman Moonzur

 

DÉJA PARU :

Statfraft va inaugurer la première centrale osmotique du monde à Tofte en Norvège

Première mondiale pour un électrolyseur PEM

Vers une production massive et propre d’hydrogène

Vers la production de nanotubes de silice de diamètre spécifique

Dans le domaine des nanotechnologies, il est important de contrôler la taille des nano-objets, puisque cette taille module les propriétés physiques de ces matériaux. Cependant, les tentatives de contrôle de la taille des architectures par modification de la brique unitaire, rapportées dans la littérature, ont souvent échoué.

Adoptant une approche biomimétique, des chercheurs du CEA-iBiTec-S, du CNRS et du laboratoire pharmaceutique Ipsen se sont intéressés à une petite molécule, le Lanréotide, un octapeptide cyclique (peptide composé de huits acides aminés liés successivement et formant un anneau). Cet analogue d’une hormone naturelle, la Somatostatine, est classiquement utilisé comme médicament. Ce peptide possède la propriété de s’assembler dans l’eau en dimères (molécules composées de deux sous-unités), qui s’associent à leur tour pour former des nanotubes de diamètre défini. Ce type de structures auto-assemblées constitue une approche intéressante pour la synthèse de nanomatériaux car dans ces systèmes, la forme et la taille sont principalement conditionnées par la structure des briques de base.

Les chercheurs ont alors supposé que les acides aminés assurant les contacts entre peptides régissaient le rayon de courbure des nanotubes. Ils ont conçu un modèle géométrique qui explique dans quelle mesure une modification de quelques angströms sur la structure de base du peptide influe sur la taille du nanotube. Ce modèle leur permet de rationaliser, voire de prédire, les diamètres des nanotubes ainsi générés. La vérification expérimentale de ce modèle a été faite grâce à la synthèse d’analogues du Lanréotide. Toute la stratégie de cette étude a reposé sur la modification d’un acide aminé impliqué dans un contact entre peptides et sur la démonstration que ce changement entraîne une variation du diamètre des nanotubes de manière contrôlée.

Une gamme de nanotubes de 10 à 36 nm de diamètre

Les chercheurs ont donc synthétisé des analogues du Lanréotide en substituant de manière ciblée un acide aminé par un autre. Ces peptides conservent des propriétés d’assemblage similaires à celles du Lanréotide et forment des nanotubes. La caractérisation de ces architectures, faite par microscopie électronique et diffusion de rayons X au synchrotron Soleil, démontre que le diamètre de ces nanotubes est effectivement corrélé à la taille de l’acide aminé introduit et qu’un peptide donné forme spontanément des nanotubes d’un seul diamètre. Une gamme de dix-sept nanotubes allant de 10 à 36 nm de diamètre a ainsi été obtenue en fonction de l’acide aminé incorporé.

L’utilisation en nanotechnologie de ces systèmes auto-assemblés biomimétiques s’appuie sur la possibilité de les utiliser comme moules. En effet, on trouve dans la nature de nombreux exemples dans lesquels des gabarits organiques sont utilisés pour contrôler la croissance de phases inorganiques (os, dent, carapaces, diatomées …). Ainsi, en utilisant ces nanotubes de peptides comme des moules, les chercheurs ont montré qu’il est possible de maîtriser la production de nanotubes de silice de diamètre spécifique, ce qui ouvre la voie à un large panel d’applications en nanotechnologies, comme par exemple les fibres optiques ou la nano-filtration.

 

Déja paru :

 

 

REACH : les news du mois de MAI (1/2)

Séminaires web sur la notification des substances dans les articles

04/05/2011
L’ECHA organise, le 19 mai prochain, un séminaire web sur la notification des substances dans les articles.
Renseignement sur :
http://www.echa.europa.eu/news/na/201105/na_11_20_webinar_on_notification_of_susbtances_in_articles_en.asp

Produits chimiques : les contrôles de conformité réglementaire continuent

05/05/2011
Une circulaire interministérielle a été adressée fin mars aux différents services chargés notamment du contrôle du respect des règlements REACH et CLP. La coordination des actions entre les différentes administrations sera poursuivie. Les contrôles concernent les règlementations REACH, CLP et biocides, les fiches de données de sécurité …
Retrouvez le détail sur :
http://www.actu-environnement.com/ae/news/produits-chimiques-REACH-CLP-biocides-12509.php4#xtor=ES-6

REACH : les composés du cadmium non prioritaires

Il n’est pas pertinent à court terme de soumettre les composés du cadmium identifiés par l’Anses à la procédure d’autorisation au titre du règlement REACH. Tel est l’avis rendu le 18 avril dernier par la Commission des produits chimiques et biocides. Les produits concernés étaient le sulfure de cadmium, l’oxyde de cadmium en poudre et le cadmium métal. La Commission a rendu cet avis après avoir pris connaissance des éléments complémentaires apportés par l’Association internationale du cadmium (ICdA). Elle a également pris en compte les restrictions existantes au titre d’autres réglementations, en particulier la directive 2006/66 relative aux piles et accumulateurs, portant sur de nombreuses applications du cadmium et de ses composés.
Plus d’information sur : http://www.actu-environnement.com/ae/news/reach-cadmium-PBT-ICdA-12486.php4#xtor=EPR-1

L’ECHA va publier plus d’informations sur les substances chimiques

11/05/2011
Certaines informations des dossiers d’enregistrement, contenue également dans la fiche de données de sécurité, y compris le nom des personnes inscrites, vont être publiées dans la section ECHA web diffusion. Les entreprises seront en mesure de garder cette information confidentielle, à condition qu’une justification valable soit donnée et acceptée par l’ECHA.
http://echa.europa.eu/news/pr/201105/pr_11_09_ECHA_to_publish_more_info_on_chemicals_en.as

Dossiers d’enregistrement des produits intermédiaires non conformes à REACH

11/05/2011
Après examen de plus de 400 dossiers de substances enregistrées en tant qu’intermédiaires, l’ECHA a découvert que la majorité d’entre eux ne satisfont pas aux conditions imposées par REACH. L’ECHA encourage les enregistrants d’intermédiaires à mettre à jour leurs dossiers d’enregistrement.
http://echa.europa.eu/news/na/201105/na_11_21_intermidiates_en.asp

Nouvelles offres d’emploi à l’ECHA

L’ECHA a publié en mai 3 nouvelles offres d’emploi. Pour consulter les offres et postuler :
http://echa.europa.eu/opportunities/positions_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

 

Les dernières NEWS REACH :

  • Actualités de 15 au 30 avril 2011
  • Actualités du 01 au 15 avril 2011
  • Actualités du 15 au 31 mars 2011
  • Actualités du 01 au 15 mars 2011
  • Actualités du 15 au 28 février 2011
  • Actualités du 4 au 15 février 2011
  • Actualités du 1 au 3 février 2011
  • Actualités du 15 au 31 janvier 2011
  • Actualités du 1 au 15 janvier 2011
  • Actualités du 15 au 31 décembre 2010
  • Actualités du 1 au 15 décembre 2010
  • Actualités du 15 au 30 novembre 2010
  • Actualités du 1 au 15 novembre 2010
  • Actualités du 15 au 30 octobre 2010
  • Actualités du 1 au 15 octobre 2010
  • Actualités du 15 au 30 septembre 2010

Et aussi :

La carte bleue, bientôt complètement obsolète

Les téléphones portables sont de plus en plus vus comme le potentiel futur de la carte bleue, grâce à une méthode de communication sans fil, la communication en champ proche.

Le téléphone portable n’en a pas fini d’avaler petit à petit des pans entiers de technologie. Après avoir intégré un appareil photo, une caméra, un lecteur MP3, pour enfin s’être transformé en terminal complet pour naviguer sur internet, c’est maintenant à la carte de crédit qu’il s’attaque, sans laisser guère de chance à celle-ci.

Qualcomm, une entreprise américaine déjà connue pour avoir mis au point la technique CDMA (Code Division Multiple Access, « Accès Multiple par Répartition en Code » en français, permettant plusieurs liaisons numériques sur la même fréquence porteuse grâce à la technique de l’étalement de spectre, utilisée par les opérateurs de téléphonie mobile dans le monde entier), est sur le point de finaliser le développement de puces compatibles avec le processeur de plusieurs smartphones, utilisant la technologie de la communication en champ proche (NFC pour Near Field Communication), une extension de l’utilisation de la RFID, permettant la communication sans fil à courte portée et haute fréquence entre le téléphone muni de la puce, et un lecteur NFC.

Il suffira alors d’approcher le téléphone du lecteur NFC du module de paiement pour que la communication s’établisse et que la transaction soit réalisée. L’intérêt du NFC par rapport au Bluetooth ou aux RFID standards est sa très courte portée, quelques centimètres seulement, impliquant une démarche volontaire de l’utilisateur, sécurisant un peu plus le dispositif, qui utilise déjà la carte SIM comme élément d’identification et de sécurité. Les smartphones munis d’Android de Google et les iPhones seront les premiers pourvus, courant 2011.

Par Rahman Moonzur

 

Déjà paru :

Des robots et logiciels pour des missions extraterrestres

Explorer la lune et le système solaire de manière précise sans envoyer d’humains, soit par télé-opérations à partir de la Terre, est presque impossible aujourd’hui. L’utilisation d’équipes de robots est alors une solution : un logiciel intelligent intégrant des robots adaptés aiderait à explorer d’autres planètes de manière quasi-indépendante. En Allemagne, des scientifiques du Département des systèmes distribués à l’Université de Kassel (Hesse), en collaboration avec des chercheurs du Centre de recherche allemand sur l’intelligence artificielle (DFKI), sont en train de travailler sur un tel système de développement logiciel et de planification stratégique automatisée, au sein du Centre d’innovation robotique à Brême.

Dans ce projet nommé « Impera », les équipes des professeurs Kurt Geihs de Kassel et du Frank Kirchner de Brême travaillent autour de l’impératif de programmation stratégique des missions et de la planification des tâches. Impera est financé par le Centre aérospatial allemand (DLR) à hauteur d’1,5 millions d’euros et s’étendra sur une durée de trois ans. L’objectif est de coordonner la planification des actions de robots par des algorithmes et de les laisser agir de manière autonome comme une équipe. Afin de collecter des échantillons de minéraux sur des planètes éloignées, la construction d’une infrastructure d’approvisionnement énergétique et d’une station de base pour la communication avec la Terre, permettrait aux robots de se compléter, se relayer et de communiquer avec les équipes au sol.

Par exemple, un robot pourrait être équipé d’une voile photovoltaïque, lui permettant de se déplacer (par la pression produite par les photons qui viennent la percuter), et de recharger ses coéquipiers à l’énergie solaire pendant leurs déplacements. En effet, les chercheurs précisent que des systèmes avec des ressources limitées en énergie, en temps et en distance d’autonomie ne pourraient survivre. Ainsi dans les simulations, les chercheurs tentent de programmer et d’examiner des stratégies comportementales pour les robots. Dans une deuxième étape, le logiciel est testé sur des robots existants, d’abord sur Terre.

Impera est parrainé par le DLR, en association avec des fonds du ministère fédéral de l’Économie et de la Technologie (BMWi), et fondé sur une décision du Bundestag allemand.

Sources : http://www.bulletins-electroniques.com/actualites/66646.htm

 

Déja paru :

Qualité et performance : Les nouvelles pratiques du management

Pour les entreprises de service, les référentiels, méthodes et outils présents sur le marché sont issus, pour une grande majorité d’entre eux, de la révolution industrielle. Inventés à la fin du XIXéme siècle, ils sont souvent mal adaptés et doivent, en tout cas, être expliqués et mis en œuvre de façon spécifique. De plus, les différents métiers présents au sein de ces structures nécessitent des référentiels (normes, modèles…), des méthodes et des outils spécifiques pour chacun d’entre eux. Cela va nécessiter l’établissement d’un cadre de cohérence de façon à apporter une logique d’ensemble. La question qui se pose alors à tout responsable corporate est la suivante : quels référentiels, méthodes et outils conseiller aux différents métiers de son groupe et comment les coordonner entre eux s’ils sont différents ?

Rédigé par Jacques Ségot, Julie Raymond et  Lise Favier, l’ouvrage « Management de la qualité et de la performance – Construire un cadre de référence pour de nouvelles pratiques de management » propose une sélection de vingt-cinq référentiels (ISO 9001, ISO 14001, ISO 31000, ISO 26000, EFQM, Investors in People, normes de service…), méthodes et outils (diagrammes des affinités, de Pareto, matriciels, en arbre, de Gantt ou en arête de poisson, 5S, QQOQCP, tableaux de bord, Lean, Six Sigma…) qui sont aujourd’hui au cœur des pratiques managériales. Pour chacun d’entre eux, les auteurs ont choisi de sélectionner et de publier des avis d’experts et de personnalités reconnus pour leurs compétences particulières à utiliser ces référentiels, ces outils et ces méthodes d’optimisation des performances  des organisations. Il s’agit ainsi de les faire découvrir ou redécouvrir au lecteur,  à travers le regard expérimenté, technique mais aussi parfois critique de ceux qui, tous les jours, ont pour mission de les mettre en œuvre et de les faire vivre dans  des entreprises et des organisations très variées, tant en France qu’à l’étranger.

Etablir un juste équilibre entre clients, personnels, actionnaires et fournisseurs

Les trois auteurs sont très orientés sociétés de service. Lead Auditor QMS à l’IRCA et assesseur international pour l’EFQM, Jacques Ségot poursuit une importante activité d’enseignement et d’animation au service de la promotion de la qualité tant au sein d’AFNOR où il est président du Comité stratégique Management et Service, qu’à La Poste, au sein de la direction de la Qualité du Groupe. Pour sa part, Julie Raymond, diplômée d’un master en Management et qualité, auditrice qualité IRCA et assesseur EFQM, est responsable Qualité au siège social du groupe La Poste. Quant à Lise Favier, elle est diplômée de l’université de technologie de Compiègne en Management de la qualité et travaille sur l’optimisation des démarches qualité, notamment dans la mise en place de certifications de service.

Il est toutefois évident que les réponses apportées par cet ouvrage, complété par une petite histoire de la qualité et une description de ses acteurs en France (normalisateurs et certificateurs), sont transposables à toutes les entreprises. Celles-ci doivent, chaque jour, établir un équilibre entre toutes ses parties prenantes que sont leurs clients, bien évidemment, mais également leur personnel, leurs actionnaires et leurs fournisseurs… en respectant, voire en dépassant, les contraintes issues de leur environnement. 

 

Déja paru :

Le Green IT, un nouvel eldorado pour les informaticiens ?

À l’heure du développement durable, le sujet de l’impact environnemental des infrastructures informatiques, mais aussi de toute technologie (SFR, par exemple, mesure la performance environnementale des téléphones !), est devenu une des préoccupations phares d’aujourd’hui. L’engagement de sociétés comme Google ou Microsoft construisant des datacenters écologiques en est une illustration. Qu’en est-il des opportunités d’emploi sur ce marché ?

La maîtrise des énergies passe par la technologie et l’informatique y joue un rôle important, en particulier dans tous les systèmes de régulation. De nombreuses startup commencent à voir le jour au point que dans la Silicon Valley, les investissements dans les cleantech ont progressé de manière spectaculaire, jusqu’à être la priorité de nombreux capitaux risqueurs.

L’Europe, et la France en particulier, sont en retard sur ces sujets, même si on commence à croiser de plus en plus de projets dans ces domaines. Il est difficile aujourd’hui d’avoir une idée claire de l’emploi dans ces secteurs. Il est en effet très varié, allant de sociétés hypertechnologiques autour du silicium jusqu’à des sociétés de services grand public qui vous aident à optimiser le bilan énergétique de votre habitat. On peut néanmoins affirmer que les besoins et les offres destinées aux informaticiens ne feront que croître.

L’autre voie de recrutement dans le Green IT est tout simplement d’ajouter une corde à son arc. Un responsable de production, un chargé de sécurité du système d’information, un consultant en infrastructure informatique doivent de plus en plus intégrer la composante bilan carbone de leurs installations, le recyclage ainsi que les risques environnementaux. Les offres d’emploi intègrent d’ailleurs de plus en plus cette composante dans « expérience recherchée ». Les métiers proposés ne changeront pas forcement de manière radicale mais vous avez intérêt à y vous intéresser et à vous donner une expertise supplémentaire.

Par Jacques Froissant, fondateur et directeur d’Ataïde / 01net

 

Rejoignez le Groupe Environnement sur Réseau & Emploi de Techniques de l’Ingénieur

 

Jacques Froissant

Jacques Froissant est un expert reconnu du recrutement 2.0. En 2000, il a fondé Altaïde, société de conseil en recrutement et en gestion des ressources humaines dédiée à l’environnement des startup et à Internet en général. Blogueur sur Altaïde, il est aussi cofondateur de Moovement.fr, un moteur de recherche d’offres d’emploi.

Des postes de travail virtualisés adaptés au milieu scolaire

« Alors qu’aujourd’hui l’usage des nouvelles technologies est entré dans les mœurs, nous devions multiplier le nombre de postes de travail dans les établissements. Mais je sais à quel point il est difficile et coûteux d’entretenir un parc de PC traditionnels en milieu scolaire. C’est pourquoi j’ai recherché une solution qui nous permette de fournir un outil de travail dont on soit sûrs qu’il fonctionne et qui puisse être maintenu de façon professionnelle », explique Michel Massol, Chef du service Accompagnement éducatif à la direction de l’Education du Conseil Régional et chargé, à ce titre, de l’équipement informatique des lycées.

A cet argument, Michel Massol en ajoute un autre sous la forme d’une question : « Est-il nécessaire d’avoir entre les mains un ordinateur puissant pour surfer sur le Web ? ». En effet, les usages proposés aux élèves portent principalement sur des applications multimédia, les recherches sur Internet et la bureautique standard, qui sont peu consommatrices de puissance informatique. Le plan d’équipement en PC qui avait été mis en place en 2005 dans les lycées de Languedoc-Roussillon, devait être adapté : certains PC étaient surdimensionnés par rapport à l’emploi qui en était fait.

Un véritable service à la demande

D’où l’idée de diversifier la composition du parc informatique en fonction des utilisations réelles comme le détaille Michel Massol : « Nous avons décidé de réserver les PC aux cours qui utilisent des logiciels graphiques 3D puissants comme AutoCad ou Inventor ou des logiciels disciplinaires particuliers et d’installer dans les CDI, qui sont des lieux ouverts à tous, les internats et les salles de classe, des postes de type « clients légers ». De plus, les terminaux passifs, du fait de leur fonctionnement, sont moins exposés au vol ou aux dégradations. Nous pouvons donc les laisser en libre service sans protection particulière. »

L’appel d’offre lancé par la Région a débouché sur le choix de la solution de virtualisation Citrix XenDesktop 4 de Citrix Systems, solution VDI de virtualisation des postes de travail, qui consiste à délivrer aux utilisateurs des terminaux de travail sous Windows,  les ressources (système d’exploitation, applications, profil et données de l’utilisateur) étant délivrées sous la forme d’un service à la demande. Ce concept prend toute sa dimension avec l’hébergement de la solution infogérée par le Groupe RDI, partenaire Elite Partner Citrix, et la centralisation des serveurs. « Nous disposons ainsi d’un service professionnel qui permet aux lycéens de bénéficier d’un environnement de travail toujours en fonctionnement avec les meilleures performances », certifie Michel Massol. « C’est également un avantage pour l’équipe informatique qui a l’assurance de mettre à la disposition des élèves et du corps enseignant des outils qui marchent. »

Des performances constantes

Début 2011, plus de 3 200 terminaux « clients légers » étaient déployés dans les centres de documentation et d’information (CDI), les salles de classe et les internats des 87 lycées publics de la Région Languedoc-Roussillon. Après un temps d’adaptation, enseignants et élèves ont adopté ce nouvel outil qui leur offre, en permanence, performance et disponibilité. Les avantages sont concrets :

  • des temps de connexion de quelques secondes et un accès à Internet bien plus rapide qu’avec un PC traditionnel, d’un bout à l’autre de la Région ;
  • grâce aux ouvertures de sessions, une protection absolue contre toute intrusion (attaques, virus…) malgré une large utilisation des clés USB ;
  • des applications disciplinaires en ligne (mathématiques, géographie, chimie …) proposées par le Rectorat, toujours disponibles et à jour ;
  • des coûts inférieur à ceux d’une solution classique de type PC : investissement 30 % inférieur et consommation énergétique réduite (égale à 10 % de celle d’un PC) ;
  • une solution compatible avec les exigences de sécurité imposées par l’Education nationale pour protéger les élèves et les ordinateurs ;
  • la souplesse et l’évolutivité de la solution qui permet des ajouts aisés d’applications en ligne, de mises à jour instantanées…
  • la facilité de gestion du parc pour les équipes IT et les correspondants informatiques dans les lycées.

« Dès le déploiement des premiers postes de type « clients légers » sous Citrix XenDesktop, nous avons profité d’un niveau de service élevé, y compris en terme de sécurité puisque toutes les conditions imposées par le ministère de l’Education nationale en matière de protection des mineurs ont été respectées », remarque Michel Massol. « Un an après le début de l’opération, nous comptabilisons de l’ordre de 600 connexions simultanées. C’est encourageant. En fin d’année 2010, nous avons mis en place une solution d’impression pour les lycées qui le souhaitent et nous testons actuellement le fonctionnement de vidéoprojecteurs interactifs sous Citrix. Nous pourrons ainsi mettre à disposition des enseignants, dans chaque salle de classe, un poste de travail informatique relié à un vidéoprojecteur et utilisant les ressources de l’Environnement numérique de travail qui à été déployé sur l’ensemble des lycées de la Région en septembre 2010. »

A la rentrée de septembre 2011, la Région Languedoc Roussillon sera la première région à doter gratuitement tous les lycéens entrant en Seconde d’un PC portable qui sera relié à l’Environnement numérique de travail.

 

Déjà paru :

 

Optimisation des mémoires non volatiles

Les mémoires non volatiles de demain (mémoires conservant les données même sans être alimentées, comme la mémoire Flash) sont sur le point de changer la donne dans le monde de l’électronique, et des chercheurs de la prestigieuse Cornell University, dans l’État de New-York, ont découvert un nouveau moyen de mesurer et d’optimiser leurs performances.

Utilisant un oscilloscope très rapide, les chercheurs ont compris comment mesurer la force du couple de courant induit utilisé pour écrire des informations dans la mémoire, appelé « Jonction tunnel magnétique », publiant leurs résultats dans le journal « Nature Physics ». Ces jonctions tunnels magnétiques sont composées de deux électrodes ferromagnétiques et d’un isolant les séparant. La résistance est différente en fonction de leur orientation, qu’elles soient parallèles ou non, et ce sont ces deux états qui créent la mémoire non volatile.

L’utilisation des champs magnétiques pour en inverser leur état magnétique nécessaire à l’écriture de l’information, a jusqu’ici freiné cette technologie, car il faut un champ conséquent, généré par un gros courant et d’épais fils pour effectuer ce changement. Les chercheurs de la Cornell University utilisent, eux, le spin de l’électron (lié au moment angulaire), générant une information moins gourmande en électricité et dégageant beaucoup moins de chaleur.

Pour mesurer ce spin, ils ont contrôlé les oscillations de résistance de la jonction tunnel une fois après y avoir appliqué un courant alternatif, à l’aide d’un oscilloscope. Comme la résistance dépend de l’orientation relative des deux électrodes de la jonction tunnel, la mesure de ces oscillations permettra alors de mieux comprendre ces mémoires non volatiles et de mieux les structurer.

Par Moonzur Rahman

Déjà paru :

Le microrobot bisontin : Désormais double champion du monde de vitesse

Il y a un an de cela, le microrobot bisontin « MagPieR » (voir photo ci-dessous) avait fait sensation en décrochant, lors de sa première participation, le titre de champion du monde et un record du mondial de vitesse face aux microrobots des plus grandes universités du monde entier. Les chercheurs de l’équipe française, issus de l’institut FEMTO‐ST et des instituts parisiens ISIR et LPN, ont ainsi réussi l’exploit de confirmer leur suprématie dans une nouvelle épreuve encore plus ardue que l’année dernière. Alors que la précédente épreuve consistait en un sprint en ligne droite, cette année « le robot devait parcourir un chemin déterminé dans un petit labyrinthe avec des portes d’un demi-millimètre de large dans une aire de jeu de 3,5 mm x 2 mm », précise Alex Ivan, le principal inventeur de ce microrobot.

Un robot dix mille fois plus petit qu’une voiture

« The French Team », telle que surnommée à Shanghai, a ainsi objectivement écrasé la compétition en réalisant le parcours dans un temps record de 1,86 secondes contre 23 secondes pour l’université d’Hawaii, classée en deuxième position à l’issue de ce challenge.

Le plus des français : un robot complètement automatique

« Notre force, cette année, est d’avoir rapidement développé un robot complètement automatique capable de se déplacer sans intervention humaine », soulève Mohamed Kharboutly, membre de l’équipe, qui est resté à Besançon. En effet, les autres concurrents ont dû piloter le déplacement de leur robot par joystick alors que le robot français fonçait dans le labyrinthe à toute vitesse sans intervention humaine. Pas étonnant, puisque le développement de microsystèmes possédant plusieurs fonctions (multi‐physiques) est l’une des forces de l’institut FEMTO‐ST sur l’échiquier international de l’innovation et de la recherche.

Une belle victoire démontrant le niveau international des chercheurs français

La compétition entre les sept équipes a eu lieu, en ce mercredi 11 mai 2011 à Shanghai, avec un peu plus de pression que l’année dernière puisque les français étaient là pour défendre leur titre. Cette victoire montre que nos chercheurs nationaux sont en bonne place dans la course à l’innovation, source des produits de demain. Ces résultats, sur la commande à haute vitesse de microrobots, ouvrent déjà des applications dans l’assemblage rapide de composants électroniques, projet dans lequel est impliqué l’institut FEMTO‐ST, ou même à plus long terme, dans la manipulation et la production de cellules biologiques à très haute vitesse. Dès son retour à Besançon, le microrobot, double champion du monde, sera l’invité vedette de l’évènement « le Robot fait son show » qui aura lieu à l’ENSMM (École Nationale Supérieure de Mécanique et des Microtechniques) le 21 mai 2011.

 

Déjà paru :

Les limites de l’approche top-down

L’approche descendante, « top-down », implique la conception du produit dans ses grandes lignes, puis itérativement de s’intéresser à des détails de plus en plus fins. Appliquée aux domaines des technologies, cette approche est notamment utilisée dans le domaine des circuits intégrés, ou évidemment dans celui des nanotechnologies. Cette déclaration soulève une question essentielle eut égard aux milliards de dollars déversés dans le secteur des nanotechnologies chaque année, dans l’espoir que la toute dernière technologie développée en laboratoire puisse marquer la transition vers un produit manufacturable et disponible sur le marché.

Les nanotechnologies sont construites sur la possibilité de contrôler et de manipuler la matière au niveau atomique et moléculaire, et ont des applications d’une portée considérable telles que la diffusion de médicaments dans le corps humain, l’amélioration de l’efficacité des panneaux solaires et l’évolution des méthodes d’emballage de nourriture. L’introduction des nanotechnologies sur le marché a pour finalité la baisse des prix, la production à haut volume mais dans le même temps les propriétés du matériau doivent pouvoir être tout à fait reproductibles dans une limite prédéfinie, que Kelly voit autour de 3 nanomètres.

L’approche top-down liée à la fabrication en série, que Kelly pense limitée, utilise des outils extérieurs pour couper et façonner de plus gros matériaux, aux caractéristiques précises. L’approche alternative, dite ascendante, « bottom-up », implique l’assemblage de petites unités afin d’élaborer le matériau complet, comme pour un puzzle, bien que ce procédé lui paraisse trop imprévisible.

A titre d’exemple, il évoque l’évaluation statistique de nanocolonnes développées pour intégrer des capteurs, et constate que lorsqu’un matériau d’une telle taille est produit industriellement, de nombreuses variations apparaissent dans la taille des différents composants, ayant pour conséquences de trop nombreuses variations et altérations dans les propriétés.

« Si j’ai tort et qu’on me présente un contrexemple à ma théorie, de nombreux scientifiques seraient rassurés pour leurs travaux en cours, et c’est bon pour la Science », conclut-il.

Moonzur Rahman

 

Déjà paru :

Le cahier « Nanotechnologies » des Instantanés Techniques :

Guide des nanotechnologies 2011 :