Le réseau social des ingénieurs est enfin disponible !

Le nouvel espace « mon compte », inauguré récemment, ouvre l’accès à tous les utilisateurs à de nouvelles perspectives.


 

Il permet désormais :

  • De suivre en direct, sur votre fil d’actualité, tout ce qui concerne les membres de votre communauté professionnelle :
    – Identifiez vos interlocuteurs ;
    – Envoyez des demandes de contact ;
    – Suivez l’activité des membres et l’activité des groupes de discussions auxquels vous vous êtes attachés.
  • D’accéder directement avec plus d’efficacité à vos abonnements, services et logiciels.

  • Et, enfin, de profiter de toutes les fonctionnalités classiques d’un compte personnel :
    – Messagerie personnelle ;
    – Historique des téléchargements ;
    – Inscription aux newsletters et alertes ;
    – Commentaires, tags et annotation des articles ;
    – Gestion des informations personnelles.

Pour en savoir plus :

Nouveautés Techniques de l’Ingénieur 2012 from Techniques de l’Ingénieur on Vimeo.

L’heure de notre mort inscrite dans notre ADN?

Partis pour étudier les rythmes circadiens* d’un échantillon de 1.200 personnes âgées de plus de 65 ans, afin de pousser les recherches sur les maladies de Parkinson et d’Alzheimer, les chercheurs ont découvert un gène particulier appelé « Périod 1 ». Ce gène, en fonction de la version à laquelle il s’exprime, différencie le groupe d’individu auquel il se rattache et permet de déterminer la période du décès.

« Périod 1 » existe en deux versions : (A) à base adénine et (G) à base guanine. Les combinaisons possibles étant les suivantes : AA, AG et GG. Ainsi, un individu possédant les génotypes AA ou AG aurait tendance à mourir avant 11 heures alors que pour ceux présentant le génotype GG, la mort arriverait aux alentours de 18 heures.

Cette étude apporterait des améliorations dans le traitement de certaines maladies graves puisqu’à l’objectif premier d’évaluer les rythmes circadiens, s’ajoute désormais l’éventualité de déterminer un traitement de manière plus appropriée. De nouvelles perspectives, au moment de la prise du traitement, pourraient se révéler utiles au suivi des patients et jouer un rôle important concernant la prévention de cas médicaux, tels que les accidents vasculaires cérébraux ou les crises cardiaques.

*Rythme circadien : type de rythme biologique d’une durée moyenne de 24 heures. Le plus connu est le rythme veille-sommeil.

Source : http://www.maxisciences.com/adn/l-heure-de-notre-mort-est-deja-determinee-par-notre-adn_art27605.html

Par Sébastien Tribot, journaliste scientifique

Le désert de Gobi, nouvel eldorado pour l’éolien?

S’il est un endroit sur Terre où les parcs éoliens ne gênent pas le voisinage, ce sont bien les déserts. Compris entre le nord de la Chine et le sud de la Mongolie, le désert de Gobi pourrait devenir l’une des méga-fermes à électricité verte de l’Asie.

Personnellement très marqué par la catastrophe nucléaire de Fukushima et la détresse des habitants qui ont dû évacuer le secteur, le milliardaire japonais Masayoshi Son veut trouver des solutions afin que son pays produise l’électricité qui lui est nécessaire autrement qu’avec le nucléaire. Président Directeur Général et fondateur du holding japonais SoftBank Corp., numéro trois mondial des opérateurs de téléphonie mobile et opérateur exclusif de l’iPhone au Japon, Masayoshi Son s’associe à la très grande majorité de la population japonaise qui est aujourd’hui fortement opposée à cette énergie qui, sur cet archipel très sismique, fait peur.

Renouvelable, et bon marché

Pour que la transition énergétique soit acceptable et rapide, Masayoshi Son, homme d’affaires très expérimenté, a conscience qu’il convient que l’électricité verte soit compétitive et que l’installation des unités de production ne fasse pas l’objet d’oppositions locales.

Le potentiel de la géothermie est élevé au Japon (lire à ce sujet sur Techniques de l’ingénieur l’article « Japon : Vers une exploitation du potentiel géothermique de l’archipel»), mais le secteur du thermalisme, très développé au Japon, craint que l’utilisation des eaux chaudes pour la production électrique ne tarisse la ressource. Le solaire photovoltaïque offre de belles perspectives, mais à un coût à ce stade encore élevé. Etant donné l’absence de grands fleuves, le potentiel hydroélectrique japonais est limité.

Importer de l’électricité éolienne en provenance du désert de Gobi qui est, à vol d’oiseau, situé à environ 2.000 kilomètres de l’archipel japonais, s’avère l’option la plus solide. Bien plus pertinente économiquement, par exemple, que de construire des parcs éoliens offshore dans les eaux territoriales japonaises. Softbank et Newcom LLC, entreprise basée à Oulan Bator en Mongolie, viennent ainsi d’établir un partenariat afin de réaliser des études de faisabilité pour la construction de parcs éoliens au sein de ce grand désert.  C’est ce qu’a déclaré Naoki Nakayama, un porte-parole de SB Energy Corp., la division énergie de SoftBank, au  journal japonais Nikkei, le quotidien économique le plus important du monde.

Des centaines de kilomètres carrés de terrains relativement plats jouissant d’une très bonne ressource éolienne sont disponibles dans le désert de Gobi. On peut y envisager d’excellents facteurs de capacités, en moyenne environ deux fois supérieurs à ceux des parcs éoliens terrestres allemands. Il est ainsi possible d’envisager de produire un kWh éolien à un coût inférieur à 4 centimes d’euros.  

SofBank  et Newcom LLC vont examiner avant la fin de l’année un site dans le désert de Gobi qui pouvant accueillir un premier parc éolien de 300 MW. Les opérations pourraient commencer dès 2014. Le montant de l’investissement de ce parc pourrait s’élever à 626 millions de dollars (491 millions d’euros) selon le Nikkei.

Le  mercredi 7 novembre 2012, le producteur d’électricité Tepco a déclaré que le coût total de la catastrophe nucléaire de Fukushima, comprenant la décontamination et les dédommagements des victimes, pourrait atteindre les 100.000 millions d’euros. Ce qui plombe lourdement l’équation économique du nucléaire.

Objectif 7.000 MW

Trois autres sites éoliens du désert de Gobi sont dans la ligne de mire de SoftBank et Newcom LLC. Au total, ce ne sont pas moins de 7.000 MW qui sont en perspective, assez pour produire 24 TWh (milliards de kWh) par an dans l’hypothèse d’un facteur de capacité de 40%, ce qui est le cas sur les meilleurs sites. C’est équivalent à 2,4% de l’électricité consommée au Japon chaque année, grand pays industriel de 127 millions d’habitants qui engloutit deux fois plus d’électricité que la France.

A raison d’une densité éolienne de 10 MW par kilomètre-carré (hypothèse basse), la surface nécessaire est d’environ 700 kilomètres carrés, c’est-à-dire 0,05% de la surface du désert de Gobi, région semi-aride s’étendant sur 1,3 million de km2. Délimité par les montagnes de l’Altaï, la steppe de Mongolie, le plateau tibétain et la plaine du nord de la Chine, le désert de Gobi  offre un colossal gisement éolien. La Mongolie a la volonté de devenir un grand producteur d’énergie renouvelable, ce qui contribuera à son développement économique.

D’un point de vue théorique, une dizaine de projets semblables, occupant au total 0,5% de la surface du désert de Gobi, permettraient de répondre à un quart de la demande électrique japonaise.

Cap vers une “Asia Super Grid”

Transférer de l’électricité sur de très grandes distances n’est pas un problème avec la technologie HVDC (Courant Continu Haute Tension). Les pertes sont inférieures à 3% pour 1.000 km. Selon le groupe helvético-suèdois ABB, l’un des leaders du secteur qui domine la moitié du marché mondial, le coût du transport de l’électricité par câble HVDC sur 3.000 kilomètres, y compris si une partie de la ligne est sous-marine (pour relier Chine et Corée du sud en mer jaune, puis Corée du sud et Japon en mer du Japon) est inférieur à 1 centime d’euro par kWh. Le kWh éolien du désert de Gobi, transport compris, est donc très compétitif (5 centimes d’euro au total) par rapport au kWh gaz naturel que le Japon importe massivement par bateau méthanier (LNG), et au nucléaire japonais.

La montée en puissance de la Chine, de l’Inde et du Brésil a été un facteur clé pour l’émergence de l’HVDC terrestre. Tous trois ont en effet besoin de raccorder de très grands barrages hydroélectriques situés à plusieurs milliers de kilomètres des grandes villes, comme par exemple le barrage des Trois-Gorges en Chine, le plus grand du monde.

Ce nouveau marché a poussé ABB, Siemens et Areva TD (racheté par Alstom Grid) à développer des outils de très haute technologie permettant de travailler avec des tensions de 600 kV, puis de 800 kV. Les progrès sont rapides : nous sommes aujourd’hui entrés dans l’ère de l’ultra-HVDC (UHVDC), avec des tensions de plus d’un million de volts. La plus longue liaison HVDC du monde (2.600 km) est actuellement en construction en Inde, et opérera sous 1.100.000 volts.

Le PDG de Softbank souhaite qu’émerge un super-réseau électrique pan-asiatique. Un SuperGrid qui puisse abreuver en électricité verte la Mongolie, la Chine la Corée du sud et le Japon. Puis l’Inde et les pays du sud-est asiatique.  « Ce partenariat entre SoftBank et Newcom LLC est la première étape du plan Asia Super Grid », a déclaré Naoki Nakayama.

Tout comme l’Allemagne en Europe, en décidant de sortir du nucléaire, le Japon va probablement devenir l’un des principaux laboratoires à grande échelle des énergies vertes.

Une solution pour économiser l’eau douce

Contrairement au centrales thermiques, l’éolien a l’énorme avantage de ne pas consommer une seule goutte d’eau douce. Un atout très appréciable en Asie où cette ressource, vitale pour l’agriculture, l’industrie et les particuliers, devient de plus en plus précieuse.  

Par Olivier Daniélo
 

L’équipe de pilotage du débat sur la transition énergétique vient d’être choisie

Mieux vaut tard que jamais. C’est trois jours seulement avant le lancement du débat autour de l’énergie que les six membres du comité de pilotage ont été nommés. Il a fallu remplacer en urgence Pascal Colombani, ex-administrateur du CEA, démissionnaire mi-novembre. Ce sont finalement Georges Mercadal, ancien vice-président de la Commission nationale du débat public, et Michel Rollier, ex-dirigeant du groupe Michelin, qui viennent compléter ce comité déjà formé de quatre personnalités : Anne Lauvergeon, ex-patronne d’Areva, Bruno Rebelle, consultant et ancien responsable de Greenpeace, Jean Jouzel, climatologue, et Laurence Tubiana, directrice de l’Institut du développement durable et des relations internationales. La présence de pro-nucléaires aux côtés d’anti-nucléaires devrait animer les débats…

C’est Alain Grandjean, membre de la fondation Nicolas Hulot, qui présidera ce comité, dans l’objectif d’élaborer différents scénarios énergétiques. Le débat sur la charte et sur le calendrier des travaux marque le coup d’envoi de la réflexion. Beaucoup de débats donc, et de concertation avec les représentants des syndicats, du patronat, des élus locaux, des parlementaires, des associations de consommateurs, des ONG et des représentants de l’Etat. Des mois de travail censés déboucher sur des recommandations concrètes qui serviront de base pour rédiger la future loi de programmation énergétique prévue fin 2013.

Par Audrey Loubens, journaliste scientifique

Pacte LED : des LED plus performantes que les halogènes

En France, ces ampoules représentent environ 3-4% de la consommation électrique dédiée à l’éclairage. Voici ce que révèlent les résultats du projet pacte LED mené par un consortium du Cluster Lumière, en collaboration avec l’ADEME, dans le cadre des programmes PACTE.

Le projet Pacte LED montre que la puissance nominale des LED est divisée par 5 par rapport à celle des halogènes pour le même résultat. La durée de vie des lampes est quant à elle au moins 13 fois plus importante. Et les impacts environnementaux sont potentiellement quatre fois inférieurs sur le cycle de vie complet des ampoules LED !

Remplacer les 50 à 65 millions d’unités installées en France permettrait une réduction de la consommation électrique annuelle de 0,95 à 1,16 TWh. Cela équivaut à la consommation électrique de Clermont-Ferrand, ville de 135.000 habitants.

Le projet s’est également intéressé à l’acceptation du produit par les utilisateurs. Ainsi, presque 86% des utilisateurs se disent prêts à remplacer leur lampe halogène TBT par une ampoule LED et presque 90% des démonstrateurs ayant remplacé leurs ampoules ont trouvé la qualité de la lumière offerte par les LED équivalente, voir meilleure, à celle des ampoules halogène TBT.

Malgré l’absence de normes existantes permettant de valider la qualité de toutes les LED présentes sur le marché, l’ADEME et le Cluster Lumière ont réussi leur pari. Leur objectif était de valider la qualité de la technique. « La démarche est née de la volonté de l’ADEME de ne pas renouveler le problème de qualité que l’on a pu avoir certaines lampes fluocompactes », confie Joël Thome, associé chez Ingélux et secrétaire du bureau du Cluster Lumière. Ainsi, le projet prouve que les ampoules LED des principaux acteurs du marché, tout du moins, sont de bonne qualité.

Pacte LED, pour des ampoules performantes

Les experts ont tout d’abord défini les caractéristiques de l’« halogène idéal », puis Philips et le CEA-LETI  ont développé une ampoule LED équivalente. La production d’environ 10.000 unités a suivi. Plus de 9.300 de ces ampoules ont été réparties sur 70 sites au niveau national, pour des tests in situ à grande échelle. Elles ont été installées et évaluées au sein d’hôtels, restaurants, cafés et magasins. Les ampoules restantes ont servi à différents tests de conformité, de performance et de robustesse.

Le projet Pacte LED prouve la performance des LED aux professionnels et aux consommateurs. À quelle échéance, remplaceront-ils le parc existant ? « Tout devrait dépendre de l’évolution des prix », analyse Joël Thome. Dans les applications à usage intensif de l’éclairage, comme dans l’hôtellerie où les lampes des couloirs restent allumées toute la journée, le temps de retour sur investissement est d’ores et déjà inférieur à un an.

Par Matthieu Combe, journaliste scientifique

Des têtards pour surveiller les effluents d’un hôpital

WatchFrog et ses partenaires ont remporté l’appel à projet des ministères du Redressement productif et de l’Environnement. Objectif : créer une station de surveillance des effluents hospitaliers innovante.

Ce sont donc des têtards qui seront utilisés pour mesurer l’effet des polluants en émettant une fluorescence visible en quelques heures ou en quelques jours. La plate-forme de surveillance intègrera aussi des larves aquatiques pour mesurer les effets physiologiques ainsi que des tests de génotoxicité de façon à étudier les dommages éventuels sur l’ADN. En effet, les établissements hospitaliers sont à l’origine de plus de 10% des résidus médicamenteux retrouvés dans les eaux de surface en France, une pollution à l’impact mal connue alors qu’une part significative des résidus pharmaceutiques franchissent la station d’épuration et se retrouvent dans la nature.

C’est le centre hospitalier sud-francilien (CHSF) qui servira donc de cobaye en accueillant la station mobile. L’établissement possède un réseau des eaux usées divisé en plusieurs bassins de décantation selon l’origine des effluents (laverie, laboratoires, morgue, médecine nucléaire, eaux de stérilisation…). Cette partition permettra d’identifier aisément l’origine des polluants, facilitant grandement le choix des stratégies pour lutter contre la pollution.

Enfin, le syndicat intercommunal des eaux (Siarce) situé à Corbeil Essonne s’est montré intéressé par ce projet à base de batraciens. Il profitera de l’expérience pour intégrer les données mesurées afin d’intégrer des critères d’évaluation biologiques au mode de calcul de la taxe d’assainissement payée par l’hôpital. Le CHSF pourra donc faire des économies tout en diminuant la quantité de polluants rejetés.

L’année 2013 verra la première phase du projet, c’est-à-dire l’analyse des effluents. La station de surveillance entrera en fonction en 2014. A terme, WatchFrog souhaite créer une plate-forme technologique avec l’aide de ses partenaires Toxem, Alyxan et Profilomic, un concept qu’ils pourraient vendre à d’autres structures hospitalières.

Par Audrey Loubens, journaliste scientifique

Revue du Web #35 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • la lévitation acoustique, au service du développement de médicaments plus performants ?
  • lorsque la réalité rejoint la fiction : BeBionic 3, la prothèse la plus évoluée au monde ;
  • la danse hypnotique du « Magic Carpet » dans un vortex, de l’artiste New-Yorkais Daniel Wurtzel ;
  • le gadget (inutile?) de la semaine : « Robo Fish », poisson rouge destiné à satisfaire les propriétaires paresseux ;
  • enfin, en bonus de cette trente-cinquième revue du web, le travail remarquable de Gustav Hoegen, expert en animatronique adoubé par les professionnels du septième art.

Faire léviter des gouttelettes d’eau : la lévitation acoustique

Pour débuter cette trente-cinquième Revue du Web, rien de tel que d’observer des gouttelettes d’eau figées en l’air, entrant en lévitation acoustique. Les scientifiques du laboratoire National d’Argonne, dans l’Illinois, l’un des plus importants laboratoires de recherche des États-Unis, sont parvenus à faire léviter des gouttelettes d’eau contenant des  produits pharmaceutiques, par le biais d’ondes sonores.

Deux petits haut-parleurs, se faisant face et alignés avec précision, génèrent ici des ondes sonores légèrement déphasées entre elles et  à des fréquences non audibles (autour de 22 kilohertz, légèrement au-dessus des ondes audibles). Ces deux ensembles d’ondes sonores interfèrent parfaitement, dans un phénomène connu sous le nom d’onde stationnaire. C’est ce phénomène qui permet de simuler des conditions pas très éloignées de la microgravité, et de donner l’impression que l’effet de la gravité est annulé.

Cette expérience a pour cadre les travaux que le laboratoire américain a entrepris pour le développement de médicaments – vous ne voyez pas le rapport ? « Un des plus grands défis quand il s’agit de développement de médicaments est de réduire la quantité de médicament nécessaire pour atteindre le bénéfice thérapeutique, quel qu’il soit », explique Chris Benmore, à la tête du groupe de chercheurs.

Il existe deux catégories principales de structures pharmaceutiques, au niveau moléculaire, amorphes ou cristallines. L’organisme absorbe plus efficacement les médicaments dont la structure est amorphe, l’effet escompté peut donc être atteint à l’aide d’une dose plus faible. Pourtant, lorsque la solution rentre en contact  avec un récipient, il y a de fortes probabilités pour qu’elle ne s’évapore et qu’elle devienne ainsi… cristalline. La solution ? Parvenir à travailler sans récipient, évitant au maximum tout contact avec l’environnement. Alors, pourquoi ne pas utiliser la lévitation acoustique ?

Lorsque la réalité rejoint la fiction : BeBionic 3, la prothèse la plus évoluée au monde

Amputé du bras droit après un accident de travail il y a près de six ans, dans une fonderie du nord londonien, Nigel Auckland a vu sa vie changer du tout au tout lorsqu’il fut contacté au début du mois de mai dernier par RSL Steeper. La société, basée à Leeds, lui propose tout simplement d’être l’un des sept cobayes pour ce qu’ils présentent, ni plus ni moins, comme la prothèse de bras la plus évoluée jamais conçue.

Pour environ 12 000 pounds (près de 15 000 euros), le bras bionique en aluminium de RSL Steeper répond aux signaux neuro-musculaires et dispose d’une palette de quatorze programmes censés pouvoir reproduire au plus près les mouvements d’un bras « naturel ». Le dense alliage d’articulations, combiné aux différents réglages de vitesse, de contrôle et de grip rendent le bras bionique particulièrement réactif et adapté, comme l’atteste la première vidéo.

La deuxième vidéo illustre assez bien l’aisance avec laquelle le propriétaire de la prothèse peut se servir de son bras bionique dans des situations triviales et quotidiennes : s’emparer de ses clés, ramasser des pièces de monnaie ou encore manipuler un stylo et pouvoir écrire sans rencontrer de difficultés.

La danse hypnotique du « Magic Carpet », du New-Yorkais Daniel Wurtzel :
Un châle rouge chatoyant, une série de ventilateurs disposés en cercle, et le tour est joué : une danse lascive, séduisante, hypnotique, se déroule sous nos yeux. L’artiste New-Yorkais Daniel Wurtzel est le créateur de « Magic Carpet », une installation où la moindre étoffe, éprise de grandeur, peut s’épanouir en tapis volant. Daniel Wurtzel n’en est pas à son coup d’essai : habile sculpteur de flux d’air, une partie de son travail d’artiste tourne autour de la matérialisation de l’invisible et de la mise en scène des mouvements aléatoires à l’aide de médiums souvent triviaux.

Les ondulations sensuelles du « Magic Carpet » sont le fruit du vortex crée par les ventilateurs, disposés en cercle. Un vortex est un écoulement tourbillonnaire où les particules fluides tournent autour d’un axe instantané, et ne créant pas d’énergie. Ils résultent d’un changement de direction du lot de particules, se dissipant généralement par friction.

Cette œuvre fait partie intégrante du nouveau spectacle pour chapiteau du Cirque du Soleil, baptisé « Amaluna ». Il sert d’entame au spectacle, et permet aussi de le conclure, mais sous une autre incarnation.

Le gadget (inutile ?) de la semaine : « Robo Fish », poisson rouge pour propriétaire paresseux

Pour conclure cette trente-cinquième Revue du Web, voici l’inévitable gadget (inutile ?) de la semaine : « Robo Fish », un poisson rouge robotique ayant l’apparence d’un poisson-clown. Développé par la société japonaise Takara Tomy, spécialiste du jouet pour enfants, « Robo Fish » semble atteindre les sommets de la vacuité. Alors que l’idée même de posséder un poisson rouge semble totalement aberrante à un certain nombre d’entre nous, « Robo-Fish » serait apparemment là pour combler un manque : satisfaire les potentiels possesseurs de poissons rouges ou autres poissons d’ornement, en supprimant purement et simplement les habituels « inconvénients » – nourrir le poisson, nettoyer l’aquarium… – ce qui revient donc, vous l’aurez compris, à éliminer presque toute forme d’interaction possible avec son animal aquatique de compagnie.

Les petits Nemo robotiques se contentent de remuer leur queue, leur permettant tout juste de se déplacer et d’entrer dans un ballet aussi vain qu’erratique. Les propriétaires paresseux, qui devront s’acquitter d’une quinzaine d’euros par poisson, ne pourront pourtant pas échapper à un problème d’une toute autre nature, à savoir… recharger la batterie. Si l’on en croit l’avis laissé par de nombreux utilisateurs, celle-ci ne durerait pas même deux heures.

Bonus : le travail remarquable de Gustav Hoegen, expert en animatronique
En bonus de cette trente-cinquième Revue du Web, plongeons dans le travail remarquable de Gustav Hoegen, pape moderne de l’animatronique adoubé par les professionnels du septième art. Une animatronique est une créature généralement robotisée, réalisée avec une peau enlatex et de nombreux mécanismes internes permettant de lui donner une apparence de vie, souvent aidé en cela par de nombreux servomoteurs radiocommandés.

Il suffit de jeter un œil à la vidéo qui suit pour comprendre ce qui fait de Gustav Hoegen la référence absolue en matière d’animatronique, et pourquoi nombre de réalisateurs préfèrent se reposer sur ces marionnettes plus vraies que nature plutôt que sur une intégration d’images de synthèse en post-production, pourtant moins onéreuse. De Prometheus, réalisé par l’Anglais Ridley Scott, à Charlie et la Chocolaterie de l’excentrique Tim Burton, en passant par le Choc des Titans du Français Louis Leterrier, le travail d’animation des animatroniques est remarquable de réalisme, tant dans la finesse des expressions que dans la perfection des mouvements. Méfiez-vous toutefois, certaines des scènes qui suivent peuvent contenir des spoilers.

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

Le stockage de l’électricité d’origine renouvelable : Un enjeu qui peut être résolu par les STEP en bordure de mer

Pour François Lempérière, expert hydraulicien président de l’association à but non lucratif Hydrocoop, les Stations de Transfert d’Energie par Pompage (STEP) peuvent être des alliés très précieux dans cette perspective.

E.T.I : Comment fonctionne une STEP et à quoi servent-elles ?

F.L : Une Station de Transfert d’Energie par Pompage est constituée d’un grand bassin haut et d’un grand bassin bas. Le pompage de l’eau vers le bassin supérieure permet d’accumuler de l’énergie potentielle et le turbinage permet de récupérer l’énergie stockée. Le rendement d’un tel cycle, pompage puis turbinage, variable en fonction des sites et des technologies, est de 80% en moyenne. Cette forme de stockage peut avoir trois objectifs. Stocker une partie de l’énergie intermittente éolienne ou solaire pour l’adapter aux besoins. Ou stocker pendant la nuit ou le week-end du courant qu’on réutilisera en heures de pointes. Et enfin améliorer la qualité et la sécurité du réseau électrique par réglage de la fréquence et par adaptation rapide en cas de défaillance d’une autre source d’énergie.

    E.T.I : Dans sa roadmap sur l’hydroélectricité qu’elle vient de publier fin octobre 2012, l’Agence Internationale de l’Energie estime que 140 000 MW de STEP sont aujourd’hui en place dans le monde, constituant 99% de la capacité de stockage mondiale disponible pour le réseau électrique. Comment expliquez-vous un tel succès et une part aussi faible pour les autres technologies de stockage comme les batteries ou l’hydrogène ?     

Les solutions concurrentes sont pénalisées soit par leur rendement, soit par leur coût, soit par leur durée de vie. Il est probable que les batteries s’amélioreront et prendront une part plus importante. Mais il est très probable que les STEP resteront la solution essentielle, même en 2050. Une STEP peut fonctionner pendant des siècles à un coût d’exploitation très faible. Il existe déjà des usines hydroélectriques qui ont plus de 100 ans, qui continuent à produire et qui continueront à le faire. Le taux de 99% dont fait écho l’AIE, c’est la situation actuelle mais c’est aussi ce qui s’est passé depuis deux ou trois ans dans les réalisations supplémentaires.

    E.T.I : Donc la tendance est conservée ?    

F.L. Tout à fait. Il peut y avoir un miracle sur une autre technologie dans les années ou décennies à venir, mais à ce stade la tendance concernant les STEP reste intacte. Le nombre de STEP va très probablement être multiplié par 3 à 5 dans le monde d’ici 2050.

    E.T.I : Les STEP aujourd’hui installées en France seront-elles suffisantes si l’on souhaite que l’éolien et le solaire occupent une part appréciable dans le mix électrique français ?          

On peut retarder un peu l’utilisation des STEP en développant du gaz pour équilibrer les fournitures intermittentes. Les 5 GW de STEP que nous avons dans le sud de la France devraient passer à au moins une dizaine de GW dans 10 ans, et à 15 ou 20 GW en 2030. C’est un ordre de grandeur tout à fait raisonnable et qui, je crois, n’est pas très discuté. On peut faire 3 à 4 GW de plus dans le sud, et pour bien faire d’ici une vingtaine d’années il faudrait en avoir 5 à 10 de plus dans le nord.

   E.T.I : En France, où serait-il possible d’installer ces 5 à 10 GW de STEP ?       

F.L. : Dans le sud de la France on peut avoir une dizaines de GW au total. Dans le nord de la France, qui n’est pas très montagneux, on a intérêt à rechercher des STEP en bord de mer. On trouve des sites possibles sur les 500 kilomètres de bord de mer, aussi bien en Bretagne qu’en Basse-Normandie, en Haute Normandie, et jusque dans la région de Boulogne.

Avec les STEP en bordure de falaise, on opère sous une charge d’une centaine de mètres, alors que dans les STEP de montagne on a plutôt 300 mètres en moyenne, ceci en général dans le monde. Il existe dès à présent des STEP opérant avec une centaine de mètres au Japon, notamment à Okinawa, et aussi en Russie, à Zagorsk, à environ 100 kilomètres de Moscou. C’est un peu plus cher au kilowatt comparativement, mais en bord de mer on n’a pas besoin d’aussi longs tunnels que dans le cas des STEP de montagne pour relier les deux bassins.

  E.T.I : Dans le sud, l’  Assemblée  Corse semble intéressée par les STEP en bord de mer. Un projet piloté par EDF SEI est également en cours en Guadeloupe…   

F.L. : Ce sont effectivement dans les îles que les premiers développements français de STEP en bordure de mer seront réalisés.

 

 E.T.I : Un article du journal Le Monde daté du 7 novembre 2012 et intitulé « Le stockage de l’électricité, véritable enjeu des énergies renouvelables » fait écho d’un projet de STEP au niveau des falaises d’Etretat ? Que pensez-vous de ce projet ? 

F.L. : Il n’existe évidement aucun projet de STEP au voisinage des falaises d’Etretat. L’article du Monde serait parfait si on y ajoutait une phrase et une photographie. Cet article comporte une phrase qui peut être mal comprise : « Si, sur le papier, les massifs montagneux ou le littoral de la Manche se prêtent à merveille à la construction de STEP, on imagine mal une station de pompage-turbinage accrochée à un lac de la Vanoise ou aux falaises d’Etretat… ». Il faudrait y ajouter : mais entre Brest et Boulogne il existe plus de 10 fois plus de sites favorables aux STEP que nécessaire. Et il faudrait joindre une photo de la STEP d’Okinawa qui permet d’illustrer le faible impact d’une telle STEP sur un paysage de falaise. L’impact sur l’environnement est plus faible qu’avec une STEP de montagne.


 

E.T.I : Est-il possible d’optimiser l’intégration des STEP dans les paysages ? 

F.L. : Une STEP comprend une usine souterraine et une sortie en mer peu importante, donc le problème paysager c’est le lac supérieur à quelques centaines de mètres du bord de la falaise. Ce lac est entouré par une digue d’une vingtaine de mètres de haut, dont l’extérieur sera en pente douce, revêtu de terre végétale, engazonné et arboré. D’autre part la plupart des sites inventoriés ne déplacent aucune habitation. Il n’est pas indispensable de se mettre en bordure immédiate de falaise, on peut se mettre à 200 ou 300 mètres, ce qui signifie que pour apercevoir la digue, il faudra être très loin en mer.

E.T.I : Et même s’éloigner encore davantage du rivage ?

F.L. : Dans ce cas on allonge la longueur de tunnels. 200 ou 300 mètres, cela parait raisonnable.

E.T.I : Les bassins étant remplis d’eau de mer, n’y a t-il pas un risque de contamination des nappes phréatiques ? Et cela ne risque-t-il pas d’abimer les usines ?

F.L. : Le fonctionnement de l’usine de la Rance depuis 50 ans en Bretagne montre que l’on sait très bien résoudre le problème de la corrosion marine. Concernant l’étanchéité des bassins, il convient si nécessaire de protéger la partie basse du bassin supérieur par géomembranes. Cela coûte moins de 5% de l’investissement. Quelques pourcents.

E.T.I : Les communes littorales concernées ont-elles intérêt à accepter de tels projets ? 

F.L. : Les communes littorales auront les mêmes avantages que les communes voisines d’un grand aménagement hydroélectrique, ce sont des communes très riches grâce aux compensations économiques qu’elles touchent. Et en plus ces communes auront la possibilité d’utiliser un lac de quelques kilomètres-carrés pour l’aquaculture ou les sports nautiques comme la planche à voile et le canoë. De quoi vivifier l’activité touristique locale.

E.T.I : Finalement, ces projets peuvent être très attractifs ?

F.L. : Il y a une trentaine de sites possibles le long de la Manche, je pense que cela ne sera pas difficile de trouver un ou deux sites au départ très acceptés, et une fois que les autres communes verront comment cela se passe, pour les suivantes cela ne sera pas difficile de choisir.

E.T.I : Comparativement aux STEP classiques, qu’en est-il au niveau des coûts avec ce type de STEP en bordure de mer, avec un dénivelé plus faible, mais un bassin inférieur déjà en place étant donné que c’est la mer ?

F.L. : Cela sera un peu plus cher ou un peu moins cher suivant les cas. Le coût des STEP de montagne est assez variable suivant les sites, les estimations actuelles arrivent à la conclusion que c’est du même ordre de grandeur dans certains cas, un peu plus cher ou moins cher dans d’autres. Ceci avec moins d’impacts environnementaux. En Montagne, dès qu’on touche à une rivière, cela crée beaucoup de problèmes.

E.T.I : Quel est le surcoût engendré sur le kWh éolien ou solaire avec ce type de stockage ? 

F.L. : En kilowatt investi, que ce soit en STEP de montagne ou en STEP de bord de mer, c’est entre 1000 et 2000 euros. L’impact total du stockage sur le coût de fabrication de l’énergie, en supplément du coût de production de l’énergie est inférieur à deux centimes d’euro par kWh. Cela permet tout à fait le développement des énergies renouvelables variables. Et d’avoir du courant de bonne qualité pour le réseau électrique.

E.T.I : Il est également possible de placer les STEP entièrement en mer…

F.L : Oui, mais c’est plus coûteux de construire les digues en mer qu’à terre. Par contre cela peut tout à fait être envisagé sur l’on construit de grande usine marémotrices dans le futur et on pourra alors associer de telles STEP en pleine mer.

E.T.I : Installer à ces systèmes combinés des éoliennes, en tirant profit des digues, serait-il possible ? 

F.L. : On peut le faire, mais ce n’est pas fondamentalement important.

 

ETI : Parmi toutes les options possibles, pour commencer, quel est celle qui vous semble la plus pertinente ?

F.L. : Cela dépendra de l’acceptation locale. Il me semble qu’une première STEP en Haute-Normandie, sur les 100 kilomètres du pays de Caux, cela parait bien situé, près des centrales nucléaires qu’on peut moduler. Une autre STEP en Bretagne, ou l’on peut faire beaucoup d’énergie éolienne intermittente, cela serait assez logique. Il y a d’autres sites dans le Cotentin près de Flamanville, il y a d’autres sites  dans le Pas-de-Calais. Trouver deux sites à réaliser d’ici une dizaine d’années parmi la trentaine possibles ne devrait pas être très difficile.

Ce grand stockage économique bien situé pourrait être la meilleure solution pour permettre réellement un programme d’énergies renouvelables important. Les sites français sont assez proches des Pays-Bas et de la Ruhr allemande, et il est possible que l’on utile les sites français non seulement pour la France mais aussi pour l’Europe.

Propos recueillis par Olivier Daniélo

François Lempérière  est ex-président du Comité Français des Grands Barrages (CFGB) ainsi que de plusieurs comités au sein  de la Commission Internationale des Grands Barrages (CIGB), et est également lauréat de l’Académie des Sciences.
La CIGB a été fondée en 1928 et est destinée à favoriser l’échange des connaissances et de l’expérience dans le domaine de l’ingénierie des barrages. Elle rassemble 95 Comités Nationaux qui comportent au total environ 10 000 membres individuels.
 

 

Pourquoi utiliser une caméra thermique ?

 

Pourquoi choisir une caméra thermique FLIR ? Il existe d’autres technologies pour vous aider à mesurer les températures sans contact. Les thermomètres infrarouges, par exemple.

 

Les thermomètres infrarouges et les caméras thermiques

Les thermomètres infrarouges (IR) sont fiables et très utiles pour effectuer des relevés ponctuels de température. Mais lorsqu’il faut examiner de grandes étendues ou du matériel de grandes dimensions, certains composants proches de la panne ou nécessitant une réparation risquent de passer inaperçus.

Une caméra thermique FLIR peut scruter des moteurs, des composants, des panneaux entiers en une seule fois. Aucune surchauffe dangereuse ne lui échappe, même très localisée.

 

Détectez les problèmes plus vite et plus facilement, avec une extrême précision.

Les problèmes critiques passent facilement inaperçus avec un thermomètre IR ponctuel. Une caméra thermique FLIR scrute l’ensemble du matériel, ce qui vous apporte un diagnostic instantané du problème et de son étendue.

 

Comme des milliers de thermomètres IR utilisés simultanément.

Avec un thermomètre IR, vous pouvez mesurer la température en un point. Les caméras thermiques FLIR permettent de mesurer les températures sur toute l’image. L’image de la FLIR i3 possède une résolution de 60 × 60 pixels.

Cela signifie qu’elle joue le rôle de 3600 thermomètres IR utilisés simultanément. La FLIR P660, modèle haut de gamme, possède une résolution de 640 × 480 = 307.200 pixels.

Elle remplace 307.200 thermomètres IR.

Demande d’informations

Notions de thermique utiles au secteur industriel

 

Les températures produites dépendent principalement des facteurs suivants :

 

1. Conductivité thermique

Chaque matériau possède des propriétés thermiques. Les matériaux isolants se réchauffent lentement, alors que les métaux chauffent rapidement, par exemple. Il s’agit là de  conductivité thermique.

Des matériaux de conductivités thermiques différentes peuvent présenter des différences de température importantes dans certaines situations.

 

2. Émissivité

Pour que les températures obtenues soient correctes, il est important de prendre en considération le facteur nommé émissivité. L’émissivité est l’efficacité avec laquelle un objet émet dans l’infrarouge. Elle dépend fortement du matériau.

Il est extrêmement important de donner une valeur d’émissivité correcte à la caméra, car sinon les températures mesurées seront incorrectes. Les caméras de FLIR Systems ont des valeurs d’émissivité prédéfinies pour de nombreux matériaux. Les valeurs applicables aux autres matériaux peuvent être trouvées dans des tableaux d’émissivité.

 

3. Réflexion

Certains matériaux reflètent le rayonnement thermique comme un miroir reflète la lumière visible. Par exemple le métal non oxydé, surtout s’il est poli. La réflexion peut conduire à une mauvaise interprétation de l’image thermique.

Par exemple, l’opérateur peut prendre pour un point chaud le reflet de son propre rayonnement thermique. Il doit donc choisir soigneusement l’angle d’observation de

l’objet pour éviter de tels reflets.

Si le matériau en surface de l’objet possède une faible émissivité (comme le métal non oxydé) et que sa température est très différente de la température ambiante, la réflexion de cette dernière influe sur la température relevée par la caméra thermique. Les caméras

thermiques FLIR peuvent compenser cet effet en tenant compte de la température ambiante indiquée par l’opérateur.

 

Pour vérifier les réglages d’émissivité et de réflexion, une bonne méthode consiste à utiliser une « bande d’étalonnage » dont l’émissivité est connue (et généralement proche de 1).

L’opérateur fixe cette bande à la surface de l’objet et attend quelques instants qu’elle prenne la même température. Il détermine la température exacte de la bande grâce à la valeur

connue d’émissivité. Il retire ensuite la bande et modifie le réglage d’émissivité (et de réflexion si nécessaire) de manière à ce que la température lue sur l’objet soit exactement celle relevée sur la bande d’étalonnage.

 

4. Conditions atmosphériques

La température ambiante peut avoir une influence importante sur les relevés de température. Lorsqu’elle est élevée, elle peut masquer des points chauds car l’ensemble de l’objet est plus

chaud. Lorsqu’elle est basse, les points chauds peuvent passer en dessous d’un seuil de détection prédéterminé.

Il va sans dire que le rayonnement solaire direct peut avoir une forte influence. Mais la différence entre les zones ensoleillées et ombragées peut persister plusieurs heures après la disparition du soleil, et influencer le motif thermique observé. Les motifs thermiques dus au soleil ne doivent pas être confondus avec ceux indiquant un transfert de chaleur. Le vent est un autre facteur atmosphérique à prendre en compte. Le déplacement d’air refroidit le matériau en surface et atténue les différences entre les zones chaudes et froides.

De manière évidente, la pluie peut enlever toute efficacité à l’inspection thermique en refroidissant les surfaces. Même lorsque la pluie s’arrête, l’évaporation de l’eau refroidit encore les surfaces. Cela peut conduire à une mauvaise interprétation des motifs thermiques observés.

 

Système de chauffage et de ventilation

À l’intérieur des bâtiments, les températures de surface peuvent aussi subir des influences. De la part de la température ambiante, mais aussi du chauffage et de la climatisation. Les

systèmes de chauffage créent des différences de température qui peuvent se traduire par des motifs trompeurs. Les courants d’air froids provenant des ventilateurs et des systèmes

de conditionnement d’air peuvent avoir l’effet inverse : ils refroidissent les surfaces alors que les composants sont chauds, ce qui peut empêcher de détecter une éventuelle défaillance.

Demande d’informations

Le changement climatique apparent dans toute l’Europe

Selon la dernière évaluation publiée ce jour par l’Agence européenne pour l’environnement (AEE), d’autres impacts sont attendus, qui sont susceptibles d’entraîner des dommages très coûteux. Comme le montre le rapport intitulé « Climate change, impacts and vulnerability in Europe 2012 » (Changement climatique, impacts et vulnérabilité en Europe), on a observé en Europe des températures moyennes plus élevées, ainsi qu’une diminution des précipitations dans les régions méridionales et une augmentation de ces dernières en Europe du Nord. La calotte glaciaire du Groenland fond, de même que les glaces de l’Océan Arctique et de nombreux glaciers en Europe. Le manteau neigeux a diminué et une grande partie du permafrost s’est réchauffée.

Ces dernières années, des évènements climatiques extrêmes tels que vagues de chaleur, inondations et sécheresses ont entraîné des dommages de plus en plus coûteux en Europe. Il convient certes de disposer de davantage de preuves pour déterminer la part du changement climatique dans cette tendance, mais l’augmentation des activités humaines dans les zones à risque a été un facteur clé. L’évolution future du climat devrait augmenter cette vulnérabilité, car les évènements extrêmes devraient devenir plus intenses et plus fréquents. Si les sociétés européennes ne s’adaptent pas, le coût des dommages devrait, selon le rapport, s’accentuer.

Le rapport souligne que certaines régions seront moins à même de pouvoir s’adapter au changement climatique que d’autres, en partie à cause des disparités économiques en Europe. Les effets du changement climatique pourraient renforcer ces inégalités.

Comme Mme Jacqueline McGlade, directrice exécutive de l’AEE, l’a déclaré: «le changement climatique est une réalité à l’échelle mondiale, son étendue et sa rapidité deviennent sans cesse plus évidents. Ceci signifie que tous les acteurs de l’économie, y compris les ménages, doivent s’adapter ainsi que réduire leurs émissions.»

Observation du changement climatique et projections : quelques résultats

La dernière décennie (2002–2011) a été la plus chaude jamais enregistrée en Europe, avec des températures du sol supérieures de 1,3°C à la moyenne de l’ère préindustrielle. Diverses projections modélisées montrent que la température moyenne de l’Europe pourrait être de 2,5 à 4°C plus élevée dans la seconde moitié de ce siècle par rapport à la moyenne enregistrée de 1961 à 1990.

Les vagues de chaleur sont plus fréquentes et plus longues, et ont causé des dizaines de milliers de décès au cours de la dernière décennie. Le rapport souligne que l’augmentation prévue de ces vagues de chaleur pourrait accroître le nombre de décès qui en découlent dans les prochaines décennies, à moins que les sociétés ne s’adaptent. En revanche, le nombre de décès causés par le froid devrait diminuer dans de nombreux pays.

Si les précipitations diminuent dans les régions méridionales, il est établi dans le rapport qu’elles augmentent en Europe septentrionale. Ces tendances devraient se poursuivre. Le changement climatique devrait augmenter la fréquence des débordements des cours d’eau et rivières, surtout dans le nord de l’Europe, car l’augmentation des températures intensifie le cycle de l’eau. Il est cependant difficile de discerner l’influence du changement climatique dans les données historiques concernant les inondations dans le passé.

L’assèchement des cours d’eau et rivières semble être devenu plus sévère et fréquent en Europe méridionale. Le débit minimal devrait diminuer notablement en été en Europe du Sud, mais aussi dans d’autres régions de l’Europe, à divers degrés.

L’Arctique se réchauffe plus vite que les autres régions. En 2007, 2011 et 2012, on a enregistré une diminution très importante des glaces de l’Océan Arctique, environ la moitié de l’étendue minimale constatée dans les années 1980. La fonte de la calotte glaciaire du Groenland a doublé depuis les années 1990, avec une perte annuelle moyenne de 250 milliards de tonnes de 2005 à 2009. Les glaciers des Alpes ont perdu environ les deux tiers de leur volume depuis 1850 et cette tendance devrait se poursuivre.

Le niveau des mers s’élève, ce qui augmente le risque d’inondations côtières lors de tempêtes. Le niveau moyen des mers a augmenté de 1,7 mm par an au cours du XXe siècle, et de 3 mm par an au cours des dernières décennies. Les projections varient énormément, mais il est probable que la montée du niveau des mers au cours du XXIe siècle dépassera celle du siècle précédent. Cependant, l’augmentation du niveau des mers sur les côtes européennes varie, par exemple selon le mouvement isostatique à l’échelle locale.

Il est souligné dans le rapport qu’outre les impacts résultant de la chaleur, d’autres effets sur la santé humaine sont également importants. Le changement climatique intervient dans la propagation de certaines maladies, il permet par exemple à la tique Ixodes ricinus de se développer plus au nord, et le réchauffement pourrait aider certains moustiques et phlébotomes vecteurs de maladies infectieuses à mieux s’adapter à certaines régions d’Europe. La saison des pollens est plus longue et commence dix jours plus tôt qu’il y a 50 ans, ce qui affecte également la santé humaine.

De nombreuses études ont constaté d’importants changements dans les caractéristiques des végétaux et des animaux. Par exemple, la floraison des plantes survient plus tôt dans l’année, tout comme le développement du phytoplancton et du zooplancton dans les eaux douces. D’autres animaux et végétaux migrent vers le nord ou en altitude car leur habitat se réchauffe. Mais la vitesse de migration de bien des espèces est insuffisante par rapport à celle du changement climatique, ce qui pourrait conduire à leur disparition.

Si l’Europe du Sud devrait disposer de moins d’eau pour l’agriculture, les conditions pourraient s’améliorer dans d’autres régions. Pour certaines cultures, la saison de croissance s’est allongée en Europe et cette évolution devrait se poursuivre, selon les projections,  parallèlement à l’expansion de cultures de saison chaude sous les latitudes plus septentrionales. Cependant, les rendements devraient diminuer pour certaines cultures en raison des vagues de chaleur et des sécheresses en Europe centrale et du Sud.

Avec l’augmentation des températures, la demande de chauffage  a également diminué, ce qui permet des économies d’énergie. Cependant, ce facteur doit être comparé avec l’augmentation de la demande d’énergie pour la climatisation durant les étés plus chauds.

Cadre général

Le rapport a pour but de montrer l’étendue des impacts du changement climatique en Europe, et de fournir également des informations pour la stratégie d’adaptation européenne de la Commission européenne qui sera publiée en mars 2013. En outre, l’AEE soutiendra la stratégie par une évaluation d’une sélection d’actions d’adaptation en Europe, qui sera publiée au début de 2013.

Le site web Climate-ADAPT contient une  grande quantité d’informations visant à aider au développement et à la mise en œuvre de l’adaptation au changement climatique.

Par l’Agence européenne de l’environnement

 

Découvrez les formations Techniques de l’Ingénieur :

BioLite, un four thermoélectrique au service des plus pauvres

Avec BioLite, contrairement aux modèles ordinaires, un ventilateur intégré permet d’obtenir un feu puissant et une combustion complète. Les émissions toxiques pour la santé humaine dont le monoxyde de carbone et les particules de carbone-suie sont ainsi considérablement réduites.

Un générateur thermoélectrique (TEG) convertit directement, par effet Seebeck, une partie de la chaleur perdue en électricité (courant continu). Ce générateur permet d’alimenter le ventilateur du mini-four, et l’électricité produite en excès permet de charger par exemple un téléphone mobile via un port USB, ou la batterie d’une lampe LED. Un microprocesseur intégré gère le système.

BioLite permet d’atteindre en 5 minutes l’ébullition d’un litre d’eau. En 20 minutes, le four permet d’obtenir une heure de conversation avec un iPhone et 4 litres d’eau bouillante.

Un gadget ? Pas du tout quand on prend conscience de l’énorme potentiel de ce produit  pour les populations les plus pauvres de la planète.

Un intérêt pour la santé humaine et le climat

Plus de 3 milliards de personnes cuisinent au bois dans le monde, avec des feux traditionnels ouverts. Les fumées toxiques polluent l’air intérieur des habitations et sont responsables de la mort de deux millions de personnes chaque année, dont 85% sont des enfants et des femmes. C’est deux fois plus qu’avec la malaria. Les fours traditionnels ont un effet comparable à la consommation de deux paquets de cigarette par jour.

Les 500 millions de foyers qui ont recours au bois pour cuisiner émettent l’équivalent d’un milliard de tonnes de C02 dans l’atmosphère chaque année, sous forme de dioxyde de carbone, de méthane, d’oxyde d’azote et de carbone-suie.  BioLite permet, s’il remplace un feu ouvert traditionnel, de réduire de 95% des fumées toxiques et de réduire les émissions d’équivalent CO2 d’une tonne et demi par an.

Un réel intérêt économique pour les populations pauvres

Et ce mini-four n’a pas seulement un intérêt pour la santé humaine. Il aussi un intérêt économique substantiel.

Il permet tout d’abord une division par deux de la consommation de bois. Ce qui permet non seulement de réduire la déforestation mais aussi de réduire le temps passé pour  sa collecte, tâche le plus souvent réalisée par les femmes et les enfants. Le temps libéré peut alors être consacré pour générer des revenus pour la famille ou alors pour se reposer. Bien que le bois soit meilleur marché que les solutions à base de combustibles fossiles, il n’est pas gratuit. Les familles passent entre deux et quatre heures par jour à le collecter, et dans les secteurs où il doit être acheté, il ampute entre 10 et 15% des revenus totaux.  

D’autre part la plupart la moitié des familles qui cuisinent au bois n’ont pas accès à l’électricité. 1600 millions de personnes n’ont toujours pas accès à l’électricité dans le monde aujourd’hui. Une fois le soleil couché, des lampes à kérosène, très polluantes et des bougies sont allumées. Cette forme d’éclairage a une facture qui s’élève à 38 milliards de dollars en combustible chaque année, c’est-à-dire environ 23 dollars par personne et par an.

Enfin, de plus en plus de familles sans électricité ont recours à des téléphones mobiles qui leur sont très utiles. Ces familles doivent aller charger leurs téléphones dans des boutiques spécialisées, parfois loin de leur habitation, ce qui leur coûte relativement cher : environ 40 dollars par an, ce qui est beaucoup quand on gagne moins d’un ou deux dollars par jour. Et cela leur fait perdre du temps.

Etant donné que BioLite permet de produire de l’électricité quand ils préparent à manger ou quand ils purifient l’eau, les gens peuvent alimenter les batteries des lampes LED et les téléphones mobiles chez eux. Il n’est alors plus nécessaire d’acheter du kérosène pour s’éclairer, ni de payer la charge électrique du téléphone mobile. Sur le plan marketing, la possibilité de charger le téléphone à la maison augmente considérablement l’attractivité de ce four comparativement aux autres types de mini-fours. Le téléphone portable est effectivement un produit très désiré, car il permet de communiquer avec les amis et la famille.

Disponible en permanence

BioLite est compétitif avec les technologies solaires photovoltaïques alternatives. Il ne nécessite l’installation ni de panneaux solaires, bu de fils électriques. Et il permet une production à la demande 24H sur 24, 365 jours sur 365, indépendamment des conditions météo.

«  Nous croyons en une approche basée sur l’économie de marché pour éliminer la pauvreté », explique Jonathan Cedar, directeur de l’équipe BioLite constituées de designers, d’ingénieurs et d’entrepreneurs sociaux. «  En créant des solutions qui sont efficaces, abordables économiquement, et désirables pour le consommateur, nous pouvons atteindre davantage de personnes plus rapidement » poursuit l’entrepreneur.  

 

Une écotechnologie qui ne bouleverse pas les habitudes des gens

 

Contrairement aux autres mini-fours « propres » qui existent sur le marché, et qui requièrent soit une source d’électricité externe pour alimenter le ventilateur intégré, soit des carburants spéciaux, ou alors des changements comportementaux importants (comme dans le cas des fours solaires), le four Biolite est alimenté comme les feux de bois ouverts traditionnels.  « BioLite est le premier mini-four a atteindre un niveau de réduction des émissions toxiques supérieure à 90% sans avoir besoin de  recourir à une alimentation électrique externe ou des carburants spéciaux » souligne Jonathan Cedar.

Bientôt un million de mini-fours Biolite en Afrique sub-saharienne et en Inde

Durant 2010 et 2011, Biolite est passé du stade prototype au stade produit testé sur le terrain. Des essais ont été réalisés sur les 4 continents afin de vérifier qu’il convient à une large gamme de besoins locaux et d’habitudes, tester sa durabilité et optimiser son design.

Des programmes de déploiement à grande échelle sont actuellement en cours ou en projet en Inde, au Ghana, au Kenya, en Ouganda, et des partenariats se mettent en place progressivement partout dans le monde. Pour les 5 années à venir, Biolite s’est engagée à équiper un million d’habitations en Inde et en Afrique sub-saharienne.  

L’équipe BioLite a remporté plusieurs prix dont le St. Andrews Prize for the Environment et le prix BusinessWeek de l’entrepreneur américain le plus prometteur. La secrétaire d’état Hillary Clinton en a vanté les mérites : « Avec les avancées technologiques, les nouveaux fours peuvent à présent utiliser leur propre chaleur pour produire de l’électricité qui alimente des ventilateurs éliminateurs de fumées toxiques, mais aussi les téléphones mobiles, et même les lampes des habitations »

Le mini-four est également vendu dans une version adaptée aux campeurs occidentaux, disponible au prix de 129 dollars (environ 100 euros). Ce marché permet le financement de projets en Afrique sub-saharienne.

Par Olivier Daniélo

A lire également :

Qu’est-ce que l’infrarouge ?

 

La lumière infrarouge ou thermographie est l’utilisation d’une caméra de mesure et d’imagerie infrarouge pour « voir » et « mesurer » l’énergie thermique émise par un objet. L’énergie thermique, ou infrarouge, est une lumière invisible car la longueur de ses ondes est trop longue pour être détectable à l’œil nu. Il s’agit de la partie du spectre électromagnétique que nous percevons comme chaleur. Contrairement au monde visible, dans le monde infrarouge, tout objet ayant une température supérieure à zéro degré Kelvin émet des infrarouges et donc, même les objets très froids, tels que les glaçons, émettent des infrarouges.

 

 

Imagerie infrarouge

Plus la température d’un objet est élevée, plus la radiation infrarouge émise est importante. Les infrarouges nous permettent de voir ce que nos yeux ne peuvent pas voir. Les caméras de thermographie infrarouge produisent des images de radiation infrarouge ou de « chaleur » invisible à l’œil nu et fournissent des mesures précises de température sans contact. La quasi-totalité des composants chauffent avant de tomber en panne ce qui fait des caméras infrarouges des outils de diagnostic extrêmement rentables et utiles dans de nombreuses applications. Alors que l’industrie se démène pour améliorer l’efficacité de la production, la gestion de l’énergie, la qualité des produits et la sécurité sur le lieu de travail, de nouvelles applications apparaissent constamment pour les caméras infrarouges.

 

Demande d’informations

Emballages plastiques et souples : une conjoncture difficile pour les entreprises

A l’image de ce qu’ils ont enregistré au 1er semestre, ils s’accordent à dire que cette activité devrait croître d’environ 1% sur l’ensemble de l’année, tant en volume qu’en valeur, pour atteindre un chiffre d’affaires de 8,06 milliards. Au 1er semestre, leur activité est tirée par les exportations, notamment vers les pays voisins de la France, avec un chiffre d’affaires export en croissance de 4% sur un an.

Malgré la crise, les fabricants d’emballages plastiques et souples ont réussi à préserver l’emploi et conserver leur savoir-faire en ajustant le recours à l’intérim. Ils ont continué d’évoluer sur un marché sain, avec des stocks maîtrisés : 62% des entreprises jugent normaux leurs stocks de produits finis au 1er semestre.

De plus, ils ont maintenu leur solidité en adaptant leur comportement pour préserver leur trésorerie. Au cours de l’été 2012, 64% jugeaient la situation de leur trésorerie plutôt positive. En effet, les entreprises ont en particulier actionné le levier de l’investissement – en recul de 15% par rapport au premier semestre 2011 – pour conserver des liquidités. Le taux de chiffre d’affaires investi s’élève ainsi à 4% au 1er semestre 2012 après avoir atteint 5% au 1er semestre 2011.

Cette année, si les conditions d’accès aux crédits bancaires sont restées favorables, avec seulement 30% des entreprises indiquant avoir eu des difficultés d’accès aux financements bancaires, celles des couvertures d’assurances-crédits se sont durcies d’après 63% d’entre elles.

Un appel au travail de filière dans la durée : toujours solides mais fragilisés, les industriels de l’emballage plastique et souple lancent un appel à leurs fournisseurs de matières premières, dont les prix ne cessent d’augmenter et de fluctuer (+35% de juillet à septembre 2012 pour la plupart des matières plastiques).

Les industriels à ELIPSO souhaiteraient être pleinement acteurs pour anticiper et gérer les évolutions et les enjeux économiques de la filière dans son ensemble par un travail en commun.

Pour 2013, les professionnels sont dans l’incertitude, ils ne prévoient ni amélioration ni poursuite de la dégradation de la situation. Ils sont 60% à considérer que leur chiffre d’affaires sera stable par rapport à 2012.

Malgré cette conjoncture difficile, les entreprises de l’emballage plastique et souple restent dynamiques et inscrites dans une démarche volontariste afin de proposer des emballages innovants et sûrs au service du consommateur. Elles poursuivent, en particulier, leurs actions d’innovation en matière de prévention et de recyclabilité. Pour rester performants, les industriels axent leur stratégie autour de l’innovation, de l’anticipation et du travail en commun avec tous les acteurs de la filière.

Par ELIPSO
 

Découvrez les formations Techniques de l’Ingénieur :

 

ELIPSO représente les fabricants d’emballages plastiques et d’emballages souples en France et compte 130 membres, ce qui constitue 75 à 90% de représentativité selon les secteurs d’activité.

Les industries de l’emballage plastique et de l’emballage souple en France emploient 40000 collaborateurs dans 320 entreprises pour un Chiffre d’Affaires annuel de 7 milliards d’euros.

Ces industries sont présentes dans tous les secteurs industriels et de la distribution (agroalimentaire, beauté-santé, hygiène, entretien, chimie, produits industriels, bâtiment, transport et logistique)

 

 

 

 

 

 

 

 

 

La plus grande pale éolienne du monde

83,5 mètres. C’est la longueur de la pale la plus grande du monde. Fabriquée au Danemark par SSP Technology, cette pale d’une éolienne offshore dont le diamètre de l’hélice atteint 171 mètres, est arrivée sur son site de test fin octobre. C’est l’Institut Fraunhofer pour l’énergie éolienne et le  génie des systèmes énergétiques de Bremerhaven (IWES) qui ont le privilège de la soumettre à une sorte de « contrôle technique ». Ils devront s’assurer que la pale saura résister à des conditions météos extrêmes, et ce sur le long terme puisque sa durée d’utilisation prévue est de 25 ans. Lors de son fonctionnement, l’éolienne subit constamment des changements de charge dus aux changements de vitesse et de direction du vent, ce qui induit de fortes sollicitations sur le matériau utilisé. Le site de test de l’IWES, qui a ouvert en 2011, est le seul au monde à pouvoir accueillir des pales de cette taille.

Sa construction, soutenue par le Land de Brême, le Ministère fédéral pour l’environnement (BMU) et l’Union européenne, fut décidée en 2006. Les chercheurs de l’IWES n’avaient alors pas imaginé travailler dès 2012 avec des pales de plus de 80 mètres de long ! Le site peut d’ailleurs accueillir des pales encore plus grandes. Les méthodes de test développées à l’IWES fourniront en quelques mois des renseignements fiables sur la tolérance du matériau à de telles contraintes. Ainsi, lorsque les résultats des tests seront suffisamment convaincants, la fabrication en série de ces pales géantes pourra commencer. Des prototypes d’éoliennes d’une puissance de 7 MW et comprenant des pales de ce type pourraient entrer en fonctionnement dès 2013 en Corée.

Par Audrey Loubens, journaliste scientifique

L’essentiel de REACH (Novembre)

Prochaine mise à jour de REACH-IT

La prochaine mise à jour de REACH-IT devrait être publiée le 30 novembre 2012. Elle offrira de nouvelles fonctionnalités aux utilisateurs. Les dossiers d’enquête soumis entre le 16 et 30 Novembre 2012 ne seront pas traités au cours de la transition vers le nouveau système. Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/a589cd88-a28f-49f1-bb34-a1db12a4218f

Nouvelle page sur les nanomatériaux

Depuis le 17 octobre 2012, l’ECHA a mis en ligne une nouvelle page web consacrée aux nanomatériaux. Elle vise à conseiller les futurs déclarants et informer sur les activités de l’ECHA dans ce domaine. La page est accessible sur : http://echa.europa.eu/fr/chemicals-in-our-life/nanomaterials

Vidéo de la formation CHESAR 2.0 disponible

L’ECHA a mis en ligne la vidéo de la formation sur CHESAR 2.0 qui a eu lieu lors de l’atelier dédié aux déclarants principaux en octobre. Cette vidéo est visible sur :
http://www.youtube.com/watch?v=5QULUoPAmyA&feature=youtu.be

Inscriptions pour la conférence en ligne du 23/11 ouvertes

L’ECHA annonce une nouvelle conférence en ligne sur une nouvelle fonctionnalité de REACH-IT. Cette conférence se tiendra le 23 novembre. Plus d’information et inscription sur : http://echa.europa.eu/fr/web/guest/support/training-material/webinars

 Nouvelle version de la boite à outils QSAR 

31/10/2012
L’ECHA a mis en ligne la version 3.0 de la boite à outils QSAR. Cet outil est plus complet pour prédire, de façon fiable, les propriétés des produits chimiques. Cette version contient de nouvelles fonctionnalités afin de fournir un soutien complet lors de la préparation par les futurs déclarants du Rapport sur la Sécurité Chimique (CSR) : l’inclusion de sources de données supplémentaires, la compatibilité avec UICLID 5.4, des outils de prévision pour la toxicité à dose répétée…
Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/fdf29022-114e-4771-83e8-99b0130c7bfe

Consultation d’experts sur la classification harmonisée du cycloxydime

05/11/2012
L’ECHA donne aux parties intéressées l’occasion de commenter les questions relatives à la toxicité potentielle sur la reproduction du cycloxydime (n°CE 405-230-9, n°CAS 101205-02-1) qui est actuellement en cours de discussion par le Comité d’évaluation des risques (RAC). Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/9d1777d6-251e-48b5-b35c-edbfd3a4890b

Mise à jour de la FAQ REACH 

06/11/2012
La FAQ relative au règlement REACH a été mise à jour avec l’ajout d’une question relative aux utilisateurs en aval. Cette FAQ est consultable sur :
http://echa.europa.eu/fr/support/faqs/frequently-asked-questions/frequently-asked-questions-about-reach

Mise à jour des informations de contact dans REACH-IT

06/11/2012
L’ECHA conseille à tous les déclarants ayant effectué un enregistrement ou une Inquiry de vérifier les données concernant leur société afin d’éviter la divulgation non souhaitée de certaines informations. Si nécessaire, les déclarants devront mettre à jour leurs informations avant la mise en ligne de la nouvelle version de REACH-IT. Pour aider, des instructions pratiques ont été publiées par l’ECHA. La mise à jour doit être soumise à l’ECHA, et si possible avant le 16 novembre 2012.
Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/4acbbadf-423e-4685-b23d-a896189c8529
http://echa.europa.eu/documents/10162/13583/instructions_co-registrants_en.pdf

Enquête de satisfaction de l’ECHA

07/11/2012
Dans le cadre de son rapport général annuel, l’ECHA doit évaluer certains de ces indicateurs. L’enregistrement, le partage des données ainsi que les activités d’évaluation sont évalués par une enquête. Un e-mail contenant un lien vers ces enquêtes sera adressé aux parties intéressées. Elles disposeront d’un délai de 15 jours pour y répondre. Plus d’information sur :
http://echa.europa.eu/web/guest/about-us/the-way-we-work/plans-and-reports

Avis de l’ANSES sur le perchloroethylène

12/11/2012
L’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) avait été saisie par la Direction générale de la prévention des risques (DGPR) du ministère de l’Ecologie en mars dernier pour une expertise de quatre substituts possibles au perchloroéthylène dans le nettoyage à sec. L’Anses vient de rendre son avis sur les dangers présentés par les quatre substituts. Ces résultats étaient attendus car ils conditionnent le bannissement plus ou moins rapide du perchloéthylène, qui doit résulter de la révision de l’arrêté du 31 août 2009 applicable aux pressings. Selon l’Anses, il n’existe pas de substituts évidents au perchloroéthylène. L’avis est consultable sur :
http://www.anses.fr/Documents/REACH2012sa0099.pdf.

Formation UIC/MEDDE

Les prochaines conférences en ligne organisées par l’UIC et le Ministère de l’Ecologie (MEDDE) auront lieu le 22 novembre 2012 sur « Le processus d’autorisation et les obligations résultant de l’inclusion d’une substance dans la liste candidate », le 4 décembre 2012 sur « Enregistrement REACH et PME », le 11 décembre 2012 sur « Déclarant membre : préparez votre dossier d’enregistrement ! ». Les conférences sont gratuites. L’inscription est obligatoire sur le site de l’UIC www.uic.fr.
Plus d’information sur : http://www.uic.fr/REACH-webinars.asp

Postes à pourvoir à l’ECHA

Trois postes sont à pourvoir. Les candidatures sont à envoyées pour le 22 novembre et 26 novembre. Plus d’information sur : http://echa.europa.eu/web/guest/about-us/jobs/open-positions

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval.

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

 

Payer avec son doigt, impensable?

En expérimentation depuis quelques jours en France, à Villeneuve-d’Ascq et à Angoulême plus précisément, ce nouveau système de paiement éviterait donc d’avoir à sortir sa carte bancaire. 1500 personnes se prêtent actuellement au test qui durera jusqu’en mars.

Pour effectuer leurs achats, il suffit aux testeurs d’apposer simplement un doigt sur un terminal de reconnaissance, appelé lecteur biométrique. Évidemment, au préalable, ils ont déjà saisi en agence bancaire leurs données biométriques dans leur carte bancaire. Une étape indispensable puisque c’est par la correspondance entre la fameuse carte et le lecteur biométrique que l’enseigne valide un achat en authentifiant l’utilisateur. En effet, un signal de validation est envoyé au terminal pour valider la transaction, lorsque la correspondance digitale a bien été vérifiée.

Il s’agit d’une première mondiale. À l’occasion de ce début d’expérimentation, Cédric Chozanne, le directeur général de Natural Sécurity, a accepté de répondre aux questions des Techniques de l’Ingénieur.

Techniques de l’Ingénieur : Pouvez-vous vous présenter brièvement ?

Cédric Chozanne : Je suis directeur général de Natural Security. J’ai un background d’informatique bancaire et de marketing lié aux moyens de paiement. Ingénieur en informatique et en électronique de formation initiale, j’ai complété ma formation par un DEA en instrumentation et analyse ainsi que par un troisième cycle en IAE à Lille en management d’entreprise.

Techniques de l’Ingénieur : Qu’est-ce que Natural Security ? 

Cédric Chozanne : C’est un projet qui est né fin 2006 au sein du pôle de compétitivité des industries du commerce et de la distribution (PICOM) à Lille. Nous avons rassemblé les besoins à la fois du commerce et de la banque qui souhaitaient trouver une solution d’authentification simple, rapide & sécurisée.

Une fois la solution d’authentification trouvée, nous avons créé la société mi 2008 pour porter les droits intellectuels, développer la solution et l’expérimenter en situation réelle. L’actionnariat de Natural Security est composé actuellement de banques telles que le Crédit Agricole, le Crédit Mutuel Arkéa, BNP Paribas et La banque Accord, de commerçants tels que Leroy Merlin, le Groupe Auchan et un industriel de la monétique : Ingenico.

Techniques de l’Ingénieur : Comment est venue l’idée du paiement par empreinte digitale ?

Cédric Chozanne : Le constat fait à l’origine du projet provenait d’une réflexion sur l’expérience client dans le domaine du paiement et plus généralement dans le domaine  de l’authentification. Actuellement, il existe diverses méthodes de paiement. On peut payer en insérant sa carte dans un lecteur et en tapant son code, on peut aussi bientôt payer sans taper son code pour des petits montants en approchant sa carte du terminal de paiement. On pourra aussi bientôt  payer avec son téléphone en saisissant son code directement sur le mobile. Enfin, sur internet, le paiement via 3D Secure engendre potentiellement autant de systèmes d’authentification qu’il n’y a de banques : réception d’un code par SMS, recopie d’un code généré par une clef électronique, ou encore des questions complémentaires sur vos données personnelles… Bref, cela devient compliqué pour le client lambda. Nos actionnaires nous ont donc demandé de réfléchir à un système qui permette de proposer la même ergonomie quel que soit le service et quel que soit l’endroit d’utilisation. Nous avons cherché à mettre en œuvre une ergonomie très simple, sécurisée et identique pour le paiement, le retrait, le contrôle d’accès physique ou le contrôle d’accès logique : ouvrir une session d’ordinateur, remplacer des identifiants/mots de passe, se connecter à la banque à domicile, payer en ligne…

Pour y parvenir, nous avons assemblé différentes technologies existantes autour d’une architecture nouvelle. Nous avons basé notre concept sur un support personnel sécurisé que vous gardez sur vous et qui peut être, par exemple, une carte bancaire, un téléphone, un porte-clefs… La caractéristique originale de Natural Security tient au fait qu’il n’est plus nécessaire de manipuler le support personnel sécurisé en question. L’objet en poche peut alors désormais communiquer à moyenne distance, entre un mètre cinquante et deux mètres, avec le lecteur de paiement biométrique sur lequel l’utilisateur pose son doigt. Le support personnel sécurisé  compare ensuite la biométrie reçue du lecteur et celle qui est sauvegardée en son sein en vue d’accepter ou non le paiement.

L’expérimentation actuelle a été basée sur l’utilisation d’une carte bancaire mais lors du prochain salon Cartes début novembre à Villepinte, nous allons présenter d’autres facteurs de forme, qui seront des badges pour les entreprises et l’utilisation du téléphone mobile. Finalement, pour l’utilisateur peu importe la forme de l’objet puisqu’il ne le manipule plus. Toutefois, l’objet devra respecter nos spécifications techniques et normes de sécurité, basées notamment sur les dernières normes bancaires. De plus, Natural Security promeut d’autres règles d’implémentation afin que le système soit respectueux de la vie privée de l’utilisateur : Aucune constitution de base de données biométriques et un support personnel sécurisé non traçable et anonyme.

Techniques de l’Ingénieur : Qu’est-ce que la biométrie ?

Cédric Chozanne : C’est un élément qui vous caractérise. Typiquement, l’empreinte digitale est une représentation des bifurcations, des croisements, des lignes de la peau du doigt dont il est possible d’extraire des représentations que l’on appelle « minuties », qu’il est possible de stocker. Ces minuties peuvent être utilisées par la Police dans le cadre d’une recherche d’identité à partir d’une base de données. En revanche Natural Security n’utilise pas la biométrie dans le domaine de l’identification mais uniquement comme moyen d’authentification. Mon support personnel sécurisé Natural Security permet de confirmer ou non que j’en suis le titulaire par comparaison entre la biométrie ma biométrie qu’il est seul à posséder et la biométrie qu’il reçoit lorsque je pose le doigt sur le lecteur biométrique.

L’intérêt de ce concept est l’absence de base de données. Ainsi nous respectons les réglementations en la matière dans les différents pays, notamment en France ou la CNIL est très vigilante quant à l’utilisation qui est faite des données biométriques. Egalement, le fait que l’utilisateur porte sur lui son propre système d’authentification permet de concevoir des systèmes interopérables. In fine, il sera alors donc possible de voyager et de payer partout dans le monde grâce à son support personnel sécurisé qui réalisera l’authentification de manière autonome, sans aucune base de données tout en respectant les données et la vie privée de l’utilisateur.

Techniques de l’Ingénieur : Quels sont les objectifs de cette expérimentation ?

Cédric Chozanne : Aujourd’hui nous avons mis en place deux sites, à Villeneuve d’Ascq et Angoulême, avec 1500 clients appartenant aux banques actionnaires et 200 terminaux de paiement répartis à la fois dans des grandes enseignes comme Auchan, Leroy Merlin, Décathlon, Flunch, et des petits commerçants de galerie marchandes ou de centre-ville.

Nous avons souhaité qu’il y ait un nombre de porteurs suffisamment significatif de manière à pouvoir obtenir un nombre de retours significatifs concernant l’utilisabilité et l’ergonomie des biométries utilisées. Cela reste une technologie nouvelle que  le client soit s’approprier.

Nous expérimentons deux biométries différentes. Sur Lille, nous expérimentons le réseau veineux du doigt, et sur Angoulême, l’empreinte digitale. La manière de poser son doigt est complètement différente si l’on est face à un lecteur d’empreinte digitale où l’on pose simplement le doigt sur le capteur, alors que dans le cas du réseau veineux, il est nécessaire d’insérer le doigt à l’intérieur du lecteur. Nous souhaitons donc mesurer la perception du client quant à l’utilisation au quotidien de cette nouvelle technologie et la perception qu’il peut avoir au moment de l’enregistrement de ses données biométrique sur sa carte.

La propreté du lecteur fera également partie des informations que nous regarderons mais qui à ce jour ne nous semble pas problématique. Il faudra néanmoins le vérifier in situ.

Techniques de l’Ingénieur : Comment fonctionne le système de réseau veineux ? 

Cédric Chozanne : La cartographie des veines de la deuxième phalange est lue, en insérant le doigt dans le capteur grâce à une lumière proche de l’infrarouge.

Techniques de l’Ingénieur : Natural Security développe donc avant tout un concept…

Cédric Chozanne : Nous ne vendons pas de matériel, ni de service. Notre modèle a été adapté de sorte que l’on puisse répondre aux besoins de nos actionnaires bancaires et commerçants ; qui est de promouvoir la technologie afin qu’elle soit déployée in fine à très large échelle. Pour y arriver, nous appliquons un modèle de licence du concept permettant aux industriels intéressés d’utiliser nos brevets et surtout nos spécifications. Toutefois, nous ne vendons pas de matériel pour éviter d’être concurrent de ces mêmes industriels. Nous sommes donc là pour les aider à créer de la valeur via de nouveaux produits basés sur la technologie Natural Security. Nous ne nous immisçons pas dans la chaîne de valeur ni ne souhaitons devenir leurs concurrents. Les commerçants continueront donc à acheter des terminaux de paiement aux industriels

Techniques de l’Ingénieur : La confidentialité est-elle vraiment assurée ?

Cédric Chozanne : En termes de confidentialité des données biométriques, il y a un point important à préciser. La biométrie ne sort jamais de l’enceinte sécurisée de la puce, une fois qu’on l’y a mise pour l’enregistrement.

Techniques de l’Ingénieur : Un déploiement national, et surtout international, est-il envisageable ? 

Cédric Chozanne : Pour le moment, l’expérimentation se fait avec des acteurs français. Mais l’utilisation de Natural Security apporte également de nombreux avantages sur d’autres marchés en France comme à l’international. C’est pourquoi, nous avons également des projets sur la zone Amérique du Nord où nous y avons une personne qui effectue la promotion. D’une manière générale nous visons les pays où la biométrie est déjà utilisée comme par exemple le Brésil, et où les besoins d’authentification se font de plus en plus croissants.

Par  Sébastien Tribot, journaliste scientifique

Un test de dépistage en or

Des Britanniques ont utilisé la nanotechnologie pour créer un test de dépistage pour les infections. A base de nanoparticules d’or, ce test présente l’avantage de détecter à l’œil nu la présence d’une infection. Comment ça marche ? Les nanoparticules déposées sur un support plastique jetable réagissent en présence de marqueurs biologiques spécifiques et prennent alors une teinte bleue. En l’absence de marqueurs infectieux, les nanoparticules se séparent pour s’agréger en petites boules rougeâtres.

Le diagnostic se fait donc visuellement de façon simple et évidente. D’après les chercheurs, ce test serait dix fois plus sensible que les procédés standards, détectant les tout premiers stades de la maladie et augmentant les chances de guérison grâce à une prise en charge précoce. Il serait surtout dix fois moins cher et permettrait donc de réaliser des tests de dépistage du sida dans les pays défavorisés. Molly Stevens déclarait à nos confrères de l’AFP que « le test est conçu sur des supports plastiques jetables et ne demande pas d’utiliser des équipements coûteux puisque la présence de la molécule recherchée peut être détectée d’un simple regard, à l’œil nu ».

Attention cependant car ce test permet juste de dire si oui ou non une infection est présente, il ne permet pas de connaître l’avancée de la maladie. Les scientifiques, dont les travaux sont parus dans Nature Nanotechnology, se rapprochent actuellement d’ONG travaillant dans des pays pauvres pour tester leur procédé à grande échelle.

Par Audrey Loubens, journaliste scientifique

Nouveau procédé de thermoformage appliqué au titane

Des chercheurs allemands ont mis au point une nouvelle technologie d’hydroformage ne nécessitant qu’une seule étape ! Alors que les processus standard requièrent plusieurs traitements thermiques, le procédé établi par l’équipe de chercheurs de l’Institut Fraunhofer IWU et celui d’ingénierie des surfaces et couches minces (IST) de Brunswick (Basse-Saxe) va considérablement simplifier les choses puisqu’un seul recuit suffit. Leur secret : une machine-outil spécifique prenant en compte les contraintes du titane, un matériau qui adhère aux parois des machines, notamment aux hautes températures utilisées pour le façonner. Cette machine-outil fait 1,40m par 1,20m et est constituée de matériaux haute performance, en particulier des alliages de nickel. Ces derniers présentent l’avantage d’être stables et non oxydables à des températures supérieures à 800 degrés Celsius. « A partir d’environ 500 degrés Celsius, le titane a fortement tendance à absorber l’oxygène et l’azote de l’air environnant. Lors du formage à très haute température, un gaz de protection comme l’argon doit être employé afin d’empêcher l’oxydation du titane. Après de nombreux essais avec divers matériaux, nous avons établi le revêtement idéal adapté à chacune des conditions spécifiques dans les différents domaines de température », ajoute Martin Weber, expert en nouveaux revêtements tribologiques à l’IST. C’est ainsi que l’utilisation d’un revêtement spécifique, de quelques micromètres d’épaisseur, empêche le titane d’adhérer à la paroi de la machine-outil.

Ce nouvel outil devrait permettre de baisser les coûts de fabrication des composants en titane jusqu’alors constitués d’alliages d’aciers inoxydables tels que des coudes, des tuyaux d’échappement, des catalyseurs ou encore des amortisseurs de bruit.

Par Audrey Loubens, journaliste scientifique

Améliorer la durée de vie de l’asphalte

Fini les nids de poules, les bosses et autres inconforts routiers. De nouveaux agents chimiques testés par les chercheurs du laboratoire d’ingénierie des fluides complexes de l’université de Huelva (Espagne) augmentent la résistance de l’asphalte, retardant de facto le vieillissement des routes. Plus précisément, ces additifs luttent contre l’oxydation des bitumes, à l’origine des fissures et autres trous dans les revêtements des routes. Dernier avantage, ces additifs sont tout simplement dérivés d’huile végétale.

Pour rappel, les revêtements sont composés de bitume, de sable et de pierre. Le goudron est utilisé comme liant de façon à compacter le tout, à une température de mélange de l’ordre de 150°C. Les quelques pourcents de bitume donnent à l’ensemble sa résistance et son élasticité. Mais problème, les bitumes résistent mal au temps qui passe et s’oxydent.  Les scientifiques du département d’Ingénierie Chimique de l’université de Huelva ont donc décidé de travailler avec des additifs de petite taille, laissant de côté les solutions polymériques. Leur intérêt s’est porté notamment sur trois types de produits sous divers états et pour différentes températures de mélange. Ces travaux ont prouvé que dans le cas des émulsions ou des mousses, une température de mélange plus basse suffisait, avec pour conséquence immédiate une diminution du risque-opérateur et du coût matière.

L’objectif final est de développer des produits qui seront recyclables : les tranches d’asphalte en fin de vie ne seront plus jetées en décharge mais récupérées et traitées de manière chimique pour être réutilisées. Enfin, améliorer la résistance des matériaux diminuera les contraintes actuelles de retrait et de remplacement des couches superficielles d’asphalte détériorées.

Par Audrey Loubens, journaliste scientifique

Une meilleure compréhension de l’univers grâce aux jets de matière cosmique

L’expulsion supersonique de matière cosmique est partie du centre d’une galaxie lointaine pour s’étendre de deux millions d’années-lumière, selon l’article du docteur Leith Godfrey, publiée ce week-end dans Astrophysical Journal Letters. L’image a été prise avec le télescope australien CSIRO. Le docteur Godfrey a d’ailleurs précisé que « les jets comme celui qu’il a étudié sont les plus grands objets de l’univers ». Dans le cas présent, le jet est 100 fois plus grand que la Voie Lactée.

Le jet, baptisé PKS 0637-752, ressemblerait à s’y méprendre à la flamme produite par un réacteur d’avion de chasse. « À la différence qu’ici, le moteur est un trou noir supermassif et que le jet atteint presque la vitesse de la lumière ». Toujours selon l’article, le jet serait composé de zones lumineuses et sombres. Sur l’image, on constate que des régions régulièrement espacées sont plus lumineuses que le reste. Pour le docteur Godfrey, « Une possibilité intéressante serait que la forme du jet cosmique que nous voyons soit produite de la même manière que les moteurs d’engins de combat ».

Ce phénomène n’est pas nouveau et a déjà été étudié par le passé. « Depuis le début de la radioastronomie » pour être exact. Cependant la compréhension de ces jets de matière reste partielle. Notamment au niveau de leur composition et sur le comment de leur création. Le docteur a simplement déclaré que cela se produisait lorsque de la matière tombait dans le trou noir supermassif au centre d’une galaxie. La comparaison entre un jet et un moteur à réaction peut donc s’avérer intéressante si elle est juste, puisque des informations concernant la puissance du jet ou encore la densité de l’espace qui l’entoure pourraient en être déduites.

Et tout l’intérêt est là. Il réside dans une meilleure compréhension des jets de matières cosmique. Ce n’est qu’à ce prix que l’Univers dévoilera d’autres secrets tels que la formation et le développement des galaxies. On le sait, les jets sont extrêmement puissants. Ils sont « soupçonnés d’empêcher la formation d’étoiles dans des galaxies voisines, ce qui limiterait la taille des galaxies et affecterait directement le développement de l’univers ».

Cette nouvelle image dévoile un détail jamais vu auparavant. « Ce jet en particulier, émet beaucoup de rayons X, ce qui est difficilement explicable par nos appareils actuels. » Néanmoins il s’agit « d’un pas de plus vers la compréhension de ces objets géants et de comment ils émettent tant de rayons X. »

Source : http://www.icrar.org

Par Sébastien Tribot, journaliste scientifique

Un revêtement métallique auto-lubrifiant

L’équipe de recherche teste aujourd’hui un revêtement constitué de particules solides dans lesquelles sont piégées des microcapsules contenant un lubrifiant liquide. »On applique le revêtement par projection thermique. La poudre et les capsules sont lancées sur la surface à traiter avec un chalumeau. », explique Sergio Armada Nieto, du département Mécanique Appliquée et Corrosion de SINTEF. « Lorsque les surfaces métalliques sont en contact, la détérioration du revêtement libère le lubrifiant contenu dans les microcapsules et réduit ainsi considérablement le phénomène de friction. », ajoute-t-il. D’après les premiers tests réalisés en conditions industrielles, le coefficient de frottement passe de 0,7 à 0,15 avec le revêtement contenant les microcapsules.

Le concept n’est pas nouveau. Il y a deux ans, une équipe de chercheurs de l’Université de Stuttgart (Allemagne) et de la société Fraunhofer, avait présenté un enduit métallique à microcapsules appliqué par « couche électrodéposée ». L’inconvénient majeur de cette méthode était que, comme l’application du revêtement était électrique, celui-ci ne pouvait être que métallique. Le deuxième était que les microcapsules étaient trop grosses, ce qui engendrait une détérioration trop rapide du revêtement (environ 15 à 20 microns d’épaisseur). « Dans notre cas, la taille des capsules ne peut être supérieure à 10 microns, au risque d’obstruer les buses pendant le procédé de projection. Nous avons réussi à créer des capsules de 2 microns. », explique Christian Simon, Directeur de Recherche (français) au département Conversion d’Energie et Matériaux de SINTEF.

Les frictions métalliques engendrent des coûts importants dans l’industrie, notamment en termes de maintenance et d’entretien des composants mécaniques. « Notre méthode à de nombreuses applications envisagées. Il est possible d’appliquer des revêtements sur de grandes surfaces, et le matériau même du revêtement peut être modifié : des métaux aux polymères, ou encore aux céramiques. » conclut Sergio Armada Nieto.

 

Source : http://www.bulletins-electroniques.com/actualites/71283.htm
 

 

* La tribologie est une science qui étudie les phénomènes susceptibles de se produire entre deux matériaux en contact comme les domaines du frottement, de l’usure et de la lubrification), un groupe de chercheurs de SINTEF et de l’Université Norvégienne des Sciences et Technologies (NTNU) a passé deux ans à développer les compétences de base autour d’un nouveau système destiné à améliorer la lubrification entre deux pièces métalliques. L’équipe de recherche teste aujourd’hui un revêtement constitué de particules solides dans lesquelles sont piégées des microcapsules contenant un lubrifiant liquide.

Le Han-Fast® Lock : la manière la plus élégante de raccorder de la puissance sur un circuit imprimé.

 

Le Han-Fast® Lock est une nouvelle technologie de raccordement rapide pour circuit imprimé. Cette solution HARTING ne nécessite aucune composante additionnelle, ni aucun outil spécifique. De plus le Han-Fast® Lock répond aux exigences techniques en terme de transmission de courants forts sur circuit imprimé.

Il est possible de véhiculer jusque 60A sur un circuit imprimé via le Han-Fast® Lock, le tout dans un espace réduit. En effet le Han-Fast® Lock peut être inséré sur le circuit de manière individuelle, point par point. Les gains d’espace, et également les gains de temps de montage engendrés permettent de réduire considérablement les côuts globaux du système.

En savoir plus

Changer la couleur de l’or

La bague trois ors de Cartier va-t-elle devenir ringarde ? Peut-être pas encore mais l’avenir de la joaillerie pourrait bien être chamboulé par cette trouvaille : l’or peut devenir vert, rouge… Des chercheurs anglais de l’université de Southampton ont réussi à modifier la surface de l’or de façon à contrôler la longueur d’onde. Pour cela, ils ont estampé la surface de l’or avec des motifs d’une centaine de nanomètres, maîtrisant ainsi la longueur d’onde émise. En jouant sur la forme, la hauteur et la taille des motifs, réalisés par fraisage à faisceau d’ions ou par sablage à l’échelle atomique, les scientifiques ont été capables de produire de l’or vert ou rouge et assurent pouvoir le décliner dans un large éventail de teintes.

De plus, cette technique permet  de faire apparaître différentes zones d’une même pièce d’or de différentes couleurs, tout simplement en faisant varier les motifs nanométriques. Un principe qui peut très bien être appliqué à d’autres métaux, comme l’argent ou l’aluminium. Si les bijoux apparaissent comme une cible de choix pour cette technique, on pourrait imaginer ce système pour sécuriser des documents du fait de propriétés optiques uniques et difficile à dupliquer. Le Pr Nikolay Zheludev et ses collègues britanniques tentent ainsi actuellement de commercialiser cette technique. Ces travaux sont parus dans la revue Journal of Optics.

Fusion nucléaire : la création d’ITER validée par décret

Par un décret publié le 10 novembre au Journal Officiel, le gouvernement français a officiellement autorisé la construction du réacteur expérimental ITER (International Thermonuclear Experimental Reactor). Cette installation nucléaire de base (INB), déjà en construction sur le site nucléaire de Cadarache (13) depuis juillet 2010, aura pour objectif la maîtrise de la fusion nucléaire.

Une entrée en service au plus tard dans 25 ans

ITER devrait en effet tenter la fusion avec des atomes de deutérium et de tritium. Théoriquement, leur fusion a pour finalité la libération d’énergie jusqu’à 10 fois plus que la quantité injectée pour provoquer la réaction. Mais cette fusion est difficile à réaliser car il faut rapprocher deux noyaux qui ont tendance naturellement à se repousser et ce phénomène ne peut avoir lieu que dans des conditions de température et de pression extrêmement élevées. Pour satisfaire à ces conditions, il faut donc confiner les deux noyaux, augmenter la température, créer un plasma favorisant la rencontre des deux noyaux et le piéger pour éviter grâce à de puissants champs électromagnétiques. Cette opération se fait dans un four baptisé « tokamak ».

Selon le décret, le site de l’INB accueillera plusieurs bâtiments nucléaires. Un premier abritera le tokamak et le système de recyclage du tritium. Un deuxième bâtiment sera destiné aux activités de maintenance, de traitement et d’entreposage des déchets radioactifs de moyenne activité à vie longue (MA-VL) et des déchets de tritium tandis qu’un troisième bâtiment servira au traitement des déchets radioactifs.

Ce tokamak expérimental aura pour mission de démontrer qu’il est possible de générer des réactions de fusion produisant 500 mégawatts pendant plus de 6 minutes, et dans un second temps, que ces réactions peuvent être maintenues pendant plus de 16 minutes. Selon le décret, la mise en service de l’installation correspondra à la réalisation du premier plasma deutérium-deutérium dans la limite de 25 ans à compter de la publication du texte. Selon le CEA, ITER devrait être opérationnel en 2020 pour une exploitation sur 20 ans.

Un projet controversé en plein débat énergétique

Le décret fait suite à la demande d’autorisation déposée une première fois en janvier 2008 puis en mars 2010 par l’Organisation ITER et à plusieurs avis rendus dans le courant des années 2011 et 2012 et notamment celui de l’ASN dernier en date. Mais la publication de cette autorisation à l’aube du débat national sur la transition énergétique laisse comme un sentiment d’impuissance et de déni : « En signant le décret de création avant le commencement du « grand débat sur l’énergie », [la ministre de l’Ecologie Delphine Batho] confirme à la fois la politique du fait accompli du gouvernement et le caractère illusoire de ce débat, qui ne permettra même pas de discuter une décision aussi lourde de conséquence », estime le Réseau Sortir du nucléaire.

Outre ce calendrier inopportun voire indécent pour certains, le projet ITER en tant que tel ne fait pas l’unanimité. « Ce projet très centralisé, productiviste, n’a fait l’objet d’aucune évaluation scientifique contradictoire : c’est un projet non maîtrisable critiqué par les physiciens du plasma et même Masatoshi Koshiba (prix Nobel japonais de physique) », souligne Michèle Rivasi, eurodéputée EELV et membre de la Commission Industrie, recherche et énergie du Parlement européen. Déjà en 2010, plusieurs scientifiques avaient appelé à l’abandon d’ITER. Georges Charpak, prix Nobel de physique, Jacques Treiner (Université Pierre et Marie Curie, Paris) et Sébastien Balibar (Ecole normale supérieure) l’avaient jugé  »hors de prix et inutilisable ». Le coût du projet a été évalué à 15 milliards d’euros. Sa budgétisation par l’Europe, l’un des sept partenaires à le financer, a d’ailleurs été au cœur d’une longue querelle entre Etats membres dans le cadre de l’étude du budget européen pour 2012 et 2013.

Source : http://www.actu-environnement.com

Optimisation des organisations de test (2/4)

Lorsque les conditions économiques sont difficiles, les sociétés sont plus soucieuses de trouver des opportunités de gagner en compétitivité tout en augmentant leur chiffre d’affaires, leurs bénéfices, et la fidélisation de leur clientèle. Parallèlement, les sociétés ont de plus en plus de mal à conserver leur avance en raison des pressions de la concurrence engendrées par les nouvelles technologies qui offrent des chances égales à toutes les entreprises quelles que soit leur taille, ainsi que des exigences en matière de qualité et de règlementation. Pour gagner en compétittivité, les sociétés se sont lancées dans des stratégies d’amélioration telles que Six Sigma, Lean Manufacturing, Capability Maturity Model Integration (CMMI), et Agile Product Development.

Un autre moyen consiste à favoriser et tirer un avantage stratégique d’une fonction auxiliaire de support pour se distinguer sur le marché. Par exemple, le rôle des technologies de l’information (TI) a radicalement changé ces deux dernières décennies. À l’origine les TI avaient une fonction de support cantonnée à la fourniture d’applications informatiques, au stockage de données et à l’automatisation de tâches standard. Dans les grandes sociétés, les TI peuvent désormais rationnaliser les processus critiques propres à leurs secteurs et aider les dirigeants à prendre des décisions en temps réel au cœur des activités commerciales de leur entreprise. L’importance stratégique des TI a été confirmée par l’enquête du magazine Chief Information Officer (CIO) consacrée en 2010 aux responsables des technologies de l’information, qui a révélé que 70% d’entre eux étaient désormais membres du conseil de direction de leur société.

Tout comme les TI, le test de produits a d’abord été perçu comme une fonction de support au cours du développement et du processus de production : juste un poste de dépenses nécessaire. C’est la raison pour laquelle bon nombre de sociétés investissent davantage dans d’autres domaines présentant une valeur “stratégique” comme le développement de produits et l’aide à la vente. Cela laisse les départements de test fragmentés, mal armés pour répondre aux exigences commerciales, et dépassés en raison des technologies et des méthodologies de test obsolètes qui créent fréquemment des goulets d’étranglement au sein de leurs structures. Cependant, comme l’ont montré les recherches, le test est crucial car il valide les performances d’un produit, réduit les temps de développement, augmente la qualité et la fiabilité, et diminue les taux de retour.
 

“Le test est une activité fondamentale dans n’importe quelle tâche de développement, de production et de maintenance. Il faut non seulement le prendre en compte lorsque l’on réfléchit à la qualité des produits, au temps de mise sur le marché et aux objectifs de l’entreprise, mais il doit en plus être efficace et abordable. Chez Lockheed Martin, nous investissons dans tous les aspects du test automatique (personnes, processus et technologies) pour garantir le respect de nos objectifs.”

– Tom Wissink, Director of Integration, Test & Evaluation,
Lockheed Martin Corporate Engineering & Technology

 

 

 

 

 

 

 

 

 

 

 

 

 

Le Research Triangle Institute a mené une étude pour le NIST (Institut national des normes et de la technologie) en 2002 afin d’évaluer les répercussions d’un test logiciel inadéquat sur les industries américaines de l’automobile et de l’aérospatiale. Il s’est avéré que l’impact de la dévalorisation des tests au niveau de l’industrie s’élevait à plus de 1,11 milliard d’euros. Une autre étude conduite par des chercheurs au Centre spatial Johnson de la NASA en 2004 a établi que les coûts de la découverte d’une malfaçon sur un produit étaient 21 à 78 fois plus élevés en phase de production qu’en phase de conception. La principale recommandation de ces deux études était d’accroître le test au cours de la conception en raison de l’économie spectaculaire que cela permettait d’effectuer sur les coûts de réparation des malfaçons. En permettant de détecter ces anomalies plus tôt dans le processus de développement et de collecter les données susceptibles d’améliorer la conception ou le processus, le test représente une valeur ajoutée inestimable pour une société. La conclusion qui semble s’imposer est que la plupart des sociétés n’investissent pas suffisamment dans le test, et par conséquent, pâtissent du ralentissement du développement des produits, de l’allongement des cycles de production, et de la multiplication des coûts de réparation et des rappels.

Une tendance émergente au sein des sociétés d’électronique consiste à utiliser les tests de produits pour se démarquer de la concurrence, ce qui a pour conséquence d’élever la fonction de l’ingénierie de test du statut de simple poste de dépenses à celui d’avantage stratégique. Cette évolution a été confirmée par une récente étude de NI consacrée aux leaders de l’ingénierie de test qui ont déclaré que leur objectif pour l’année ou les deux ans à venir était de réorganiser leurs départements de test pour accroître leur efficacité. Ce réajustement stratégique réduit les coûts induits par les exigences de qualité et impacte considérablement les finances d’une société en accélérant la mise sur le marché de meilleurs produits. Les différentes études ont montré que le niveau de maturité idéal à atteindre est « optimisé » : à savoir lorsqu’un département de test adopte une stratégie de test centralisée qui couvre le cycle de vie du produit. Cette organisation optimisée développe des architectures de test standardisées avec des composants largement réutilisés, permet l’utilisation de ressources dynamiques, et assure la gestion et l’analyse systématiques de données d’entreprise ayant un impact sur l’activité commerciale de la société.

Les sociétés opérant cette transformation doivent s’engager sur une stratégie à long terme car, d’après les études conduites par NI, il faut généralement compter entre trois et cinq ans pour en récolter pleinement les bénéfices. Une entreprise doit avoir une stratégie d’investissement à la fois disciplinée et innovante pour que son département de test progresse à travers les quatre niveaux de maturité : ad-hoc, réactif, proactif et optimisé. Chaque niveau fait intervenir les personnes, processus et technologies. Les bonnes personnes sont primordiales pour développer et conserver une stratégie de test claire et ordonnée. Les améliorations du processus sont nécessaires pour rationaliser le développement et la réutilisation des tests tout au long du développement des produits. Et pour finir, la recherche et l’intégration des toutes dernières technologies sont indispensables pour améliorer les performances du système tout en réduisant les coûts.

Cependant, alors même que le test devient un élement central du succès d’une société, les dirigeants d’entreprises comme les professionnels du test se heurtent à plusieurs difficultés dans ce domaine. Certains problèmes, comme l’augmentation de la complexité des produits, sont systèmiques depuis des années. D’autres, comme les nouvelles exigences en matière de réglementation, deviennent des défis pour le test lorsque les gouvernement décident d’une nouvelle législation pour résoudres des problèmes existants ou potentiels. D’autres difficultés, comme les interruptions des activités commerciales causées par une défaillance du système de test, ont gagné en importance à mesure que le test lui-même occupe une place plus centrale au sein de l’entreprise.

Lorsque les sociétés mettent en œuvre des changements qui s’appliquent aux processus, aux personnes ou aux technologies, elles sont parfois tentées de sauter les projets de transition car elles s’imaginent pouvoir ainsi atteindre plus rapidement un niveau de maturité plus élevé. Or, avant de pouvoir atteindre un niveau optimisé, il lui faut d’abord atteindre le niveau proactif dans chaque domaine de compétence fondamental : l’harmonisation des stratégies au sein de l’entreprise, la planification commerciale, le cycle de vie du déploiement, le développement des systèmes, ainsi que les technologies et les architectures de test.

Un département de test construit des fondations solides pour une transformation stratégique en suivant étroitement une approche séquentielle et en identifiant des initiatives à court terme qui aident la société à améliorer son niveau de maturité et qui sont en adéquation avec les objectifs opérationnels annuels. Et tandis que l’on construit les fondations, la productivité des tests et l’utilisation des ressources augmentent, rentabilisant ainsi largement l’investissement initial. Cette approche composée de différentes phases permet aux sociétés d’engranger rapidement des bénéfices, après la réalisation d’à peine un ou deux projets. Voici quelques exemples de projets de transition :

  • Architecture/processus de test standardisés (ad-hoc->réactif) : l’adoption d’architectures logicielles et matérielles et de méthodologies de test standardisées améliore la productivité en accélérant le développement du code de test et en augmentant l’utilisation des ressources de test.
  • Modèle financier du coût total de possession (TCO) appliqué au test (réactif->proactif) : la création d’un modèle financier TCO pour le test aide les sociétés à évaluer leur productivité, ainsi que leurs données financières (retour sur investissement, délai de récupération du capital investi, valeur actualisée nette, taux de rendement interne, etc.) afin d’envisager des initiatives visant à améliorer les tests.
  • Gestion des données de test des entreprises (proactif->optimisé) : le développement d’une infrastructure globale de gestion des données de test à laquelle tous les sites accèdent de manière universelle améliore grandement la prise de décision en temps réel.

Cette transformation nécessite de passer du simple support des opérations en cours au développement d’initiatives reposant sur l’innovation en plus des opérations en cours. L’évolution de l’industrie du test en est à ses balbutiements. En utilisant l’industrie des TI comme indicateur extérieur de performances, IBM a souligné dans son rapport sur les technologies de 2010 que les sociétés particulièrement efficaces qui ont modifié leurs organisations des TI n’ont consacré que 60% de leurs budgets aux opérations en cours, dégageant les 40% restants pour de nouvelles initiatives. Elles s’opposent en cela aux autres organisations qui, figées dans leurs anciens modèles, affichent un rapport de 85/15. Il en va de même pour le test : les grandes sociétés gagnent en compétitivité en favorisant la souplesse de leurs départements de test et en adoptant le niveau d’innovation appliqué dans les autres départements stratégiques.

Lorsque les départements d’ingénierie de test deviennent des ressources stratégiques, ils créent des plates-formes de test standard, développent une propriété intellectuelle très utile basée sur le test, fournissent une main d’œuvre plus productive tout en réduisant les coûts de fonctionnement, et s’alignent sur les objectifs de l’entreprise en contribuant sans cesse à l’augmentation des marges bénéficiaires, à l’amélioration de la qualité et à la réduction du temps de mise sur le marché des produits.

Algorithmes de mesures portables (3/4)

Ces 20 dernières années, le concept d’algorithmes de mesures sur microprocesseur et programmables par l’utilisateur s’est généralisé, permettant ainsi aux systèmes de test de s’adapter rapidement aux exigences personnalisées et en constante évolution. Cette approche est appelée l’instrumentation virtuelle, et, en raison de son succès, les fournisseurs continuent de chercher à optimiser les avantages qu’ils peuvent en tirer : une personnalisation accrue, une plus large utilisation des technologies « sur étagère », des performances plus élevées et des coûts de systèmes de test moindres.

Si le microprocesseur a déclenché la révolution de l’instrumentation virtuelle, le circuit FPGA (Field-Programmable Gate Array) l’a faite entrer dans une nouvelle phase. Les FPGA sont utilisés dans les instruments depuis des années. Par exemple, les oscilloscopes à bande passante élevée actuels collectent tellement de données qu’il est impossible pour les utilisateurs de toutes les analyser rapidement. Les algorithmes « définis par matériels » sur ces instruments, souvent implémentés sur des FPGA, effectuent l’analyse et la réduction de données (moyennage, traitement du signal et déclenchement), calculent des statistiques (moyenne, écart-type, maximum et minimum), et traitent les données à afficher, le tout pour présenter les résultats à l’utilisateur de façon pertinente. Si ces capacités présentent des avantages évidents, un certain potentiel se perd du fait de la nature fermée de ces FPGA. Dans la plupart des cas, les utilisateurs ne peuvent pas déployer leurs propres algorithmes de mesures personnalisés sur ce puissant matériel de traitement.

Circuits FPGA pour le test

Les FPGA programmables par l’utilisateur « ouverts », implantés sur les matériels de mesure offrent de nombreux avantages par rapport aux systèmes reposant seulement sur le processeur. Du fait de leurs immenses capacités de calcul, les FPGA peuvent offrir des cadences plus élevées et une plus grande couverture des tests, ce qui réduit les temps de test et les coûts. La faible latence des mesures exploitant le FPGA permet également de mettre en œuvre des tests qui ne sont pas possibles avec un simple microprocesseur. Leur parallélisme intrinsèque permet des tests réellement multisites, plus encore qu’avec des processeurs multicœurs. Enfin, le FPGA peut jouer un rôle essentiel dans le séquencement du matériel de test temps réel et dans le contrôle du matériel sous test.

En 2011, une étude de marché sur l’instrumentation modulaire conduite par la société de conseil et de recherche Frost & Sullivan a rapporté : “Les progrès réalisés par les entreprises Altera et Xilinx concernant les capacités des FPGA sont extrêmement utiles dans les applications de mesure et de test dans lesquelles les utilisateurs ont besoin de capacités de traitement rapides et hautement déterministes…” Les FPGA des systèmes de test étaient déjà une tendance abordée par Rapport d’étude 2010 du test automatique. Depuis, un nombre croissant de produits à base de FPGA ouverts sont proposés sur le marché par des fournisseurs de produits PXI.

Tandis que les solutions matérielles continuent d’arriver sur le marché, la plupart des algorithmes de test et de mesure (développés pour s’exécuter sur des microprocesseurs dans le contexte de la révolution de l’instrumentation virtuelle) sont tout simplement difficiles à porter sur FPGA en raison des types de données, des modèles de programmation, et des attributs spécifiques aux matériels comme les contraintes de cadencement. Le développement d’IP de mesure FPGA éprouvées et fiables demande énormément de savoir-faire et de temps. C’est la raison pour laquelle, à l’heure actuelle, la plupart des FPGA dans les matériels d’instrumentation n’utilisent que des algorithmes figés définis par le fournisseur et ne sont pas programmables par l’utilisateur.

Le Rapport d’étude 2011 du test automatique traitait du calcul hétérogène qui distribue des algorithmes entre toute une variété d’architectures (microprocesseurs, unités de traitement graphique, FPGA, et le nuage informatique ou cloud) afin de sélectionner la ressource optimale pour l’implémentation des algorithmes. En dépit de la puissance de son concept du point de vue de l’architecture matérielle, le calcul hétérogène se heurte à des obstacles spécifiques concernant la programmation de chacune de ces cibles, et la portabilité des algorithmes de mesures entre elles peut s’avérer difficile. Pour compliquer les choses, un récent sondage mené par NI auprès des leaders de l’ingénierie de test a établi que 54 % d’entre eux attendent que les prochaines avancées technologiques réduisent leur temps de développement, tout en augmentant les cadences de test et en diminuant les coûts des systèmes. Pour résoudre ce paradoxe, l’industrie relève tous ces défis au travers des améliorations apportées aux outils de développement qui promettent d’assurer la portabilité des algorithmes entre les cibles matérielles et de mettre les avantages des FPGA à la disposition de tous les ingénieurs développant des systèmes de test.
 

“En raison des besoins des entreprises qui exigent des plates-formes informatiques surpassant le « vénérable » microprocesseur, nous nous battons pour que nos paradigmes de programmation suivent le rythme. Fournir des outils offrant une interface de conception efficace au travers d’un large éventail de modèles de calcul, combinés avec la capacité de cibler plusieurs types de matériels de traitement, est un objectif crucial pour NI en matière d’investissement logiciel. »

– David Fuller, Vice President of Application and Embedded Software, National Instruments

Abstraction HDL

Le premier ensemble de ces outils garantit l’abstraction du langage de description de matériels (HDL). Les langages HDL décrivent le comportement d’un circuit FPGA au niveau du signal et des portes logiques de façon textuelle, et les abstractions HDL tentent de fournir une interface de conception de niveau plus élevé, souvent dans une représentation graphique ou schématique. Parmi ces outils, citons Xilinx System Generator for DSP, Mentor Graphics Visual Elite HDL, et le Module NI LabVIEW FPGA. S’ils réduisent considérablement l’obstacle que représente le HDL à l’adoption de la technologie FPGA, ils n’abstraient pas totalement certains attributs matériels de la conception FPGA comme le pipelining, l’arbitrage de ressources, l’architecture des tranches DSP, et les mémoires sur circuits intégrés. De ce fait, les algorithmes ont toujours besoin d’être retravaillés et revérifiés lorsqu’ils sont portés sur un FPGA, favorisant de nouvelles avancées au niveau des outils de développement.

Synthèse de haut niveau

Les outils de synthèse de haut niveau (HLS) permettent de concevoir des algorithmes à un niveau élevé et ensuite de spécifier indépendamment les attributs de performances pour une implémentation donnée comme la fréquence d’horloge, le débit, la latence et l’utilisation des ressources. Cette répartition garantit la portabilité des algorithmes car l’implémentation spécifique ne fait pas partie intégrante de la définition de l’algorithme. De plus, les développeurs d’algorithmes n’ont pas besoin d’intégrer des considérations spécifiques au matériel dans leurs conceptions (pipelining, arbitrage de ressources, etc.). Le concept de la synthèse HLS existe depuis plus de 20 ans, mais les outils sur le marché viennent seulement d’atteindre la maturité suffisante pour être viables. L’offre comprend Synopsys Synphony, Xilinx AutoESL, Cadence C-to-Silicon et Mentor Graphics Catapult C. Ces outils présentent de nombreux avantages par rapport aux abstractions HDL, mais ils ciblent uniquement les FPGA ou les ASIC et non les autres plates-formes informatiques telles que les microprocesseurs ou les unités de traitement graphique. Dans un effort pour pallier certaines limites des outils HLS, NI a récemment sorti un logiciel bêta qui allie le diagramme par flux de données familier de LabVIEW et les avantages de la HLS pour la conception FPGA. Cela promet d’ouvrir la voie à un grand nombre d’algorithmes de mesure et de contrôle LabVIEW en vue d’une implémentation sur FPGA, sans compromettre l’exécution du microprocesseur ni nécessiter de revoir la conception de l’algorithme de façon significative pour le déploiement sur FPGA. Comme il s’agit d’une version bêta, le logiciel n’est pas encore prêt pour une adoption massive, mais ses premiers résultats sont prometteurs.

Modèles de calcul

La dernière étape de l’évolution des outils de développement s’attache à associer la portabilité des mesures sur diverses cibles matérielles avec plusieurs modèles de calcul et interfaces de conception. Ces modèles de calcul peuvent inclure le diagramme par flux de données de LabVIEW, des diagrammes DSP pour le traitement des signaux multifréquences dans les applications RF et de communication, des mathématiques textuelles pour la saisie de formules ou des machines d’état pour la logique et les protocoles numériques. Prenons par exemple un système sur puce (SOC) de prochaine génération comme la plate-forme de traitement extensible Zynq de Xilinx qui allie un microprocesseur ARM double-cœur et un FPGA. Cette configuration matérielle offre un potentiel phénoménal pour le calcul hétérogène, mais sa programmation risque de s’avérer difficile car le microprocesseur et le FPGA requièrent des langages et des modèles de calcul distincts. Idéalement, les ingénieurs devraient disposer d’une multitude de modèles de calcul supportés pour l’ensemble des cibles, afin de concevoir les algorithmes le plus efficacement possible, et de les déployer ensuite sur la meilleure cible d’exécution pour une application donnée. En l’occurrence, “meilleur” peut vouloir dire très hautes performances, meilleur rapport qualité/prix ou encore plus grande rapidité de mise dur le marché : tout dépend des exigences de l’entreprise. Les outils qui fonctionnent avec des modèles de calcul indifférents au matériel sont en cours de développement et s’appuient bien évidemment sur les besoins actuels des développeurs de systèmes de test.

Si les algorithmes de mesure indépendants du matériel et les outils de synthèse de haut niveau ne se sont pas encore généralisés, les FPGA sont de plus en plus répandus au sein des systèmes de test automatique. Les atouts des FPGA dans le monde du test valent déjà l’investissement accru dans bon nombre d’applications ; par ailleurs, à mesure que les outils logiciels se perfectionnent et que la complexité diminue, le nombre de ces applications ne peut qu’augmenter. De la même manière que les microprocesseurs ainsi que les environnements de développement logiciels et les algorithmes de mesure associés ont amorcé la révolution de l’instrumentation virtuelle, les FPGA programmables par l’utilisateur et les nouveaux outils logiciels vont déclencher la nouvelle révolution de la conception graphique de systèmes, ouvrant la voie aux systèmes de test du futur.

Interfaces externes PCI Express (4/4)

Depuis l’invention du GPIB dans les années 1960, les systèmes de test automatique se sont appuyés sur les PC pour fournir le contrôle central du matériel d’instrumentation et pour automatiser les procédures de test. Sous des facteurs de forme divers et variés (ordinateurs de bureau, stations de travail et systèmes industriels et embarqués) les PC ont largement été utilisés à cette fin. Ils offrent toute une variété de bus d’interface (USB, Ethernet, série, GPIB, PCI et PCI Express) pour interfacer le matériel d’instrumentation dans les systèmes de test automatique. Étant donné le rôle critique des PC dans ce type de système, l’industrie du test et de la mesure doit suivre la progression de l’industrie informatique et exploiter toute nouvelle technologie pour accroître les capacités et les performances tout en diminuant les coûts du test.

Ces dix dernières années, les PC ont évolué rapidement de bien des façons différentes. Comme le prévoyait la loi de Moore, les capacités de traitement du processeur ont augmenté de plus de 75% sur cette période. Outre l’amélioration phénoménale des capacités de traitement, une autre tendance significative s’est traduite par l’émergence des interfaces de communication série et la disparition des interfaces de communication parallèles. Le PCI Express a remplacé les bus PCI, AT et ISA en tant que bus système interne par défaut permettant d’interfacer des matériels périphériques au processeur. Le groupe PCI-SIG (PCI Special Interest Group), consortium qui gère les spécifications PCI, a annoncé en novembre 2011 qu’environ 24 milliards de lignes PCI Express avaient été mises sur le marché depuis l’introduction de ce standard en 2004, ce qui en dit long sur son adoption. De même, pour les interfaces externes, les bus série comme l’USB et Ethernet ont remplacé le port parallèle, le SCSI, ainsi que d’autres bus de communication parallèles. Le rapport d’une étude de marché publié par In-Stat en 2010 prévoit qu’en 2012 le nombre de matériels USB commercialisés dépasse les 4 milliards. Avec la prolifération des standards de communication sans fil comme le Wi-Fi et le Bluetooth, la consolidation des interfaces physiques externes sur les PC est une autre tendance qui émerge depuis peu.

Le bus PCI Express, utilisé dans différentes implémentations, va probablement devenir l’interface de prédilection pour les systèmes de test automatique. Offrant la combinaison idéale d’une bande passante élevée et d’une faible latence, le PCI Express est une technologie extrêmement répandue puisqu’il s’agit d’un élément fondamental de tout PC. Il a également commencé à estomper les limites entre un bus système, utilisé pour interfacer des matériels locaux au sein d’un système, et un bus d’interface, utilisé pour interfacer des matériels périphériques externes au système, et il va probablement continuer à effacer cette distinction.

PCI Express : bus système pour les plates-formes de test automatique

Comme le PCI Express est un bus série, il présente toute une variété d’avantages inhérents par rapport aux bus parallèles comme le PCI et le VME. Les défis techniques, comme le décalage temporel, la consommation électrique, les interférences électromagnétiques, et la diaphonie présente entre les lignes d’un bus parallèle, deviennent de plus en plus difficiles à contourner lorsque l’on tente d’augmenter la bande passante. Techniquement supérieur, le PCI Express ne cesse, depuis son introduction en 2004, de voir ses capacités de transfert de données améliorées. En 2007, la publication des spécifications PCI Express 2.0 a doublé la vitesse de transfert par rapport au PCI Express 1.0, et en 2010, celle des spécifications PCI Express 3.0 a à son tour doublé la vitesse de transfert par rapport au PCI Express 2.0, permettant de transférer des données à 16 Go/s par direction. Bien que le standard PCI Express ait été constamment modifié, ces améliorations n’ont pas été apportées aux dépens de la compatibilité. PCI Express utilise les même couches logicielles que le PCI garantit une parfaite compatibilité. Les plates-formes de test automatique et de mesure qui utilisent le PCI Express en tant que bus système interne, comme le PXI, peuvent profiter de toutes ces avancées pour continuer à offrir toujours plus de capacités à moindre coût. Fortes de leur supériorité technique, de telles plates-formes vont probablement devenir le cœur de tous les systèmes de test automatique.

PCI Express : bus d’interface externe pour les systèmes de test automatique

La latence élevée et la faible bande passante des interfaces externes couramment utilisées pour le test automatique, comme le GPIB et Ethernet, constituent un obstacle à la réduction des temps de test. Ces interfaces restreignent fondamentalement l’efficacité globale d’un système de test en limitant la vitesse de transfert des données et en augmentant le temps nécessaire à chaque transaction. Puisque les microprocesseurs ne permettent pas d’accéder de manière native à ces interfaces externes, généralement une certaine forme de conversion intervient à l’intérieur du PC pour transformer ces données externes en données compatibles avec le bus PCI Express. Comparé à ces autres interfaces externes, le PCI Express offre de meilleures performances et est directement accessible depuis le microprocesseur dans un PC. Cela élimine le goulet d’étranglement inévitable avec d’autres bus d’interfaces externes et réduit considérablement les temps de test.

“À la fois très performant et largement répandu, le PCI Express s’impose comme un bus système sans concurrent. Avec les nouvelles technologies de fibre optique et de câbles en cuivre, il se distingue comme le meilleur choix pour les interfaces externes hautes performances.“

– Mark Wetzel, Distinguished Engineer for Processor Architectures, National Instruments

 

 

 

 

 

 

 

 

L’idée d’utiliser le PCI Express en tant que bus d’interface externe n’est pas nouvelle. Le groupe PCI-SIG supporte une implémentation externe du PCI Express, connue sous le nom de « PCI Express câblé ». Publiée en 2007, cette implémentation offre un moyen transparent d’étendre le bus système pour interfacer les matériels externes. Le « PCI Express câblé » est déjà utilisé dans les plates-formes d’instrumentation modulaire comme le PXI afin de fournir des options de contrôle externe souples et économiques. Normalement, les spécifications PCI Express ne supportent que l’utilisation de câbles en cuivre, ce qui limite la distance entre le PC et le matériel à 7 m. Cependant, utilisée avec des émetteurs-récepteurs électro-optiques, cette technologie peut être étendue au câble en fibre optique pour offrir plus de 200 m de séparation physique et une isolation électrique.

L’utilisation de la technologie « PCI Express câblé » est plutôt couronnée de succès dans les environnements de test automatique. Toutefois, son adoption s’est limitée à quelques industries de niches comparée à la large adoption de la technologie PCI Express générique. Thunderbolt, implémentation plus récente du PCI Express en tant qu’interface externe, est une technologie qu’Intel a promue sous le nom de code Light Peak et qui a toutes les chances de devenir extrêmement populaire. Thunderbolt allie le PCI Express et le protocole vidéo DisplayPort dans un bus d’interface série qui peut être relié par câbles en cuivre ou en fibre optique. Dans la mesure où les PC vont offrir des ports Thunderbolt de manière native, il promet de devenir une solution hautes performances, économique et omniprésente. Les interfaces PC externes au format PCI Express, tout comme d’autres interfaces faible coût telles que l’USB, vont probablement devenir les interfaces par défaut des systèmes de test automatique. Des applications telles que le test en production en volume, ou la vérification et la validation automatisées complexes vont naturellement s’orienter vers les interfaces PCI Express, car elles nécessitent des performances élevées en matière de transfert de données et de latence afin de réduire le coût global du test. Les applications pour lesquelles ces critères sont moins indispensables vont probablement continuer à utiliser d’autres interfaces.

Le choix du PCI Express s’est avéré efficace pour interfacer les PC directement aux matériels. Cependant, il ne peut pas être utilisé comme interface entre des systèmes intelligents qui possèdent leurs propres domaines PCI Express indépendants. Pour pallier ce problème, il suffit d’utiliser un pont non transparent (NTB) PCI Express. En effet, un NTB sépare de manière logique les deux domaines PCI tout en proposant un mécanisme permettant de traduire certaines transactions PCI dans l’un des domaines PCI en transactions correspondantes dans l’autre domaine PCI. Le PCI Express peut alors servir d’interface de communication entre des systèmes intelligents. Les NTB peuvent être utilisés dans une configuration de systèmes pour interfacer plusieurs sous-systèmes intelligents et pour interfacer des systèmes physiquement indépendants lorsqu’ils sont associés au « PCI Express câblé » ou à Thunderbolt. Les spécifications PXI MultiComputing (PXImc), publiées par le groupe PXI Systems Alliance (PXISA) en novembre 2009, standardisent l’usage des NTB et fournissent ainsi un cadre permettant de créer des systèmes de test et mesure complexes hautes performances.

En raison des tendances technologiques de l’industrie du PC, comme la dominance des interfaces de communication série, l’unification des E/S, et la généralisation de la communication sans fil, le PCI Express est incontournable en tant que bus système et devrait s’imposer comme le principale bus d’interface externe. Les systèmes de test automatique qui exploitent le PCI Express dans ses différentes implémentations sont parfaitement positionnés pour offrir les performances les plus élevées et une souplesse optimale pour un coût avantageux. Ils vont devenir un standard de fait dans les applications de mesure et de test automatique.

 

La gestion des compétences selon l’ISO 9001 : savoir lire entre les lignes

Etape 1 : Identification des compétences requises

Il s’agit d’établir la liste des compétences requises pour répondre aux exigences présentes ou anticipées de l’ensemble des parties intéressées dont celles les clients.

Pour faire, il convient de s’appuyer sur les processus identifiés. En effet, l’approche processus doit permettre une meilleure maitrise des activités clés de l’entreprise.

Ainsi, il faut alors décomposer chaque processus en activité clé. Pour mettre en œuvre cette étape, référez-vous à l’article suivant : Poly-compétence / polyvalence : réduisez vos risques de perte de compétences.

Cette grille des compétences, mise à jour autant que nécessaire, constitue le principal élément de sortie de cette première étape.

L’efficacité de l’identification des compétences requises, pourra être évaluée par le degré de couverture des processus du Système de Management de la Qualité.

Etape 2 : Identification des compétences disponibles

Il s’agit ici de déterminer la « deuxième partie de l’équation », c’est-à-dire les compétences disponibles (dites aussi « acquises »), à partir d’évaluations de compétences.

Le recueil des compétences acquises pourra être issu d’un entretien (l’entretien annuel d’évaluation), d’un questionnaire, ou d’une observation, ou encore attestées par des documents (diplômes, qualifications, certifications,…).

Les éléments de sortie se présentent dans la grille des compétences évoquée plus haut.

Comme dans le cas de l’identification des compétences requises, l’efficacité de l’identification des compétences requises, pourra être évaluée par le degré de couverture des processus du Système de Management de la Qualité.

Etape 3 : Évaluation des écarts

Il s’agit d’examiner dans quelle mesure les compétences disponibles sont en adéquation avec les compétences requises.

La grille de poly-compétences ainsi constituée vous permettra d’identifier rapidement les éventuelles carences en compétence.

Plusieurs indicateurs peuvent être utilisés pour estimer l’efficacité du processus d’évaluation, tels que :

  • Taux ou nombre de dysfonctionnements dont la cause est tracée à l’inadéquation entre les compétences et l’activité ou le poste ;
  • Taux de compétences dont la note est inférieure à X (X étant à déterminer selon les besoins dans l’entreprise) ;
  • Note moyenne de polyvalence des équipes.

Etape 4 : Mise à disposition et développement des compétences

L’objectif est ici de définir et mettre en œuvre les actions y compris celles de formations permettant de réduire les écarts constatés à l’issue de l’évaluation.

Par exemple : actions de développement des compétences, recrutement interne ou externe, professionnalisation par des actions telles que formation (professionnelle), tutorat, stage ou accompagnement individualisé (coaching), allocation de ressources matérielles.

Le développement des compétences et leur mise à disposition répondant aux besoins identifiés couvrent plusieurs actions et décisions, telles que :

  • Les recours aux compétences externes à l’organisme (sous-traitance, externalisation, intérim,…) ;
  • Les recrutements ;
  • Les réorganisations, restructurations ;
  • Les actions de formations ;
  • La mobilité ;
  • Conduisent à développer et à mettre à disposition des compétences répondant aux besoins identifiés issus de ces décisions.

L’efficacité des actions décidées, c’est-à-dire leur aptitude à atteindre leurs objectifs (répondre à un manque de compétence), sont à définir préalablement.

L’évaluation d’une formation pourra porter sur la satisfaction des stagiaires, l’évaluation pédagogique (évaluation « à chaud »), mais aussi sur le transfert de connaissances en situation de travail (évaluation « à froid »), et surtout sur son influence dans l’atteinte des objectifs individuels ou collectifs fixés pour les services intéressés de l’organisme.

Etape 5 : Maintien et mise à jour des compétences 

Il s’agit d’assurer que les compétences acquises sont préservées au sein de l’entreprise, en particulier lorsque les activités sont affectées par des changements (arrivées, départs,…) ou par des mouvements de personnels.

Les éléments d’entrée sont :

  • La grille de poly-compétences ;
  • Les indicateurs de l’efficacité des actions de développement des compétences.

Dont on déduira les données permettant la mise à jour de la grille de polycompétence.

Le maintien adapté des compétences se mesure avec des indicateurs liés :

  • Aux pertes de savoir et à la capitalisation d’expérience ;
  • A la polyvalence, l’employabilité, la flexibilité des organisations ;
  • Au taux d’utilisation des compétences acquises ;
  • Aux dispositifs d’apports continus des connaissances (notion de management des connaissances).

Etape 6 : Développement des compétences à long terme

La performance du développement des compétences passe par une réponse à la prise en compte de l’évolution des attentes et des besoins tant de l’organisme (adaptation) que du personnel (anticipation/employabilité) :

  • De l’entreprise (optique ISO 9001), par exemple pour ce qui est de l’estimation des cycles de vie d’un produit, de l’obsolescence d’une technologie ou d’équipements, et par conséquent des changements de types de compétences qui devront être mobilisées ;
  • Du salarié (optique ISO 9004), par exemple pour ce qu’il en est de ses désirs d’évolution, de responsabilisation, d’autorité, de reconnaissance, également pour ce qu’il en est de ses souhaits de mobilité fonctionnelle (type de travail) ou géographique (lieu de travail).

Cette démarche managériale qualitative opère donc une distinction entre les formations d’adaptation et les formations de développement de l‘employabilité.

Pour y parvenir, il convient de déterminer soigneusement les objectifs à atteindre, notamment au moyen de critères autres que ceux qui visent à constater la mise en œuvre concrète des savoirs nouveaux sur le poste de travail.

Source : http://www.qualiblog.fr

Découvrez les formations Techniques de l’Ingénieur :
Mener des audits procédés
Auditeur interne HSE