La gestion des compétences selon l’ISO 9001 : savoir lire entre les lignes

Etape 1 : Identification des compétences requises

Il s’agit d’établir la liste des compétences requises pour répondre aux exigences présentes ou anticipées de l’ensemble des parties intéressées dont celles les clients.

Pour faire, il convient de s’appuyer sur les processus identifiés. En effet, l’approche processus doit permettre une meilleure maitrise des activités clés de l’entreprise.

Ainsi, il faut alors décomposer chaque processus en activité clé. Pour mettre en œuvre cette étape, référez-vous à l’article suivant : Poly-compétence / polyvalence : réduisez vos risques de perte de compétences.

Cette grille des compétences, mise à jour autant que nécessaire, constitue le principal élément de sortie de cette première étape.

L’efficacité de l’identification des compétences requises, pourra être évaluée par le degré de couverture des processus du Système de Management de la Qualité.

Etape 2 : Identification des compétences disponibles

Il s’agit ici de déterminer la « deuxième partie de l’équation », c’est-à-dire les compétences disponibles (dites aussi « acquises »), à partir d’évaluations de compétences.

Le recueil des compétences acquises pourra être issu d’un entretien (l’entretien annuel d’évaluation), d’un questionnaire, ou d’une observation, ou encore attestées par des documents (diplômes, qualifications, certifications,…).

Les éléments de sortie se présentent dans la grille des compétences évoquée plus haut.

Comme dans le cas de l’identification des compétences requises, l’efficacité de l’identification des compétences requises, pourra être évaluée par le degré de couverture des processus du Système de Management de la Qualité.

Etape 3 : Évaluation des écarts

Il s’agit d’examiner dans quelle mesure les compétences disponibles sont en adéquation avec les compétences requises.

La grille de poly-compétences ainsi constituée vous permettra d’identifier rapidement les éventuelles carences en compétence.

Plusieurs indicateurs peuvent être utilisés pour estimer l’efficacité du processus d’évaluation, tels que :

  • Taux ou nombre de dysfonctionnements dont la cause est tracée à l’inadéquation entre les compétences et l’activité ou le poste ;
  • Taux de compétences dont la note est inférieure à X (X étant à déterminer selon les besoins dans l’entreprise) ;
  • Note moyenne de polyvalence des équipes.

Etape 4 : Mise à disposition et développement des compétences

L’objectif est ici de définir et mettre en œuvre les actions y compris celles de formations permettant de réduire les écarts constatés à l’issue de l’évaluation.

Par exemple : actions de développement des compétences, recrutement interne ou externe, professionnalisation par des actions telles que formation (professionnelle), tutorat, stage ou accompagnement individualisé (coaching), allocation de ressources matérielles.

Le développement des compétences et leur mise à disposition répondant aux besoins identifiés couvrent plusieurs actions et décisions, telles que :

  • Les recours aux compétences externes à l’organisme (sous-traitance, externalisation, intérim,…) ;
  • Les recrutements ;
  • Les réorganisations, restructurations ;
  • Les actions de formations ;
  • La mobilité ;
  • Conduisent à développer et à mettre à disposition des compétences répondant aux besoins identifiés issus de ces décisions.

L’efficacité des actions décidées, c’est-à-dire leur aptitude à atteindre leurs objectifs (répondre à un manque de compétence), sont à définir préalablement.

L’évaluation d’une formation pourra porter sur la satisfaction des stagiaires, l’évaluation pédagogique (évaluation « à chaud »), mais aussi sur le transfert de connaissances en situation de travail (évaluation « à froid »), et surtout sur son influence dans l’atteinte des objectifs individuels ou collectifs fixés pour les services intéressés de l’organisme.

Etape 5 : Maintien et mise à jour des compétences 

Il s’agit d’assurer que les compétences acquises sont préservées au sein de l’entreprise, en particulier lorsque les activités sont affectées par des changements (arrivées, départs,…) ou par des mouvements de personnels.

Les éléments d’entrée sont :

  • La grille de poly-compétences ;
  • Les indicateurs de l’efficacité des actions de développement des compétences.

Dont on déduira les données permettant la mise à jour de la grille de polycompétence.

Le maintien adapté des compétences se mesure avec des indicateurs liés :

  • Aux pertes de savoir et à la capitalisation d’expérience ;
  • A la polyvalence, l’employabilité, la flexibilité des organisations ;
  • Au taux d’utilisation des compétences acquises ;
  • Aux dispositifs d’apports continus des connaissances (notion de management des connaissances).

Etape 6 : Développement des compétences à long terme

La performance du développement des compétences passe par une réponse à la prise en compte de l’évolution des attentes et des besoins tant de l’organisme (adaptation) que du personnel (anticipation/employabilité) :

  • De l’entreprise (optique ISO 9001), par exemple pour ce qui est de l’estimation des cycles de vie d’un produit, de l’obsolescence d’une technologie ou d’équipements, et par conséquent des changements de types de compétences qui devront être mobilisées ;
  • Du salarié (optique ISO 9004), par exemple pour ce qu’il en est de ses désirs d’évolution, de responsabilisation, d’autorité, de reconnaissance, également pour ce qu’il en est de ses souhaits de mobilité fonctionnelle (type de travail) ou géographique (lieu de travail).

Cette démarche managériale qualitative opère donc une distinction entre les formations d’adaptation et les formations de développement de l‘employabilité.

Pour y parvenir, il convient de déterminer soigneusement les objectifs à atteindre, notamment au moyen de critères autres que ceux qui visent à constater la mise en œuvre concrète des savoirs nouveaux sur le poste de travail.

Source : http://www.qualiblog.fr

Découvrez les formations Techniques de l’Ingénieur :
Mener des audits procédés
Auditeur interne HSE
 

Avogadro, sa constante : entre mythe et réalité

Introduction

La définition de la mole, unité de mesure des quantités de matière du Système International, date de 1971 soit il y a seulement 41 ans ! Le nombre d’entités (atomes, molécules, ions, électrons, etc.) contenues dans une mole est connue sous le nom de constante d’Avogadro. Cette constante, d’importance fondamentale en chimie, permet de faire le lien entre la matière à l’état microscopique et à l’état macroscopique. C’est l’histoire particulière de cette constante et du scientifique dont elle porte le nom que nous allons détailler dans cet article.

Biographie d’Avogadro

Né à Turin en Italie, le 9 août 1776, le comte Amedeo Avogadro obtient son baccalauréat en 1792. Il suit les pas de son père, célèbre avocat, en entrant à l’université de droit de Turin. Trois années plus tard il reçoit son diplôme de jurisprudence puis le titre de docteur en droit canonique. Exerçant dans des cabinets d’avocats et autres positions administrative, ce n’est que sur la tard qu’émerge sa vocation scientifique.

A la toute fin du XVIIIème siècle, il reçoit des cours de physique, notamment d’électricité et publie, dans la foulée, deux essais sur l’électricité. Ses débuts au sein de la communauté scientifique de Turin sont remarqués et Avogadro devient membre de l’Académie de Sciences de Turin en 1804.

En 1809, ses travaux prennent une nouvelle direction après la lecture de l’ouvrage System of Chemistry de Thomas Thomson, un des premiers chimistes à accepter la théorie atomique. Avogadro s’attache alors durant deux années à prouver, comme nous le verrons, que l’approche atomistique de Dalton et l’approche volumétrique proposée par Gay Lussac ne sont pas aussi incompatibles qu’elles le semblent au début du XIXème siècle. C’est en 1811 qu’Avogadro énonce sa célèbre hypothèse. Ignorée durant les cinquante années qui suivent sa publication, son hypothèse est aujourd’hui reconnue pour avoir permis une avancée conséquente dans la recherche scientifique du XIXème siècle.

En janvier 1815 il épouse Felicita Mazzia avec qui il aura 7 enfants. Avogadro consacre alors le reste de sa vie à la famille plutôt qu’à la poursuite de son succès professionnel. Il décède le 9 juillet 1856 à Turin à l’âge de 80 ans.

Contribution d’Avogadro à la chimie du XIXème siècle

Pour la majorité des chimistes du début du XIXème siècle, l’existence d’atomes semble être une idée complètement farfelue. Une description précise de la matière devient alors nécessaire pour expliquer de nombreux résultats expérimentaux.

Les partisans de la théorie atomique s’accordent sur une description corpusculaire de la matière. C’est à dire que la matière n’est ni continue, ni divisible à l’infini et est donc constituée de particules insécables aujourd’hui appelées atomes. John Dalton (1766-1844), fidèle défenseur de cette théorie énonce, en 1810, dans la deuxième partie de son ouvrage New System of Chemical Philosophy, la loi des proportions multiples. Si deux corps simples A et B forment plusieurs composés, le poids de l’un des corps rapporté au poids de l’autre dans un composé sont entre eux dans le rapport de deux nombres entiers petits. Par exemple, le chlore se combine à l’oxygène pour donner trois composés différents : Cl2O, ClO2 et Cl2O7. Les masses de l’oxygène ramenés à une masse constante de chlore (par exemple 100 g) sont entre eux dans un rapport simple entier, en l’occurrence 1, 4 et 7. Grâce à cette loi, Dalton détermine les poids atomiques relatifs des corps simples en prenant pour unité la masse de l’hydrogène et en considérant que le poids atomique de chaque élément est la quantité pondérale qui s’unit avec un gramme d’hydrogène pour former la combinaison la plus stable.

A la même époque, Gay Lussac s’intéresse à la combinaison de composés chimiques gazeux et énonce une loi assez semblable à celle de Dalton : « Tous les gaz, en agissant les uns sur les autres, se combinent toujours dans les rapports les plus simples… de 1 à 1, de 1 à 2, ou de 1 à 3… Ces rapports de volume ne s’observent point dans les substances solides et liquides, ou lorsqu’on considère les poids. »

Cette théorie est fortement rejetée par Dalton puisqu’elle lui paraissait être incompatible avec la synthèse de l’eau. En effet, Dalton fait l’hypothèse simple – simpliste ? – que deux éléments ne formant qu’une seule combinaison s’associent forcément atome à atome. Il décrit alors la réaction de formation de l’eau par la réaction H + O → HO tandis que les mesures des volumes de Gay Lussac vont dans le sens de la réaction 2H + O → H2O puisqu’elle nécessite la réaction entre deux volumes d’hydrogène et un volume d’oxygène.

Afin de donner une explication théorique à la loi des volumes de Gay Lussac, Avogadro énonce dans son essai publié en 1811, intitulé « Essai d’une manière de déterminer les masses relatives des molécules élémentaires des corps et les proportions selon lesquelles elles entrent dans les combinaisons » :

« Le nombre de molécules intégrantes (i.e ce que l’on appelle simplement les molécules aujourd’hui) dans les gaz quelconques est toujours le même à volume égal, ou est toujours proportionnel aux volumes. »

Pour arriver à son hypothèse, Avogadro explique : puisque les gaz ont tous sensiblement le même coefficient de dilatation et qu’ils se compriment de la même façon (à température et pression identiques), il y a forcément le même « vide » entre les particules donc le même nombre d’espèces dans un même volume. Cependant Avogadro produit une objection à son hypothèse. En effet, si dans une combinaison une molécule d’un gaz se combine avec plusieurs molécules d’un autre gaz, le nombre de molécules du composé résultant devrait rester le nombre de molécules du premier gaz. Or ce n’est pas en accord avec les résultats de Gay Lussac concernant la réaction de formation de l’eau. Pour résoudre ce problème Avogadro émet l’hypothèse que l’hydrogène et l’oxygène sont en fait des molécules diatomiques. L’équation de formation de l’eau devient : 2H2 + O2 → 2 H2O. Avogadro conclut son travail en affirmant que son hypothèse « n’est au fond que le système de Dalton, muni d’un nouveau moyen de précision par la liaison que nous y avons trouvée avec le fait général établi par M. Gay Lussac ». Grâce à son hypothèse Avogadro réconcilie les travaux de Dalton et Gay Lussac.

Ampère énoncera en 1814, trois années plus tard, une hypothèse analogue tout en précisant qu’il n’a eu connaissance de l’hypothèse d’Avogadro qu’après la rédaction de son travail.

L’incompréhension de la communauté scientifique

Dans un premier temps, l’hypothèse d’Avogadro est ignorée, rejetée ou encore incomprise. Cette ignorance peut en partie se justifier par la personnalité quelque peu atypique d’Avogadro. Contrairement à bon nombre de ses contemporains, il n’a pas de mentor. Ne faisant parti d’aucun groupe de recherche, il ne communique et ne voyage pratiquement jamais. Son manque de contact avec le monde intellectuel et scientifique limite l’engouement autour de son essai.

De plus, à cette époque peu de crédits sont apportés aux travaux n’ayant pas été vérifiés expérimentalement. Or Avogadro se restreint à une étude théorique de la chimie, utilisant les résultats expérimentaux d’autres scientifiques.

L’hypothèse d’Avogadro est sans doute trop novatrice par rapport au savoir de l’époque. Supposer des molécules composées de deux atomes semblables paraît scandaleux, surtout dans le cadre de la théorie électrochimique de Berzelius où toute combinaison s’explique par des charges électriques opposées. Enfin son hypothèse suppose l’existence d’atomes au sein du gaz, théorie qui est encore fortement rejetée à cette époque.

La reconnaissance : la constante d’Avogadro

Ce n’est qu’une cinquantaine d’années plus tard que l’hypothèse d’Avogadro est ressuscitée. Dans son mémoire Sunto di un corso di Filosofia chimica publié en 1858, Stanislao Cannizzaro (1826-1910), qui a alors 33 ans, présente ses investigations sur le travail d’un demi-siècle de chimistes et physiciens à travers l’Europe. Bien qu’il n’ajoute pas de nouvelles pièces au puzzle, Cannizzaro a la capacité intellectuelle de relier toutes les informations dont il dispose, éclairant des conceptions qui étaient auparavant obscures et confuses. Il y fait notamment le point sur les cinquante ans qui ont suivi la publication de l’hypothèse moléculaire d’Avogadro.

La première estimation de la constante est réalisée par Loschmidt, à partir de la densité de particules dans un gaz idéal ; elle a pour valeur NL=2.6868×1025 m-3 (constante de Loschmidt). Lorsque le physicien américain Robert Millikan détermine la charge d’un électron en 1910, la communauté scientifique accède à des mesures plus précises de la constante. La charge d’une mole d’électron est connue depuis 1834 grâce aux travaux de Michael Faraday sur l’électrolyse. La valeur du nombre d’Avogadro est alors obtenue en divisant la charge d’une mole d’électron par la charge d’un électron.

En 1909, le physicien Jean Perrin, qui a déterminé le nombre d’Avogadro par différentes méthodes, propose de le nommer en honneur à Avogadro. Depuis 1971, date à laquelle la mole devient l’unité de base des quantités de matière, le nombre d’Avogadro se dote d’une unité, la mol-1 et devient alors une constante.

Importance de la constante d’Avogadro dans la science d’aujourd’hui

Étudier le comportement de chaque atome, molécule ou ion dans un milieu est en pratique impossible. Il est donc nécessaire de généraliser l’étude d’un système à un grand nombre de particules. La grandeur permettant de faire ainsi le lien entre l’échelle microscopique (c’est-à-dire l’échelle qui considère les propriétés individuelles de chaque particule) et l’échelle macroscopique (c’est-à-dire l’échelle qui étudie globalement un grand nombre de particules) est justement la constante d’Avogadro.

En effet on peut facilement faire le lien entre la quantité de matière en mol n, grandeur macroscopique, et le nombre d’atomes N, grandeur microscopique, grâce à la relation suivante :  n=N/NA avec NA la constante d’Avogadro.

Avogadro est donc en quelque sorte à la base de la physique statistique, appelée aussi thermodynamique statistique, qui, à partir des propriétés microscopiques, décrit les propriétés et les évolutions des systèmes physico-chimiques comportant un grand nombre de particules.

La constante d’Avogadro est aujourd’hui l’une des plus importantes constantes de la chimie. Elle apparaît dans de nombreuses lois utilisées aujourd’hui, on peut citer notamment la loi des gaz parfaits :

PV = nRT

où R, constante universelle des gaz parfait est le produit du nombre d’Avogadro et de la constante de Boltzmann kB :

R = NAkB

L’hypothèse émise par Avogadro apparaît directement dans la loi des gaz parfait. A pression et température identiques, un même volume de gaz contient le même nombre de mole donc le même nombre d’entité chimique !

Conclusion

Bien qu’à quelques exceptions près, ses principaux travaux sont tombés dans l’oubli, Avogadro reste connu plus d’un siècle après la publication de son hypothèse. Celle-ci a en effet contribué à de grandes avancées dans la compréhension de la chimie, en particulier :

  • Distinguer atomes et molécules ;
  • Elaborer un système de poids atomiques ;
  • Définir un symbolisme chimique des éléments.

Source : http://culturesciences.chimie.ens.fr/

Le cobalt, meilleur matériau que le platine dans la production d’hydrogène

Deux nouveaux matériaux à base de cobalt viennent d’être mis au point par des chercheurs du CEA, du CNRS et de l’Université Joseph Fourier, à Grenoble et à Saclay. Leur intérêt ? Remplacer le platine, matériau très couteux, dans la production d’hydrogène à partir d’eau (électrolyse). En effet,  l’un de ces matériaux peut fonctionner en solutions aqueuses de pH neutre tandis que le second constitue le premier matériau catalytique sans matériau noble et commutable, c’est-à-dire qu’il peut se transformer de manière réversible d’une forme chimique à une autre, chacune correspondant à une activité catalytique spécifique, capable d’intervenir dans les deux réactions chimiques essentielles à l’électrolyse de l’eau que sont la production d’hydrogène et la production d’oxygène. Ces travaux ont été publiés dans les revues Nature Materials et Nature Chemistry.

Pour rappel, s’affranchir du platine pour produire hydrogène et oxygène nécessite de travailler dans des conditions de pH neutre à basique. Dans un premier temps, les chercheurs avaient opté pour un matériau à base de nickel. Ils avaient réussi à l’immobiliser sur des nanotubes de carbone, mais ce matériau n’était actif qu’en milieu fortement acide. Le catalyseur bio-inspiré à base de cobalt s’est montré plus pertinent. Capable de fonctionner dans des solutions aqueuses de pH neutre, ce catalyseur s’est révélé plus efficaces que prévu : l’activité catalytique obtenue est extrêmement stable sur le long terme et la liaison du catalyseur aux nanotubes décuple sa robustesse.

En parallèle, un autre matériau à base de cobalt a été mis au point. Il s’agit de nanoparticules de cobalt enrobées d’un oxo-phosphate de cobalt. Ce matériau, qui fonctionne aussi dans l’eau de pH neutre, existe sous deux formes entre lesquelles il peut commuter et qui catalysent à partir d’eau soit la production d’hydrogène, soit la production d’oxygène !

A terme, ces deux matériaux à base de cobalt pourraient servir à développer des technologies stables et bon marché pour la production d’hydrogène. Les chercheurs travaillent actuellement à leur intégration dans un système global de photosynthèse artificielle de façon à produire de l’hydrogène de manière totalement renouvelable, à partir d’eau et d’énergie solaire.

Par Audrey Loubens, journaliste scientifique

« L’innovation redevient possible en soudure ! »

Techniques de l’Ingénieur : Delphine Mathilde COSME, quels sont les principaux avantages à l’utilisation des plastiques dans l’assemblage industriel ?

 

Delphine Mathilde COSME : L’utilisation classique des matières plastiques permet d’alléger les pièces. C’est une alternative aux matériaux de forte densité offrant de nombreuses possibilités et une simplification des process. En fonction du choix de la famille de plastique, il est possible d’innover dans les formes, l’esthétique, l’assemblage et même de combiner des fonctions impossibles à réaliser auparavant.

Si on se restreint à la soudure des thermoplastiques que je considère comme un collage, cet assemblage est aussi résistant qu’une soudure en métal. Il convient donc de réhabiliter cet assemblage dans le monde industriel.

La tendance à venir est au collage. Les colles composées en majorité de polymères avec des qualités très diverses et peut donc supprimer de nombreuses étapes en production et simplifier les pièces. Et, contrairement à un assemblage par vis, les contraintes mécaniques sont réparties uniformément sur le plan de joint. Grace à cette propriété, il possible de soulever un camion de 30 tonnes avec une sangle assemblée par collage et sans couture.

L’analyse fonctionnelle d’un objet ou d’un assemblage est indispensable. Mais, toutes les fonctions sont difficilement réalisables par un matériau unique. Chaque matière plastique ayant des propriétés spécifiques par familles. Il faut donc combiner plusieurs familles, soit en créant de nouveaux matériaux qui les combinent, soit en les superposants par collage (laminage, calendrage, contre-collage, coextrusion, ….).

Techniques de l’Ingénieur : Leur usage va donc croissant ?

 

Delphine Mathilde COSME : Oui, surtout dans le collage et la combinaison de différentes technologies. Des assemblages impossibles hier sont devenues possibles aujourd’hui, notamment à travers les nouvelles formulations qui permettent l’adhésion sur tout type de matériaux, un meilleur séchage, un mode de pose facilité, des temps d’utilisation mieux adaptés à chaque application. L’avènement des robots y est pour beaucoup, il facilite la dépose de joint et le mélange des composants en ligne pour les grandes et moyennes séries.

Le plus difficile dans le collage est de maîtriser le process, du stockage des colles jusqu’à la fin du séchage ou de la réaction chimique. En cas de manque de vigilance ou de connaissance, les défauts peuvent être découverts plusieurs semaines après une fabrication. Cette anecdote est arrivée à un constructeur automobile qui après 15 jours de fabrication découvre que tous les panneaux de toit s’arrachaient aux tests. L’origine de ce défaut est simplement due aux conditions atmosphériques qui ne permettent pas toujours de finir la réaction chimique. Les voitures sont désormais mises sous chapiteau à une température contrôlée pendant 36h dès la sortie de la ligne de production avant d’être entreposé sur le parc.

Dans le domaine des soudures des thermoplastiques, les spécialistes sont partis à la retraites sans passer le relais. La chaudronnerie plastique et la maintenance industrielle sont en plein essor et manque de personnel et de formation. C’est un secteur qui recrute.

Quant aux soudures par haute fréquence, ultra son et thermique des feuilles et des films, je ressens une baisse d’intérêt dans notre pays. Beaucoup de machines et de productions sont partis dans les pays du Maghreb ou en Chine. Seules subsistent en France, les machines de soudure intégrées dans des lignes de production complexes avec d’autres technologies d’assemblage, de conditionnement, de stérilisation… rares sont les usines ayant un parc de machines haute fréquence sans difficultés.

Techniques de l’Ingénieur : Quelles sont les innovations dans ce domaine ?

 

Delphine Mathilde COSME : L’introduction du laser dans les soudures des plastiques est l’innovation la plus importante de ces dernières années. J’ai fait les premiers essais en 1992, mais il faudra encore attendre 10 à 15 ans pour un usage plus banalisé. Le laser permet la soudure des thermoplastiques techniques et d’autres matériaux complexes, en 3D.

Dans les technologies telles que la soudure par haute fréquence ou par ultra-son, le manque de formation, les contraintes et les limites sclérosent l’innovation. La soudure par haute fréquence demande des matériaux polaires et se limitent aux épaisseurs inférieures à 5mm et les ultra-sons obligent une conception de pièce et un process adapté. Non sans contrainte, le laser exige un matériau transparent et l’autre opaque pour le faisceau. Pour l’instant, l’investissement est lourd et n’est rentable que pour les très grandes séries. La précision des soudures est redoutable, et leur esthétique va pouvoir enfin évoluer pour certaines applications : l’innovation redevient possible en soudure !

Les pièces devenant de plus en plus techniques, les industriels n’auront pas d’autres possibilités que d’assembler des plastiques et d’autres matériaux les uns aux autres pour superposer les fonctions spécifiques de chacun d’entre eux. L’avenir est donc dans le collage, le laminage, le contre-collage, ou aux multi-matières dans l’injection, le rotomoulage, l’extrusion, le calandrage, l’extrusion-soufflage…

Delphine Mathilde COSME est ingénieure en mécanique de formation. Après une carrière de responsable qualité dans le secteur des soudures de films plastiques, elle se lance en 2002 dans le consulting et la formation spécialisés dans ce secteur. Faisant face à une demande croissante dans le domaine de l’assemblage industriel dans les fortes épaisseurs et les pièces en 3D par soudure, collage, contre-collage, laminage ou autres, son champ de compétence est en perpétuel évolution. Jusqu’à présent, centrée sur le plastique, elle commence, en novembre 2012, une formation diplômante dans la soudure des métaux : IWS (International Welding Specialist). Depuis 2005, elle collabore avec les éditions Techniques de l’Ingénieur comme auteur, et animera prochainement des formations centrées sur l’utilisation des mousses, le remplacement du métal, les différents assemblages possibles, et la soudure des plastiques.

Propos recueillis par Bruno Decottignies

La France libérée du pétrole dès 2050, selon l’ADEME

Dans la perspective du débat sur l’énergie organisé par le gouvernement et qui commence le mardi 20 novembre 2012, l’Agence vient de publier une note intitulée « Contribution de l’ADEME à l’élaboration de visions énergétiques 2030-2050 ».

Elle propose « des scénarios énergétiques et climatiques volontaristes axés sur la maîtrise de la consommation énergétique et le développement de l’offre d’énergies renouvelables ».  Différentes « filières de croissance verte » sont mobilisées pour y parvenir.

Flexibilité : un rôle central joué par le gaz naturel

« Si le réseau de gaz est en 2050 le vecteur énergétique le plus carboné, sa flexibilité et son rôle pour le secteur des transports est central ». Selon l’agence, différentes sources pourraient alimenter le réseau de gaz.

Le gaz naturel d’origine fossile, bien entendu. Mais aussi le biométhane : « en faisant l’hypothèse d’installation de 550 méthaniseurs par an, le gisement accessible peut être porté à 9 Mtep en 2050 en énergie primaire » estiment les auteurs de la note.  

La gazéification de la biomasse (procédé « biomass to gas ») est une troisième source envisageable. Enfin une portion de dihydrogène peut également être mélangée au méthane dans le réseau : lors des pointes de production éolienne ou solaire, l’électricité en excès peut servir à réaliser une électrolyse de l’eau.   

Flexibilité : la technologie des STEP marines mise à contribution

L’ADEME estime que « le gisement mobilisable pour l’éolien terrestre est de 40 GW en 2050. Et de 30 GW en mer ». A ce stade, les objectifs fixé par le Grenelle de l’environnement pour 2020 sont de 19 GW pour l’éolien terrestre et 6 GW pour l’offshore. L’ADEME table donc sur l’installation de 21 GW d’éolien terrestre supplémentaires entre 2020 et 2050, c’est-à-dire en moyenne 0,7 GW par an sur cette période de 30 ans, ou encore une éolienne de 2 MW par jour. A titre comparatif, le groupe PSA, à lui seul, produit environ 10 000 voitures par jour.  

Le gisement mobilisable pour le solaire photovoltaïque est de 60 GW à horizon 2050 estime l’ADEME. L’objectif du Grenelle est de 5,4 GW pour 2020. Selon la Direction générale de l’énergie et du climat (DGEC), cet objectif sera dépassé et ce sont probablement 8 GW qui seront en place en 2020 compte-tenu de la forte popularité du solaire photovoltaïque auprès des français.

Concernant l’hydroélectricité modulable, l’ADEME fait le pari de l’émergence d’une technologie nouvelle en France mais reposant sur des technologies parfaitement matures : à horizon 2050, « une STEP marine est construite». L’association Hydrocoop a identifié 30 sites où la construction de STEP en bordure de mer est possible sur les 500 km de littoral du nord de la France. Avec ce type de STEP, la mer fait office de bassin bas et le bassin haut est perché en bordure d’une falaise d’environ 100 mètres. « La France dispose d’autant de capacités de stockage que nécessaire pour complémenter un important développement de l’éolien et du solaire » estime François Lempérière, président de l’association et ex-président du Comité Français des Grands Barrages (CFGB).

« Une indépendance pétrolière en 2050 »

Dans la vision de l’ADEME, le parc automobile français de 2050 pourrait être constitué d’un tiers de véhicules thermiques au gaz naturel, d’un tiers de véhicules 100% électriques et d’un tiers de véhicules hybrides. De quoi alléger considérablement la lourde facture pétrolière qui plombe actuellement la balance commerciale française. « Le scénario de l’ADEME permettrait de se passer de pétrole pour son usage dans les transports en 2050, ce carburant étant substitué par de l’électricité et du gaz pour les véhicules particuliers et les véhicules utilitaires léger, et par des biocarburants liquides pour les poids lourds. »

Néanmoins l’ADEME ne se prononce pas au sujet du gaz de schiste, sujet hautement stratégique qui fait l’objet d’un débat brûlant. Selon des estimations sommaires américaines, la France disposerait en effet des plus importants gisements d’Europe de cette ressource qui constitue, selon l’ancien premier ministre Michel Rocard, « un don du ciel » pour notre pays. Dans Le Monde, l’ambassadeur chargé des négociations internationales relatives aux pôles arctique et antarctique ajoute au sujet du gaz de schiste : « étant très écolo, je me suis longtemps abstenu. Mais je n’ai rien lu qui soit complètement convaincant. On a un réflexe fantasmé un peu du même type que face aux OGM (…) Peut-on s’en priver ? Je ne le crois pas ».

Louis Gallois, auteur d’un rapport sur la compétitivité de l’économie française, et les 98 PDG des plus grandes entreprises privées françaises estiment également que la France ne peut pas se passer de cette ressource. « On ne passe pas d’un jour à l’autre d’un système énergétique dominé à 85% par les fossiles, à un système tout renouvelables, ou en tout cas dominé par elles. Il y faut du temps. Dans l’intervalle – la transition – on va probablement utiliser plus de gaz » estime sur son blog personnel Cédric Philibert, conseiller  à la Direction internationale de l’ADEME, soulignant l’intérêt du gaz de schiste pour l’économie française.

Faisant l’hypothèse de l’émergence de changements importants concernant les habitudes de mobilité, l’ADEME estime que le parc automobile français pourrait être réduit de 35 millions d’unités aujourd’hui à 22 millions en 2050, même si la population de la France métropolitaine passe de 62 millions à 74 millions sur la période. « Cette hypothèse ambitieuse suppose que la voiture n’est plus majoritairement un bien acheté par le particulier, mais aussi un mode de transport intégré dans un offre bien plus large que l’on paie pour son usage ». Les auteurs de la note ajoutent que « les véhicules sont mutualisés, servent plusieurs fois dans une même journée et transportent plus de voyageurs. Ils sont aussi mieux adaptés à chaque type de trajet avec des différenciations plus fortes entre véhicules urbains et véhicules longue distance, et sont ainsi plus efficaces énergétiquement.»


 

Au bout du compte, selon l’ADEME, le gaz naturel pourrait constituer près de la moitié de l’énergie primaire consommée dans l’ensemble des transports (45%), le reste étant partage entre les biocarburants de 2de et 3ème génération (20%), et l’électricité (32%). Le seul secteur qui pourrait continuer à consommer du pétrole est l’aviation avec le jet fuel pour (3%).  « En 2050, le productible des biocarburants est relativement stable à 3,3 Mtep». L’ADEME estime que la 1ère génération aura complètement disparu en 2050, remplacée par  la 2ème génération qui « constitue la base de la production avec un possible complément de 3ème génération (notamment les carburants à base d’huile d’algue, ndlr) non chiffré.

Des bâtiments économes en énergie et une agriculture intégrée

Grâce à de sérieux progrès au niveau de l’efficacité énergétique, les bâtiments résidentiels et tertiaire pourraient réduire considérablement leur consommation d’énergie pour le  chauffage et la climatisation. Les marges de progrès sont plus faibles dans l’industrie étant donné que les industriels ont déjà fourni d’importants efforts en matière d’efficacité.

Pour le chauffage, et les applications thermiques en général, l’agence mise beaucoup sur la combustion de la biomasse : « l’hypothèse est faite d’un plan de mobilisation ambitieux de la ressource forestière permettant de passer d’un taux de prélèvement sur l’accroissement naturel de la forêt de 48% aujourd’hui à un taux de 75% en 2050. Le gisement accessible pour la combustion est de 18 Mtep »

Enfin, l’ADEME estime que l’agriculture intégrée, une agriculture qui combine les avantages des méthodes de l’agriculture conventionnelle à celle de l’agriculture biologique dans une perspective de compromis entre rendements et impacts environnementaux, constituera l’essentiel (60%) de la production agricole en 2050. Cela permettrait notamment de diminuer les apports d’engrais, et donc de diminuer la consommation d’énergie. L’agriculture intégrée, c’est dés à présent 86% de la production agricole en Suisse.

Selon les auteurs de la note, les français pourraient aussi modifier leurs habitudes alimentaires, et passer d’une ration alimentaire de 3324 kilocalories par personne et par jour aujourd’hui à 3270 kcal en 2050. La part des protéines totales serait réduite d’un quart, passant de 113 grammes par personnes et par jour à 86 grammes. Cela serait possible en réduisant la consommation de viande et de produits laitiers. Au pays des fromages, cela ne sera pas forcément l’objectif le plus facile à atteindre.

Si la « vision 2050 » de l’ADEME se réalisait, les émissions de CO2 seraient divisées d’un facteur 4 dans notre pays qui pèse aujourd’hui 0.9% (0,7% en 2050) de la démographie mondiale. Un petit pas pour le monde. Un grand pas pour la France.

Par Olivier Danielo

Q : « Des gadgets qui comme toujours, permettent de faire la différence dans les moments critiques »

Techniques de l’Ingénieur : Que ressent-on lorsqu’on devient le « monsieur gadget » des services secrets de sa Majesté ?

Q : C’est à la fois un grand honneur et une grande responsabilité. Parce que la sécurité du Royaume-Uni et la vie de nos agents est chaque jour en jeu, mais aussi parce que ce poste a été occupé par des prédécesseurs prestigieux, dont les inventions ont marqué leur époque et continuent de nous inspirer : télescope infrarouge ou encore téléavertisseur, qui n’est ni plus ni moins que l’ancêtre de la téléphonie mobile. Mais aussi jetpack, voiture invisible, lunettes à rayon X, et bien d’autres encore.

Tout cet héritage force le respect et impose d’être à la hauteur des attentes du service. Autant dire que je ne prends pas cette tâche à la légère !

Techniques de l’Ingénieur : De telles responsabilités, n’est-ce pas épuisant nerveusement ?

Q : Même pour les agents qui, comme moi, ne sont pas confrontés au terrain, le recrutement impose des tests quant à notre capacité à maitriser notre stress, à nous organiser, ou encore à manager nos équipes. Dire que nous ne ressentons aucune pression serait un mensonge, mais disons que nous y sommes tous préparés. Sans doute une manifestation de plus du célèbre flegme britannique.

Techniques de l’Ingénieur : Dans ce nouvel opus, votre service subit de nombreux bouleversements, de beaux succès mais aussi quelques revers. Comment les expliquez-vous ?

Q : Disons que le génie informatique de notre adversaire nous a mis à rude épreuve. Son utilisation infaillible des réseaux de télécommunications a été sa force pour nous doubler, jusqu’à ce que l’on utilise les prétendues failles de sécurité de nos systèmes pour le manipuler. L’honneur est donc sauf puisque d’une faiblesse technologique, nous avons su faire notre force. L’intelligence britannique dans toute sa splendeur.

Je souhaite cependant insister sur le rôle décisif des « gadgets » sortis de notre atelier dans cet épisode, basé essentiellement sur la radiolocalisation et la biométrie, qui comme toujours, permettent à notre meilleur agent de faire la différence dans les moments les plus critiques.

 

Propos (presque) recueillis par Bruno Decottignies

L’écoconception : un outil d’innovation pour une chimie durable

Notre société a pris conscience tout récemment – à l’échelle de l’humanité – qu’elle hypothéquait son avenir collectif pour satisfaire son appétit de richesses individuelles. 

Tant que nous n’étions que quelques centaines de millions d’habitants sur Terre à nous partager la majorité des richesses et à générer, par voie de conséquence, la majeure partie des pollutions anthropiques, l’équilibre – critiquable, certes – se maintenait.

Mais avec l’arrivée dans les dernières décennies de près de trois milliards d’individus qui prétendent – fort justement – à un niveau de consommation élevée, et avec les prospectives d’accroissement de la population mondiale dans les années à venir, la communauté internationale en appelle au développement durable pour permettre d’instaurer un nouvel équilibre, véritablement durable ou soutenable.

Cet équilibre doit reposer sur une utilisation raisonnée de nos ressources, quelles qu’elles fussent, dans la mesure où la notion de capacité de renouvellement de toute ressource est intimement assujettie à la vitesse de sa consommation. Ces notions déterminent donc en partie les fondements d’un développement durable défini par :

  • un rythme de consommation des ressources renouvelables qui n’excède pas celui de leur capacité de régénération ;
  • un rythme de consommation des ressources non renouvelables qui n’excède pas celui du développement de ressources de substitution ;
  • une production de quantité de déchets et de pollution qui n’excède pas celle que peut absorber l’environnement.

Et ces notions de rythmes soutenables de consommation de ressources et de production de déchets se retrouvent en réalité dans l’approche holistique de l’écoconception qui vise à la réduction à la source des impacts environnementaux d’un produit ou d’un procédé.

En savoir plus

Recyclage des composites

Les matériaux composites à matrice polymère sont utilisés de longue date à grande échelle dans des applications industrielles variées (transport, bâtiment …).

Leur recyclabilité, perçue comme étant difficile ou pour le moins perfectible du fait de leur hétérogénéité et du recours encore fréquent à des matrices thermodurcissables (infusibles après fabrication), peut toutefois constituer un frein à leur pénétration plus large de certains marchés. Certains utilisateurs peuvent en effet être amenés à préférer aux composites des matériaux alternatifs plus facilement recyclables.

Les préoccupations environnementales et la pression réglementaire ont poussé les industriels de la filière des matériaux composites à développer des solutions de recyclage et de valorisation, matière, thermique/énergétique ou chimique.

Dans un contexte réglementaire, différentes initiatives professionnelles visent à mettre en place des filières de démantèlement/recyclage/valorisation de ces matériaux par secteur d’application ou de manière transversale.

En savoir plus

Enjeux et perspectives des déchets

La politique des déchets s’inscrit en application de la politique communautaire de l’environnement telle que prévue aux articles 174 à 176 du traité instituant la Communauté européenne CE (ex-articles 130 R à T).

Elle a pour objectifs notamment la préservation, la protection et l’amélioration de la qualité de l’environnement, la protection de la santé des personnes et l’utilisation prudente des ressources naturelles. Elle est fondée sur les principes de précaution et d’action préventive, sur le principe de correction, par priorité à la source, des atteintes à l’environnement et sur le principe du pollueur-payeur.

Depuis 1975, année des premiers textes adoptés en droit tant communautaire qu’interne, le législateur et les pouvoirs publics ont adopté de nombreuses dispositions tendant à insérer les déchets dans une réglementation visant à réduire leur production et à assurer une meilleure gestion.

Malgré tout, le bilan reste encore aujourd’hui mitigé et, dans un rapport intitulé « Évaluation globale – l’environnement en Europe – Quelles orientations pour l’avenir », la Commission européenne soulignait que les problèmes soulevés par les déchets « s’accroissent toujours plus vite que ne sont mises en œuvre les mesures destinées à les maîtriser et à les éviter en raison de nos habitudes de consommation » (Office des publications officielles des Communautés européennes, Luxembourg, 2000, p. 14).

Une interrogation d’ordre sémantique sur la portée du concept de déchet a une incidence économico-politique considérable et suscite encore aujourd’hui nombre de débats.

Les enjeux dans ce domaine sont tels que les pouvoirs publics ont introduit des instruments fiscaux sur les activités polluantes, aujourd’hui fondus dans le cadre de la taxe générale.

Par ailleurs, dans le contexte de simplification de la réglementation, la commission a proposé une stratégie schématique pour la prévention et le recyclage des déchets (COM (2005) 666) à laquelle est annexé un projet de directive cadre sur les déchets.

Les textes applicables aux déchets sont analysés dans le dossier [G 2 021] afin de déterminer quelles obligations pèsent sur le producteur des divers types de déchets tout au long de leur cycle de vie.

En savoir plus

Le plastique c’est fantastique !

Comme son nom peut le laisser deviner, la société de Mr Bidell produit des polymères à partir de plastique recyclé. 

« Nous n’utilisons que des plastiques destinés à la décharge. Aux Etats-Unis, le recyclage est encore quelque chose d’un peu… lointain. Mais les choses évoluent, petit à petit. »

Pour Mike Bidell, l’enjeu derrière le montage d’un business à long terme dans le domaine du recyclage des plastiques n’est pas technique : « les procédés techniques, chimiques de transformation des plastiques sont connus, et la recherche ne cesse d’évoluer dans ce domaine. Même s’il faut savoir que recycler des plastiques est très difficile, car ils se ressemblent tous. Ainsi, le vrai défi aujourd’hui est plutôt la collecte. Il faut impérativement, pour développer ce marché, mettre en place un filière de collecte des plastiques usagés à travers tous les Etats-Unis ».

 

MBA Polymers

Le marché est là

Aujourd’hui, si les filières de recyclage aux Etats-Unis sont balbutiantes, en ce qui concerne les plastiques en tout cas, le marché est là.

Ainsi, le secteur du recyclage des plastiques a décollé l’année dernière avec environ 28 milliards  de dollars de chiffre d’affaires. 

Mais malgré la demande des recycleurs, seuls 20 % des plastiques sont recyclés, en baisse par rapport aux 40 % de 1994.

Et pourtant, fabriquer du plastique recyclé nécessite 80 % d’énergie en moins qu’à partir de produits pétroliers.

L’énorme augmentation des eaux en bouteilles plastiques, qui sont rarement recyclées car elles sont souvent consommées hors domicile, explique ces chiffres. Et rares sont les poubelles dédiées pour les bouteilles plastiques.

200 bouteilles par personne et par an

L’impact sur l’environnement est considérable : il faut 1,5 milliard de barils de pétrole pour satisfaire la demande d’eau minérale. Le nombre de bouteilles en plastiques a triplé depuis 1976 et atteint presque 200 bouteilles par personne et par an.

Il y a donc matière à recycler… ce que confirme Mike Bidell : « nos clients sont internationaux : Autriche, Angleterre, Chine… nous multiplions ces derniers mois nos nouvelles implantations, sur un marché en forte croissance. »

Se vantant d’être un des seuls êtres humains se frottant les mains devant l’augmentation des prix du pétrole, le fondateur de MBA Polymers compte majoritairement dans ses clients des producteurs d’appareils électroménagers et de consommation, ainsi que de pièces industrielles.

« Nos clients ont tous besoin, par choix stratégique ou par souci d’image, de se pencher sur les problématiques de gaspillage et d’énergie. Et le produit que nous offrons répond à ces attentes. Aujourd’hui, on fait des produits recyclés de grande qualité, aussi performants que les plastiques produits à base de pétrole ».

Par P.T

Remplacer les anciens ordinateurs portables serait néfaste pour l’environnement

L’étude de l’Öko-Institut en Allemagne a révélé que le procédé de fabrication des appareils relevant des technologies d’information et de communication (TIC), comme les « notebooks » ou les ordinateurs portables, représentait une grande partie de l’empreinte carbonique de ces produits, en raison de sa nature hautement énergivore.

La phase de production, 56 % des émissions à effet de serre d’un ordinateur portable, a un impact clairement plus important que la phase d’utilisation, peut-on lire dans cette étude. En bref, si la durée de vie d’un portable est de cinq ans, 214 kilogrammes d’équivalent dioxyde de carbone sont générés par sa fabrication et 138 kilogrammes (36 %) par son utilisation.

D’autres études estiment même que la contribution de la phase de production aux émissions à effet de serre totales d’un ordinateur portable s’élève à 57-93 %.

Si un nouvel ordinateur portable est 10 % plus efficace sur le plan énergétique qu’un ancien modèle, les émissions générées par la production, la distribution et son élimination ne compenseraient cette efficacité qu’au bout de 41 années d’utilisation, selon ce rapport. Toutefois, si l’amélioration d’un nouvel ordinateur portable en matière d’efficacité énergétique dans la phase d’utilisation est de 70 %, la période d’amortissement peut être ramenée à environ 13 ans.

« En ce qui concerne l’environnement et le potentiel de réchauffement de la planète, il n’est pas opportun d’acheter un nouvel ordinateur portable au bout de quelques années seulement, même si l’efficacité énergétique supposée de ce nouvel appareil repose sur des technologies de pointe », ont ajouté les scientifiques.

Augmentation de l’empreinte carbonique

Les émissions de dioxyde de carbone du secteur des TIC devraient passer de 530 millions de tonnes d’équivalents CO2 en 2002 à 1,43 milliard en 2020, selon un rapport de la Global e-sustainability Initiative(GeSI), un consortium de sociétés de pointe dans le secteur des TIC.

La durabilité des TIC constitue donc un problème de plus en plus pressant, dans la mesure où les émissions de ce secteur sont désormais comparables à celles du secteur de l’aviation, réglementées à l’échelle européenne.

Les gouvernements européens ont déjà commencé à adopter volontairement des stratégies politiques à long terme à l’échelle nationale pour rendre les TIC plus écologiques et ainsi réduire leurs émissions de carbone et leur consommation d’énergie.

La Commission européenne examine en outre la possibilité d’imposer des règles sur le « verdissement » des TIC à l’échelle de l’UE.

Failles

Les consommateurs achètent de nouveaux appareils tous les trois ans en moyenne, alors que leurs anciennes machines pourraient être remises au goût du jour. Cette tendance découle généralement du taux d’innovation élevé des TIC et de la baisse des prix pour les nouveaux appareils, ce qui rend le cycle de vie des produits « extrêmement » court, ajoute l’Öko-Institut.

Dans le même temps, les nouveaux modèles d’ordinateurs portables deviennent de plus en plus efficaces sur le plan énergétique dans leur phase d’utilisation, ce qui encourage les consommateurs à les acheter. Cette étude montre cependant que pour l’instant, leur capacité d’économie d’énergie n’est calculée que pour la période d’utilisation, sans prendre en compte la phase de production.

La politique européenne actuelle sur l’écoconception des produits consommateurs d’énergie se concentre uniquement sur l’amélioration de l’efficacité énergétique ou la réduction de la consommation d’énergie dans la phase d’utilisation. Les auteurs du rapport exhortent les décideurs politiques de l’UE à adapter les règles sur l’écoconception aux problèmes qui affectent le secteur des TIC tout au long du cycle de vie des produits.

Ils proposent une série de mesures qui pourraient prolonger la vie des appareils, comme  :

  • l’amélioration du matériel informatique ;
  • la construction modulaire ;
  • des conceptions axées sur le recyclage ;
  • la disponibilité de pièces de rechange ;
  • la normalisation des composants ;
  • l’extension des périodes de garantie minimales.

« Les utilisateurs attribuent de la valeur à la durée de vie des batteries pour l’usage mobile des ordinateurs portables. Il est dès lors plus important de prendre des mesures visant à prolonger la durée de vie de ces appareils dans leur ensemble et de permettre une récupération plus efficace des matières premières », a déclaré Siddharth Prakash, directeur de projet et expert des TIC respectueuses de l’environnement pour l’Öko-Institut.

Une autre faille « cachée » résulte de la présence de certaines matières premières rares dans les ordinateurs portables. Le taux de recyclage peu élevé de ces matières, en plus de leur procédé d’extraction complexe, peut poser des risques environnementaux et sociaux.

« Le cobalt, par exemple, est surtout extrait des mines de la République démocratique du Congo dans des conditions dangereuses, avec des mesures de sécurité insuffisantes pour les travailleurs qui sont en partie des enfants », peut-on lire dans l’étude.

« Même dans un pays moderne à la pointe comme l’Allemagne, une grande partie de ces matières premières sont irrémédiablement perdues au cours du cycle industriel en raison des failles des infrastructures de recyclage, notamment pour la collecte et le prétraitement des déchets », a expliqué M. Prakash.

Source : EurActiv.fr

Tests automatiques et multiplication des appareils mobiles (1/4)

L’une des principales tendances du test automatique ces trois dernières décennies a été la transition vers les plates-formes modulaires sur PC qui utilisent les toutes dernières technologies informatiques « sur étagère » avec des processeurs de plus en plus puissants, de nouveaux bus d’E/S et des systèmes d’exploitation plus évolués. Tandis que cette tendance a toutes les chances de se poursuivre, une nouvelle variété de matériels informatiques, à savoir les tablettes et les smartphones, a vu le jour, offrant ainsi aux sociétés avant-gardistes de nouvelles opportunités de tirer parti des technologies « sur étagère » dans les systèmes de test automatique.

Des matériels portatifs intelligents sont utilisés depuis presque 10 ans sous la forme des PDA. Mais l’introduction de l’iPhone puis de l’iPad d’Apple, ainsi que d’autres matériels similaires équipés des logiciels de Google, Microsoft ou autres, a inauguré une nouvelle ère de l’informatique mobile, avec des centaines de millions de smartphones et des dizaines de millions de tablettes vendus aux particuliers comme aux entreprises. Le succès actuel des tablettes et des smartphones a été favorisé par trois caractéristique décisives.

L’abandon du stylet ou du clavier physique au profit d’interactions multitouches avec l’appareil s’est généralement traduit par une expérience utilisateur de meilleure qualité et plus intuitive ; d’une grande disponibilité, les applications ont spécialement été optimisées pour les matériels mobiles ; et la couverture Wi-Fi et sans fil cellulaire quasi totale a permis de garantir la connectivité pour ces matériels presque partout dans le monde.

“Les tablettes et les smartphones sont des matériels informatiques de plus en plus répandus et il devraient compléter les ordinateurs portables et de bureau dans le cadre d’un accès à distance à des données importantes.“

Jean-Claude Monney, Chief Technology Strategist, Microsoft US Discrete Industries.

Appareils mobiles pour le test automatique

 

Si les tablettes et les smartphones ne peuvent remplacer ni les PC ni les plates-formes de mesure à base de PC comme le PXI, tous deux omniprésents dans le monde de la mesure, ils offrent cependant des atouts exceptionnels lorsqu’ils sont utilisés en tant qu’extension d’un système de test. D’après une étude du Pew Research Center, la plupart des utilisateurs de tablettes s’en servent principalement pour la facilité de consultation du contenu.

Lorsque la société The Nielsen Company a interrogé un échantillon de personnes en 2011 pour comprendre pourquoi elles utilisaient des tablettes à la place de PC traditionnels, les principales raisons citées étaient les améliorations apportées à l’expérience utilisateur comme une portabilité supérieure, la facilité d’utilisation, un démarrage plus rapide et une plus grande longévité de la batterie.

 

Au vu de ces informations, on peut s’attendre à ce que les appareils mobiles soient utilisés dans le cadre du test automatique pour le contrôle et la surveillance des systèmes de test, ainsi que la visualisation des données de test et des rapports.

1. Contrôle et surveillance de systèmes de test : les techniciens, les ingénieurs et les responsables de test peuvent accéder directement à un système de test depuis une tablette ou un smartphone. Cela peut être utile lorsque le système de test se trouve à proximité (dans le même bâtiment ou campus), mais ça l’est beaucoup plus nettement lorsque l’appareil mobile fournit une seconde interface utilisateur à un système de test situé à l’autre bout du monde. Une tablette ou un smartphone permet instantanément d’afficher toute une variété d’informations relatives à un système de test distant ou de contrôler son mode de fonctionnement. Pour ce cas d’utilisation, le système de test lui-même ou un proxy doit avoir accès soit à un intranet local, soit à Internet. Un accès intranet permet une surveillance à distance depuis un appareil mobile sur le même campus ou via un accès VPN à l’intranet. Un système de test connecté à Internet, quant à lui, est théoriquement accessible à partir d’un appareil mobile partout dans le monde.

2 Visualisation des données de test et des rapports : au lieu d’interagir directement avec les systèmes de test, l’équipe en charge peut choisir de visualiser des rapports de test consolidés qui caractérisent les résultats des tests précédents et identifient les tendances. Dans ce cas d’utilisation, les systèmes de test eux-mêmes n’ont pas besoin d’être connectés au réseau à condition que leurs données soient disponibles sur un autre ordinateur doté d’un accès à ce même réseau. Ces machines secondaires servent à stocker les résultats de test, analyser les données et créer des rapports qui peuvent être communiqués aux utilisateurs distants disposant d’un accès mobile.

Pour ces deux cas d’utilisation, le fait de fournir à un département de test un accès mobile à des informations importantes via des tablettes et des smartphones se heurte à deux difficultés majeures. La première concerne l’approche appropriée pour échanger les données sur le réseau. Les départements de test ont le choix entre plusieurs protocoles de communication (TCP, UDP et HTTP). Toutefois, une tendance remarquable dans le monde des technologies de l’information (TI) est l’orientation vers les services Web pour l’échange de données entre serveurs et clients.

Services Web

Un service Web est une interface de programmation d’application (API) à laquelle un large éventail de clients peut accéder via HTTP. Lorsqu’ils sont appelés, les services Web renvoient une réponse lisible en clair (généralement au format XML). Pour appeler un service Web spécifique, qui peut représenter l’état d’un système de test, les derniers résultats de test de la journée, ou n’importe quelles autres données que les clients souhaitent visualiser, il suffit d’effectuer une requête HTTP vers une URL, d’effectuer une analyse syntaxique de la réponse, et ensuite de la communiquer à l’utilisateur.

Les départements de test tirent plusieurs avantages lorsqu’ils utilisent les services Web comme moyen de communication entre un client mobile et une application serveur. Tout d’abord, les services Web sont simples d’accès à partir de n’importe quel langage de programmation (C, C++, Objective C et LabVIEW). Ensuite, comme ils s’appuient sur des protocoles courants tels que le HTTP, la communication est adaptée aux TI et peut être facilement cryptée via des technologies standard comme SSL.

C’est la même technologie utilisée par les banques pour sécuriser leurs transactions sur leurs sites Web. Pour toutes ces raisons, les principales sociétés sur le marché de l’Internet comme Google, Yahoo!, Microsoft, et Amazon diffusent la majeure partie de leurs fonctionnalités (par exemple, la recherche, le mappage, le cloud computing, etc.) aux clients distants au travers des services Web.

Applications mobiles natives ou via le Web

Une fois que le client dispose des données, une application sur l’appareil mobile peut y avoir accès et les afficher. La construction d’une application mobile commence par une décision cruciale : l’application doit-elle être native au système d’exploitation ou doit-elle s’exécuter dans le navigateur du matériel ? Ce choix a un impact énorme sur chaque aspect de l’application, du savoir-faire nécessaire à son développement jusqu’aux caractéristiques qu’il peut offrir et ses méthodes de distribution.

Une application native sur tablettes et smartphones est conçue pour un matériel spécifique comme l’iPad. Elle utilise les API intégrées pour accéder aux caractéristiques ou aux ressources du matériel, dépend du système d’exploitation de ce dernier, et doit respecter les règles du fournisseur concernant ce qu’une application peut faire ou non. Les applications natives sont généralement plus riches, plus interactives, et plus étroitement intégrées au matériel que les applications Web. Cependant, elles exigent une bonne connaissance de la plate-forme mobile et des outils de développement pour la création (par exemple, Apple iOS et l’environnement de développement XCode); en règle générale, elles ne peuvent pas être réutilisées d’une plate-forme à une autre, et elles doivent être distribuées via le portail d’un fournisseur (par exemple l’App Store d’Apple)

Il est important de noter que le paysage de l’appareil mobile s’est rapidement métamorphosé ces cinq dernières années. Alors que RIM et Nokia se partageaient une énorme part du marché de la téléphonie il y a cinq ans de cela, PC Magazine a récemment publié qu’Android de Google occupe actuellement 43 % du marché du smartphone actuel (Apple n’arrivant qu’en deuxième place avec 28 %). De plus, alors que cinq ans en arrière le marché des tablettes était balbutiant et fragmenté, l’iPad domine le marché actuel, avec dans son sillage des concurrents, tels que Microsoft ou RIM, qui tentent agressivement de rattraper leur retard. À la vitesse où les choses changent, il est difficile de prévoir combien de temps les applications natives pour une plate-forme spécifique vont s’avérer rentables.

Par ailleurs, toutes les tablettes et tous les smartphones intègrent un navigateur Web mobile. Les applications Web écrites en HTML et en JavaScript (les même technologies que celles utilisées pour la création de sites Web) sont parfaitement portables sur n’importe quel matériel et sont distribuées gratuitement sur tous les smarphones et toutes les tablettes sans devoir passer par le portail d’un fournisseur. Si les applications Web semblent offrir des avantages considérables par rapport aux applications natives, elles n’en restent pas moins des compromis. Les applications qui s’exécutent au sein d’un navigateur mobile ne peuvent pas accéder aux API intégrées au matériel, ce qui se traduit par une expérience utilisateur moins interactive et moins « immersives » qu’avec des applications natives.

Besoin d’une solution complète

L’explosion des appareils mobiles comme les tablettes et les smartphones offre des atouts remarquables aux ingénieurs, techniciens, et responsables en charge du test automatique qui ont besoin d’un accès distant aux informations relatives aux états des tests ainsi qu’aux résultats. Les technologies actuelles offrent certes des solutions pour la surveillance ou la génération de rapports via des appareils mobiles, mais les départements de test vont avoir besoin d’un nouveau savoir-faire pour unifier les différentes parties de la solution (mise en réseau, services Web et applications mobiles).

Retrouvez l’ensemble du rapport d’étude 2012 du test automatique sur le site de National Instruments

Caméra thermiques pour applications hautes tensions

 

Excellente résolution de mesure, grossissement maximal

FLIR Systems est le leader mondial pour les caméras thermiques destinées à une grande variété d’applications. Ces caméras thermiques sont utilisées pour les inspections des systèmes électriques et mécaniques. Généralement, les installations électriques chauffent avant de tomber en panne. Une caméra thermique comme la FLIR T640 ou la FLIR P6xx permet d’inspecter les installations à haute et basse tension, et ainsi de détecter les zones pouvant présenter un problème et d’éviter les pannes. Si ces problèmes passent inaperçus, ils peuvent provoquer un incendie.

 

Packs pour fournisseurs d’électricité

FLIR Systems propose aujourd’hui des packs réservés aux applications électriques haute tension. Ces offres exclusives sont valables jusqu’au 31 décembre 2012, mais non cumulables avec les autres offres promotionnelles de FLIR Systems. Voici leur description :

 

Pack FLIR T640

Il contient :

•    une caméra thermique FLIR T640

•    un objectif de 15° offert, permettant d’inspecter les objets distants comme les lignes électriques aériennes et les postes électriques de transformateur, gratuit.

•    une formation Level I de cinq jours organisée par l’ITC (centre de formation à l’infrarouge), qui vous permettra de maximiser l’utilisation de votre caméra et de ses objectifs

Ce pack vous fait économiser 5.490 €*

Pack FLIR P6xx

Il contient :

•    une caméra FLIR P620, FLIR P640 ou FLIR P660

•    un objectif de 12° offert, permettant d’inspecter les objets distants comme les lignes électriques aériennes et les postes électriques de transformateur, gratuit.

•    une formation Level I de cinq jours organisée par l’ITC (centre de formation à l’infrarouge), qui vous permettra de maximiser l’utilisation de votre caméra et de ses objectifs

 

Ce pack vous fait économiser 9.560 €*

 

640 × 480 pixels pour une excellente résolution des mesures

Chez les fournisseurs d’électricité, les spécialistes de l’imagerie thermique doivent parfois travailler à distance. Ils doivent pouvoir inspecter des petits détails à grande distance, à partir du sol.

 

C’est pourquoi FLIR Systems a choisi la FLIR T640 et la FLIR P6xx pour le pack qui leur est destiné. Ces deux modèles produisent des images d’une grande qualité, de 640 × 480 pixels, et possèdent toutes les caractéristiques nécessaires pour inspecter avec exactitude les installations à haute et basse tension.

 

Des téléobjectifs pour un grossissement maximal

L’objectif de 15° produit un grossissement presque 1,7 fois supérieur à celui de l’objectif standard de 25°. Celui de 12° un grossissement presque double. Ils sont parfaits pour inspecter les cibles distantes, comme les transformateurs et les lignes électriques aériennes. Ce sont donc d’excellent accessoires pour tous les fournisseurs d’électricité.

* Hors taxes. Cette offre est valable du 1 septembre 2012 jusqu’au 31 décembre 2012. Elle n’est cumulable avec aucune autre offre promotionnelle de FLIR, et s’exerce dans les pays suivants : tous les pays d’Afrique, Albanie, Allemagne, Autriche, Belgique, Bosnie, Bulgarie, Chypre, Croatie, Danemark, Espagne, Estonie, Finlande, France, Grèce, Guadeloupe, Hongrie, Irlande, Islande, Israël, Italie, la Réunion, Lettonie, Lituanie, Luxembourg, Macédoine, Malte, Martinique, Monténégro, Norvège, Nouvelle-Calédonie,  Pays-Bas, Pologne, Polynésie française, Portugal, République tchèque, Roumanie, Royaume-Uni, Serbie, Slovaquie, Slovénie, Suède, Suisse, Turquie .

 

Demande d’informations

FLIR Systems lance son PROGRAMME DE REPRISE 2012

 

FLIR Systems souhaite que le plus grand nombre possible de professionnels de l’imagerie thermique travaille avec les meilleures caméras du marché.

Il y a deux ans, de nombreux experts en imagerie thermique ont saisi l’occasion de remplacer leur ancienne caméra thermique par un des modèles les plus récents de FLIR Systems, au cours d’une campagne d’échange de FLIR. « Ces campagnes séduisent un grand nombre d’utilisateurs », déclare Fabrizio Radice, directeur de la distribution en Europe et en Afrique chez FLIR Systems.

 

FLIR Systems lance donc son PROGRAMME DE REPRISE 2012.

Si vous échangez votre ancienne caméra thermique, quels que soient son âge et sa marque, vous économisez 20 %sur un choix de caméras thermiques de FLIR Systems. Les accessoires et les logiciels commandés avec la nouvelle caméra thermique bénéficient aussi de la remise de 20 %.

Avantages

Les professionnels de l’imagerie thermique qui décident d’échanger leur ancienne caméra thermique contre un nouveau modèle de FLIR Systems bénéficient :

•     de la technologie MSX exclusive de FLIR

•     de fonctions exclusives telles que les annotations à l’écran, l’écran tactile…

•     de la connectivité Wi-Fi avec leur iPhone ou leur iPad

•     d’une caméra plus légère et plus compacte

•     d’une plus grande utilisabilité, de fonctions plus avancées

•     d’une plus grande résolution, d’une meilleure qualité d’image

•     de la technologie MeterLink

 

Cette année, les utilisateurs peuvent économiser jusqu’à 7.130 € sur un choix de caméras thermiques FLIR, y compris les derniers modèles T640 / T620.

 

Toutes les marques

Le programme de reprise 2012 n’est pas réservé exclusivement aux clients possédant une ancienne caméra FLIR. Les modèles de toutes les marques peuvent être échangés contre une nouvelle caméra FLIR, quels que soient leur âge et leur construction.

 

Quelles sont les caméras thermiques FLIR concernées par ce programme ?

Selon la résolution de l’ancienne caméra, le client peut choisir divers modèles de FLIR Systems.

 

Le tableau suivant présente les différentes possibilités.

Résolution du détecteur de l’ancienne caméra thermique

Caméras thermiques FLIR concernées

Économie maximale

≤ 240 x 180 pixels

FLIR E60

FLIR T420

FLIR T440

2.390 €*

> 240 x 180 pixels

FLIR T440

FLIR T620

FLIR T640

FLIR P620

FLIR P640

FLIR P660

7.130 €*

 

* Hors taxes. Cette offre est valable du 1 septembre 2012 jusqu’au 31 décembre 2012. Les images sont uniquement destinées à illustrer.  Les spécifications techniques peuvent changer sans préavis. Elle n’est cumulable avec aucune autre offre promotionnelle de FLIR, et s’exerce dans les pays suivants : Allemagne, Autriche, Belgique, Bulgarie, Chypre, Danemark, Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Malte, Pays-Bas, Pologne, Portugal, République tchèque, Roumanie, Royaume-Uni, Slovaquie, Slovénie, Suède.

 

Garantie

Le PROGRAMME DE REPRISE 2012 apporte une garantie de deux ans sur toutes les caméras thermiques portables destinées aux applications industrielles ou du bâtiment et dotées d’un détecteur microbolomètre non refroidi. Le microbolomètre non refroidi lui-même est couvert par une garantie de dix ans. En cas de problème pendant cette période, FLIR Systems remplacera gratuitement le détecteur ou même, selon le cas, toute la caméra thermique. Pour bénéficier de cette garantie, le propriétaire de la caméra thermique FLIR doit enregistrer son produit sur le site web de FLIR. Il doit effectuer cet enregistrement dans les 30 jours suivant son achat.

 

Demande d’informations

Packs promotionnels pour la FLIR i7 et la FLIR E60

 

Les caméras thermiques trouvent progressivement leur place dans la boîte à outils de chaque électricien. Un nombre croissant d’utilisateurs passent du pyromètre à une caméra thermique pour mesurer les températures sans contact.

Si vous décidez de remplacer votre pyromètre et acheter une FLIR i7 ou une FLIR E60 avant la fin de l’année, FLIR vous offre les packs suivants.

 

FLIR i7

Si vous commandez une FLIR i7, vous recevrez GRATUITEMENTles accessoires suivants :

•    une sacoche

•    une ceinture porte-outils

•    un chargeur à brancher sur votre véhicule lorsque vous allez sur votre prochain site d’intervention

Ce pack vous fait économiser 116 €*

 

FLIR E60

Si vous commandez une FLIR E60, vous recevrez GRATUITEMENT:

•    une sacoche

•    une batterie supplémentaire

•    le logiciel FLIR Reporter, qui vous aidera à créer des rapports d’inspection complets

Ce pack vous fait économiser 381 €*

 

Profitez de ces offres exclusives et commandez votre FLIR i7 ou votre FLIR E60 avant le
31 décembre 2012

* Hors taxes. Cette offre est valable du 1 septembre 2012 jusqu’au 31 décembre 2012.
Elle n’est cumulable avec aucune autre offre promotionnelle de FLIR, et s’exerce dans les pays suivants : tous les pays d’Afrique, Albanie, Allemagne, Autriche, Belgique, Bosnie, Bulgarie, Chypre, Croatie,
Danemark, Espagne, Estonie, Finlande, France, Grèce, Guadeloupe, Hongrie, Irlande, Islande, Israël, Italie, la Réunion, Lettonie, Lituanie, Luxembourg, Macédoine, Malte, Martinique, Monténégro, Norvège,
Nouvelle-Calédonie,  Pays-Bas, Pologne, Polynésie française, Portugal, République tchèque, Roumanie, Royaume-Uni, Serbie, Slovaquie, Slovénie, Suède, Suisse, Turquie . 

 

Demande d’informations

Nouvelle série LS de caméra thermique FLIR

La nouvelle caméra thermique FLIR série LS permet à chaque professionnel de la sécurité de voir clair dans l’obscurité totale. Aux forces de l’ordre, aux patrouilles de sécurité et à tous ceux qui doivent voir la nuit sans être vus, elle fournit les informations nécessaires pour prendre des décisions critiques, augmenter l’efficacité des missions, maximiser les capacités opérationnelles et améliorer la sécurité.

Les caméras série LS sont extrêmement économiques. À présent, chaque professionnel de la sécurité peut bénéficier pour un prix modique d’un équipement de vision thermique de nuit avec la dernières technologie de Flir.

 

D’excellentes images thermiques

La FLIR série LS est dotée d’un détecteur microbolomètre non refroidi, sans maintenance. Elle produit d’excellentes images thermiques de nuit comme de jour, en toute situation. la FLIR LS64 a un définition de 640 × 480 pixels. L’utilisateur peut choisir la LS32 dont les images thermiques comptent 320 × 240 pixels. Tous les modèles possèdent un logiciel perfectionné qui produit une excellente image sans nécessiter de réglages de la part de l’utilisateur.

 

La FLIR LS32 comporte un zoom numérique X 2, elle est dotée d’un objectif de 19 mm qui permet de détecter une personne jusqu’à 640 mètres.

 

La FLIR LS64 est dotée d’un zoom numérique X 2 et X 4 et d’un zoom électronique continu et un objectif de 35 mm. Cela lui permet de détecter une personne jusqu’à une distance de 1.080 mètres.

Portable et robuste, ces deux caméras sont prêtes pour toutes les missions même les plus longues. Les FLIR série LS sont livrées avec des batteries Li-ion de grande durée de vie qui leur procure une autonomie entre 5 et 7 heures. Avec un poids de 340 grammes, batterie incluse, les caméras de la série LS sont extrêmement compactes et légères. Avec un indice de protection IP67 et un fonctionnement possible entre –20 °C et +50 °C, les Flir LS peuvent s’adapter à toutes les conditions d’utilisation même les plus difficiles.

 

Ergonomiques et faciles d’emploi, elles sont entièrement commandées par les boutons situés sur leur face supérieure. Ces boutons sont faciles d’accès, juste sous les doigts de l’opérateur.

Les deux versions de la FLIR série LS sont livrées avec un laser intégré pour indiquer rapidement les suspects dans l’obscurité, en toute sécurité.

La fonction exclusive InstAlert™ marque en rouge la zone la plus chaude de la scène. Cela facilite le repérage des suspects sur l’image thermique.

 

Imagerie thermique ou intensification de la lumière ?

La technologie d’intensification de la lumière consiste à amplifier plusieurs milliers de fois de petites quantités de lumière visible afin de permettre la vision de nuit. Elle nécessite un certain niveau de lumière ambiante ; par exemple, celle provenant des étoiles par une nuit sans nuage peut suffire.

Ce niveau minimum étant nécessaire, une épaisse couverture nuageuse peut limiter l’efficacité de cette technologie et à l’inverse, une trop grande quantité de lumière peut aussi nuire à ses résultats.

Les caméras thermiques comme la FLIR série LS apportent des avantages importants vis-à-vis de l’intensification de la lumière. Elles fonctionnent en détectant l’énergie thermique émise par les objets. Elles peuvent donc se passer complètement de lumière pour produire une image claire. Elles sont insensibles à la quantité de lumière : il n’existe aucun effet d’éblouissement lorsque ces caméras sont dirigées vers une source de lumière.

Demande d’informations

Caméras compactes et économiques pour la recherche

Les caméras thermiques sont utilisées dans une grande variété d’applications de recherche et développement. Jusqu’à présent, les caméras thermiques étaient souvent réservées aux grands centres de R&D. Avec les packs SC35, SC15 et SC5, extrêmement économique, FLIR Systems apporte aujourd’hui les avantages de l’imagerie thermique à chaque ingénieur d’essai.

Les packs FLIR SC35, SC15 et SC5 ne sont pas seulement extrêmement économiques. Ils comportent le matériel et le logiciel permettant d’analyser et de vérifier vos projets de R&D. Avec le pack FLIR SC35, SC15 et SC5, vous voyez les températures et les mesurez sans contact.

Voici les packs proposés :

 

Pack SC35

Pack SC15

Pack SC5

Caméra thermique

A35sc

A15sc

A5sc

Qualité d’image

320 × 256 pixels

160 × 128 pixels

80 × 64 pixels

Distance focale de l’objectif

9 mm

9 mm

5 mm

Logiciels

FLIR Tools+

FLIR Tools+

FLIR Tools+

 

De plus, chaque pack FLIR comporte une mallette rigide, un support flexible avec 2 colliers de câble, 2 câbles Ethernet, un support, un outil de focalisation, un injecteur PoE et un câble d’alimentation.

 

La caméra thermique FLIR série Axx sc : compacte et complète

La caméra thermique FLIR série Axxsc visualise les températures entre –40 °C et +550 °C. Les différences de température d’à peine 50 mK deviennent clairement visibles sur une belle image thermique. Avec la fonction Power over Ethernet, un seul câble permet la communication et l’alimentation de la FLIR série Axxsc.

Interfaces de connexion

La FLIR série Axx sc est compatible avec GigE Vision™, en standard.  GigE Vision est une nouvelle norme d’interface de caméra reposant sur le protocole de communication Gigabit Ethernet. La compatibilité GenIcam™ est également assurée.  GenICam a pour vocation d’être une interface de programmation générique pour tout type de caméras. Quelles que soient les caractéristiques de la caméra et la technologie de son interface (GigE Vision, Camera Link, 1394 DCAM, etc.), l’interface de programmation d’applications (API, Application Programming Interface) est toujours la même.

Il est également possible de configurer une caméra en tant que maître, et de définir les autres comme des esclaves pour des applications nécessitant plusieurs caméras : objets de grandes dimensions, stéréoscopie.

 

Logiciel inclus dans les packs SC35, SC15 et SC5

FLIR Systems sait qu’en R&D, la caméra thermique n’est qu’une partie de la solution. Le logiciel d’analyse des images thermiques est tout aussi important.

Les packs SC35, SC15 et SC5 contiennent le logiciel FLIR Tools+. La caméra thermique FLIR série Axxsc travaille en intelligence avec FLIR Tools+. Elle permet de visualiser, d’enregistrer et d’analyser les images thermiques, et comporte des fonctions telles que le tracé de la température au cours du temps.

 

Demande d’informations

Les énergies renouvelables ont rendez-vous avec le gaz naturel

Baptisée « The Energy Partnership, The European Coalition for Renewable Energy and Gas », l’initiative bénéficie du soutien du commissaire européen à l’énergie Günther Oettinger. Les fondateurs de l’alliance sont cinq poids-lourds de l’énergie: l’allemand Alpine Energie, l’EDF danois DONG Energy,  les américains First Solar et General Electric, ainsi que l’anglo-hollandais Shell.

Créer des règles de marché favorables

Ces entreprises se sont engagées à travailler ensemble pour fournir des solutions concrètes et favoriser la prise de conscience sur la nécessité d’adopter une politique énergétique intégrée en Europe à l’horizon 2030 et au-delà. L’objectif est que les règles du marché de l’énergie soient favorables à l’émergence de synergies entre les énergies renouvelables et le gaz naturel.
 
« Ce partenariat entre les énergies renouvelables et le gaz est une toute nouvelle approche pour unir les forces de l’industrie » a affirmé Jan Ingwersen, vice-président de DONG Energy, à l’occasion du lancement officiel de l’initiative en présence de Günther Oettinger. Cette dynamique de convergence est « essentielle pour que l’Europe puisse atteindre ses objectifs de réduction des émissions de CO2 à horizon 2050 » souligne l’expert danois. « Les renouvelables et le gaz constituent un couple fort, ensemble elles peuvent délivrer une énergie fiable, bas-carbone et bon marché que l’Europe appelle de ses vœux ».

L’éolien et le solaire ont besoin d’être assistés

L’éolien et le solaire photovoltaïque sont des énergies à très fort potentiel mais qui sont fluctuantes. Les nuits sans vent, la production éolienne et solaire est nulle. Des systèmes d’appoint sont donc nécessaires. Les centrales au gaz naturel sont peu polluantes et elles émettent bien moins de CO2 que les centrales au charbon ou au fioul. Il est possible de les construire très rapidement là où elles sont nécessaires pour le réseau électrique. Elles constituent donc une option particulièrement appréciée.
 
« Combiner les énergies variables et la flexibilité du gaz est une clé pour le futur bas-carbone de l’Europe », estime Stephan Reimelt, directeur de GE Energy Allemagne. « Il est évident que les renouvelables et le gaz offrent le chemin le plus économique, le plus fiable et le plus durable pour la sécurité énergétique de l’Europe » estime l’expert.

S’unir pour éviter un retour du charbon

La spectaculaire montée en puissance du gaz de schiste aux USA ces dernières années a fait reculer massivement la consommation de charbon, contribuant à améliorer le bilan CO2 des USA. Aucun pays au monde n’a connu une baisse aussi importante de ses émissions ces dernières années.
 
Mais, par un jeu de domino, cela conduit à une arrivée de charbon américain à prix réduit sur le marché européen, moins coûteux que le gaz dont le prix sur le marché européen est indexé à celui du pétrole. Ce retour du charbon en Europe est très mauvais pour l’Union européenne qui souhaite s’ériger en modèle sur le plan climatique. Les industriels sont conscients de cette dérive et cherchent à favoriser la mise en place d’un cadre réglementaire permettant que  les investissements soient dirigés préférentiellement vers les centrales à gaz.
 
Quand une centrale à gaz assiste l’éolien, elle produit moins d’électricité que quand les éoliennes sont absentes. Son facteur de capacité baisse, et elle est donc moins rentable.  Or, en l’absence d’un super-réseau électrique pan-européen (SuperGrid) permettant de mutualiser les capacités hydro modulables et de tirer profit de la complémentarité de l’éolien et du solaire, les centrales thermiques sont à ce stade indispensables en complément aux énergies variables. La mise en place de lignes à haute tension se heurte aux résistances locales pour des raisons paysagères. Et dans le cadre réglementaire actuel, les investisseurs ne sont pas incités à investir dans les centrales à gaz.
 
« Le temps est venu d’une approche systémique pour la politique énergétique européenne », affirme Jörg Gmeinbauer, Directeur d’Alpine Energie. « Nous avons besoin de politiques intégrées, des réformes du marché, des investissements dans la production, la transmission et les infrastructures si nous voulons atteindre les objectifs de l’Europe. Nous avons formé l’Energy Partnership car ensemble nous pouvons offrir un chemin pragmatique basé sur la synergie entre les renouvelables et le gaz ».

General Electric a mis au point une technologie de centrales à gaz baptisée « FlexEfficiency » et permettant une variation très rapide de la puissance délivrée. Cela permet de faire face aux fluctuations également rapides des énergies renouvelables variables. En décembre 2011, EDF a noué un partenariat avec GE à propos du déploiement de cette technologie en France.

Par Olivier Daniélo, journaliste scientifique

Découvrez les formations Techniques de l’Ingénieur :

Tokelau : sous le soleil, exactement

Pour répondre à la consommation électrique des 1500 habitants de cet archipel totalisant une surface de 10 kilomètres-carrés, chaque année 220 000 litres de diesel étaient délivrés par bateau. De vieux générateurs diesel, à faible rendement, bruyants et polluants, délivraient une électricité très coûteuse.

Grâce au système à présent en place, presque 100% de l’électricité proviendra du solaire photovoltaïque. Les générateurs diesel ne sont conservés que pour être utilisés dans les cas exceptionnels de très faible ensoleillement sur plusieurs jours, ce qui est rare sur ces îles tropicales de l’océan Pacifique.  

Du soleil et des noix de coco de secours

Pas moins de 4032 panneaux solaires, totalisant une puissance d’1 MW, ont été installés sur les trois îles  par l’entreprise néo-zélandaise Power Smart en collaboration avec IT Power Australia. L’installation, particulièrement robuste, est capable de résister à des vents de 230 km par heure, en cas de cyclone.
 
Trois outils ont été utilisés pour adapter la production fluctuante du parc photovoltaïque à la demande des habitants des atolls, demande également variable.
 
En premier lieu le parc PV a une puissance surdimensionnée d’un facteur 1,5 comparativement aux besoins. Le parc peut produire 150% de l’électricité consommée dans l’île. Disposer d’une telle puissance installée permet de répondre intégralement à la demande électrique les jours ou l’ensoleillement est environ un tiers plus faible qu’en moyenne.
 
En second lieu 1344 batteries de 250 kg chacune, soit 336 tonnes au total, assistent le parc, ce qui permet d’absorber les pics de production et de restituer l’électricité pendant les périodes de faible production solaire.  
 
Enfin, les générateurs diesel déjà en place ne vont pas être éliminés. Ils serviront en appoint (back-up) les jours où la production solaire est vraiment très faible. L’Ulu de Tokelau, le chef du gouvernement du territoire, a indiqué à radio New Zealand que les îles auront besoin des générateurs diesel en cas d’urgence, les jours où la production solaire sera insuffisante ou en cas de problème. Il a ajouté que « le territoire de Tokelau étudie actuellement la possibilité d’utiliser l’huile de coco »  en tant que biocarburant à la place du diesel, et parvenir ainsi à une autonomie vraiment totale.  Au final, plus de 95% de l’électricité consommée dans les 3 atolls sera solaire, et moins de 5% sera d’origine fossile ou biomasse. Un record mondial.

Une initiative qui fait des émules

L’atoll de Fakaofo a été équipé en août 2012, l’atoll de Nukunonu mi-septembre, et le troisième, Atafu, vient de l’être il y a quelques jours.
 
Le montant de l’investissement pour l’ensemble de l’archipel s’élève à 7,5 million de dollars néo-zélandais, c’est-à-dire environ 6,3 million de dollars américains. Il a été délivré dans le cadre du programme d’aide au développement du gouvernement de Nouvelle-Zélande, pays qui administre ce territoire insulaire isolé.
 
Les économies réalisées grâce au nouveau système en place sont estimées à un million de dollars américains par an. Le coût élevé de l’électricité obtenue à partir de générateurs diesel est un obstacle au développement socio-économique des très nombreuses îles de l’océan Pacifique.  Les îles Tonga ont annoncé qu’elles allient suivre l’exemple de Tokelau. 1 MW de solaire photovoltaïque va y être installé.

Plusieurs îles dans le monde aspirent à devenir vraiment autonomes grâce aux énergies renouvelables. El Hierro, à l’extrême ouest de l’archipel des Canaries, va mettre en service de début 2013 un parc éolien assisté d’une STEP, qui stocke l’énergie sous forme gravitaire. Les îles d’Aran, en Irlande, ont un projet similaire. L’île anglo-normande d’Aurigny a de son côté comme objectif de devenir autonome grâce à des hydroliennes (capture de l’énergie des courants de marée) également assistées d’une STEP.
 
Au Danemark, l’île de Samsoe  produit depuis plusieurs années autant d’électricité éolienne qu’elle n’en consomme, mais il s’agit d’une autonomie virtuelle: quand la production éolienne est insuffisante l’île importe du continent, tandis qu’elle exporte les jours de grand vent.

Ces exemples insulaires seront peut-être suivis par les continents du monde dans quelques décennies. La planète bleue est une île.

Par Olivier Daniélo, journaliste scientifique

A Cuba, les éoliennes ont résisté à l’ouragan Sandy

Avant de frapper la côte est des Etats-Unis, Sandy a dévasté plusieurs îles des Caraïbes. Haïti et Cuba ont été les plus durement touchés. Des milliers d’habitations ont été détruites autour Santiago de Cuba, la seconde ville du pays.

Dans la partie affectée de l’île, la province de Holguín, deux parcs éoliens ont été installés en 2008 et 2010. Gibara I, équipé de 6 éoliennes de 850 kW (5,1 MW). Et Gibara II, équipé de 6 éoliennes de 650 kW (4,5 MW). Ces deux fermes éoliennes ont été frappées par l’ouragan avec des vents soufflant jusqu’à 180 kilomètres par heure.

Le chêne et le roseau

Après inspection, le gouvernement cubain a annoncé à l’occasion d’un meeting à la Havane que les éoliennes ont parfaitement résisté, et continuent de produire de l’électricité aujourd’hui sur le réseau local.

« L’ouragan Sandy nous rappelle la vulnérabilité de notre civilisation face aux désastres naturels, tels qu’un tremblement de terre suivi d’un tsunami au Japon il y a un an » a déclaré Stefan Gsänge, secrétaire général de la World Wind Energy Association. « De la même manière qu’il y a 20 mois, Sandy a montré les hauts risques liés au nucléaire et la fiabilité de l’éolien, même dans les conditions extrêmes ».

Aux USA, les inondations dans le New Jersey consécutives au passage de Sandy ont conduit à l’arrêt de réacteurs nucléaires. Au Japon, le tsunami a conduit à la fermeture de la totalité du parc électronucléaire du pays. « Nous devrions en tirer les leçons et accélérer aussi vite que possible le passage à des formes d’énergies renouvelables décentralisées partout dans le monde » estime Stefan Gsänge.

L’éolien est compatible avec le climat tropical

Les deux parcs éoliens cubains ont été installés tout en sachant que la région pouvait être frappée par les cyclones. « Nos experts ont pris toutes les mesures nécessaires pour que ces éoliennes soient capables de résister aux ouragans » précise Conrado Moreno, professeur au Centre Cubain pour les Energies Renouvelables (CETER). « L’ouragan Sandy a démontré que l’éolien est sans danger et fiable, même dans les conditions extrêmes » ajoute l’expert.

« Grâce à la nature décentralisée du système électrique cubain, les dommages sur l’ensemble du réseau ont pu être minimisés et seule une petite partie est aujourd’hui privée d’électricité. En déployant davantage d’énergies renouvelables dans le futur, le système électrique cubain deviendra encore plus résistant et stable».

En juin 2013 aura lieu à la Havane la World Wind Energy Conference (WWEC2013) sur le thème de l’éolien dans les Caraïbes, en Amérique centrale et en Amérique latine en général. « Le savoir-faire concernant la résistance de l’éolien aux ouragans sera crucial dans le future, non seulement en secteur Caraïbe mais aussi dans le sud-est de l’Asie où les typhons sont fréquents » estime He Dexin, président de la WWEA. « Une collaboration internationale et un échange d’expériences nous aidera à nous enrichir mutuellement ».

Par Olivier Danielo, journaliste scientifique

L’Ademe se mobilise pour développer les véhicules du futur

Dans le cadre des Investissements d’Avenir, l’Etat a retenu 5 projets favorisant l’intermodalité et la mobilité alternative, c’est-à-dire qui vont aider à faire évoluer les pratiques et l’offre concernant les modes de déplacement. Les projets qui bénéficieront du soutien de l’Ademe sont :

  1. OPTIMOD’LYON : centralise toutes les données de mobilité pour fournir aux usagers des informations en temps réel sur l’ensemble des modes de transport, à la fois pour les voyageurs et le transport de marchandise.
  2. SYSMO 2015 propose aux particuliers un calculateur d’itinéraire « multimodal » en temps réel et aux collectivités un outil logiciel permettant de bâtir et réguler une offre de transport partagée innovante et interconnectée.
  3. AU-DACE accélère et unit les offres de déplacements en autopartage, covoiturage et véhicules électriques, et développer un système d’assurance favorisant leur déploiement.
  4. Bretagne Mobilité Augmentée (BMA) apporte aux décideurs publics et privés une aide à la décision en matière de mobilité durable.
  5. E-PARTAGE favorise la mobilité électrique partagée dans les communautés de professionnels tout en garantissant le même niveau d’usage et en diminuant les coûts.

Ces cinq projets retenus représentent un budget total de 48 millions d’euros, soutenus par l’ADEME à hauteur de 18 M€ dans le cadre du programme « véhicule du futur » des Investissements d’Avenir. Ils développeront, dans plusieurs territoires d’expérimentation, des démonstrateurs destinés à faciliter, pour un trajet, le passage d’un mode de transport à l’autre qu’il s’agisse de personnes ou de marchandises et à développer la mobilité dite « en partage » pour réaliser des trajets ponctuels ou quotidiens sans être propriétaire ou dépendant d’un véhicule particulier.

Par Audrey Loubens, journaliste scientifique

 

Découvrez le pack
Transports et technologies

Ce pack est composé des bases documentaires suivantes :

  • Véhicule propre
  • Technologies avancées et systèmes de transport
  • Transport ferroviaire
  • Aéronautique
  •  

BASF organise le premier concours mondial de design pour sièges automobiles

Cette compétition est ouverte à tous ceux qui s’intéressent de près ou de loin au design automobile et au confort des sièges. Le but du concours est de développer un concept de design pour un siège automobile en utilisant des matériaux BASF. Le jury de six membres est composé de trois designers industriels et automobiles renommés – Konstantin Grcic, Ken Kiyoyuki Okuyama et Dave Lyon – ainsi que de représentants des matières plastiques techniques BASF de différentes régions.

Ce concours intitulé « sit down. move. » a été imaginé par l’équipe internationale BASF spécialisée dans les sièges, en commun avec la designfabrik®, le centre de compétence de BASF qui héberge la majeure partie des activités de design ayant trait aux matériaux, notamment les thermoplastiques techniques comme Ultramid® (PA), les thermoplastiques polyuréthanes comme Elastollan®, les mousses à base de polypropylène expansé (Neopolen®) et de polyuréthane aromatique (Elastoflex® W) mais également la technologie de transfert de revêtement Steron®, les liants pour fibres naturelles (Acrodur®) et la technologie de moulage par injection de poudre Catamold®.

Présentation du concept gagnant à Genève

Dans un effort conjoint avec des fabricants et clients automobiles, BASF a déjà joué un rôle dans le développement de plusieurs sièges produits en série et différentes études sur le design de sièges, un processus dans lequel ses matériaux ont contribué à répondre aux exigences les plus diverses. De nos jours, un siège de voiture est une entité complexe devant combiner les aspects du design et de la sécurité, les impératifs de coût et la fonctionnalité, l’allègement et la préservation des ressources, le confort et l’ergonomie. Pour cette raison, le concours demande aux candidats de présenter leur concept en se focalisant sur un message central intégrant un ou plusieurs de ces aspects.

La date limite de soumission des dossiers pour le concours est fixée au 30 janvier 2013. Les trois gagnants et leurs concepts de design seront présentés lors de la Nuit du design au Salon international de l’automobile de Genève en mars 2013. Le gagnant mondial recevra un prix sous forme de dotation de 6 000 euros, tandis que les deux gagnants régionaux se verront remettre une somme de 3 000 euros chacun.

Des informations complémentaires sur le concours sont disponibles sur le site : www.designfabrik.basf.com/sitdownmove

Publié par Pierre Thouverez

Vers un doublement de la production hydroélectrique mondiale

Les nouvelles capacités hydroélectriques installées entre 2005 et 2011 dans le monde permettent à elles seules de produire 600 TWh par an, soit davantage que l’ensemble des autres capacités renouvelables (éolien, bioénergie, solaire, géothermie) installées sur la même période.

L’AIE fixe comme objectif d’atteindre 7100 TWh d’hydroélectrité en 2050, c’est-à-dire de  doubler la production hydroélectrique actuelle. C’est en particulier le potentiel en Asie et en Amérique latine qui permet de l’envisager.

Une énergie bon marché

« L’hydroélectricité est dés à présent  très pertinente sur le plan économique» a déclaré Richard H. Jones, directeur exécutif de l’AIE, à l’occasion de la présentation de la feuille de route à Bilbao en Espagne, dans le cadre de la conférence HYDRO 2012. Il a cependant ajouté : « le développement de nouvelles capacités est confronté à de difficiles obstacles financiers. Les gouvernements doivent créer un climat favorable aux investissements industriels lors de l’élaboration des marchés de l’électricité ».
 
Pour Albert Geber de Melo, directeur général du centre de recherche brésilien sur l’énergie électrique (CEPEL), « la petite et la grande hydraulique peuvent améliorer l’accès aux services énergétiques modernes, faire reculer la pauvreté, fortifier le développement social et économique, spécialement pour les communautés locales ». Le barrage de Belo Monte, actuellement en construction, permettra de répondre à 10 % de la demande électrique totale du Brésil, un pays qui compte 192 millions d’habitants. La surface des réservoirs (440 km²), dont la moitié est dès à présent inondée par le fleuve naturel, correspond à 0,005 % de la surface du pays.
 
La publication de l’AIE détaille les actions à mener par les responsables politiques pour permettre un doublement de la production hydroélectrique, notamment pour mieux prendre en compte les problématiques environnementales et améliorer l’acceptabilité par le grand public des projets hydroélectriques.

Une énergie flexible

Grâce aux techniques d’éclusées, aux lacs de barrage et aux STEP (Stations de Transfert d’Energie par Pompage), la houille blanche est disponible à la demande. Cédric Philibert souligne que la répartition des ressources hydrauliques n’est pas uniforme dans le monde. Certains pays bien pourvus, comme par exemple le Brésil, le Québec ou la Norvège, peuvent répondre jusqu’à 100% de leurs besoins en électricité uniquement avec l’hydroélectricité. D’autres pays très pauvres en ressources hydroélectriques, comme par exemple le Danemark ou l’Allemagne, et qui développent fortement les énergies renouvelables variables (éolien et photovoltaïque), ont un énorme besoin en flexibilité.

« Une solution, bien sûr, est l’interconnexion » souligne Cédric Philibert. La technologie HVDC (Courant Continu Haute Tension) permet de réaliser des échanges d’électricité sur de longues distances avec moins de 3% de perte pour 1000 km, en mode terrestre ou sous-marin.  « C’est ainsi que les liaisons par câbles entre le château d’eau de l’Europe, la Norvège, et les pays du continent – l’Allemagne, le Danemark, les Pays-Bas, la Pologne – sont régulièrement renforcées »,  poursuit l’expert. L’hydroélectricité scandinave sert alors pour boucher les trous en cas de panne de vent ou de soleil.
« L’autre solution est le stockage d’énergie par pompage-turbinage, qui consiste à remonter l’eau dans les barrages » ajoute Cédric Philibert.

C’est particulièrement intéressant pour absorber les pics de production éolienne ou solaire. Les STEP constituent « 99% du stockage d’électricité disponible sur les réseaux électriques ». 140 gigawatts de STEP sont dès aujourd’hui en service dans le monde et, selon l’AIE, cette capacité pourrait être multipliée entre 3 et 5 d’ici 2050. Notamment pour permettre l’intégration de hauts niveaux d’éolien et de solaire.

Par Olivier Danielo, journaliste scientifique

Une application pour se prémunir contre les malwares sur Facebook

Des liens promettant des histoires croustillantes, des vidéos laissant présager du contenu plus ou moins explicite : qui n’a pas déjà essayé, ne serait-ce qu’une fois, de cliquer sur l’un de ces liens, postés sur Facebook par vos amis et se retrouvant dans votre « newsfeed » ?

D’autant plus que vos amis semblent les juger suffisamment dignes d’intérêt pour les partager… Pourtant, invariablement, rien ne se passe, la vidéo ne se charge pas, ou bien vous êtes redirigé vers des sites peu recommandables…

Il y a fort à parier que les comptes de vos amis aient été piratés, et que les sites visités soient infestés de virus : vos amis (et peut-être vous aussi ?) ont été victimes d’un « socware » (contraction de « social-malware »), comme l’ont baptisé les ingénieurs de l’université de Californie, Riverside. C’est pour lutter contre la prolifération virale de ces socwares et protéger les utilisateurs que les ingénieurs américains ont mis au point l’application « MyPageKeeper », qui permet de repérer les publications infectées.

Après avoir analysé pas moins de 40 millions de publications provenant de près de 12 000 utilisateurs ayant préalablement installé l’application, « MyPageKeeper » s’est avéré efficace dans 97 % des cas. L’un des leviers de l’application repose sur un scan simple à la recherche d’une centaine de mots clés, tels que « free », « schocked » et « hurry ». Les publications comprenant au moins six de ces mots clés cacheraient, selon les concepteurs, très probablement un socware.

Un moyen simple de repérer les publications douteuses : l’URL qui apparait, en faisant passer la souris sur le lien sans cliquer dessus. Il devient alors simple de décider si le site source semble fiable, ou non.

« MyPageKeeper » est disponible ici : https://apps.facebook.com/mypagekeeper/

Par Rahman Moonzur, journaliste scientifique

L’iPad mini est arrivé

Finalement, alors que son fondateur Steve Job s’était montré plusieurs fois hostile au concept d’une mini tablette, Apple s’aligne sur ses concurrents et propose un iPad en version « minipouss ».

L’iPad mini possède un écran de 7.9 pouces (contre 9.7 pour l’original) pour une définition de 1024 x 768 pixels, fait 7.2 mm d’épaisseur pour un poids de 308g. Il sera commercialisé en France le 2 novembre, au prix de 339 € pour la version wi-fi 16 Go.

Gagnez l’I Pad mini grâce aux Editions Techniques de l’ingénieur

Pour gagner un
I Pad mini, c’est par ICI !

Il faudra néanmoins compter jusqu’à 674€ pour les versions 3G et 4G avec 64Go. Avec ce produit, Apple espère concurrencer les mini tablettes d’Amazon et de Google, les Nexus et Kindle Fire. Pour le moment, avantage à Amazon qui détient 22% de part de marché aux Etats-Unis. Le groupe à la pomme table sur 5 millions d’unités vendues d’ici fin 2012, le Wall street Journal assurant savoir qu’Apple aurait lancé la production de 10 millions d’iPad mini !

La riposte des deux géants Amazon et Google a été instantanée puisqu’Amazon a publié sur son site internet un comparatif de sa tablette et de l’iPad mini, Google commercialisant une version 32G de sa Nexus 7 au même prix que la 16G.

En effet, l’iPad mini est plus cher que ses concurrents, Amazon et Google tirant leur bénéfice de l’achat de contenus. Mais Apple applique une stratégie différente et mise sur sa notoriété pour compenser un prix peu compétitif. Et les prévisions des économistes lui donnent raison, estimant qu’Apple est capable d’écouler ses 10 millions d’unités avant Noël, avec un taux de cannibalisation de 25% à 50% ! La guerre des mini tablettes est bel et bien déclarée.

Audrey Loubens, journaliste scientifique

A lire également :

Un nouveau procédé pour réussir ses nano-objets du premier coup !

« Nous pouvons graver une centaine de nano-objets d’un seul coup. Et tous marchent ! » se félicite Pascale Senellart, directrice de recherche au CNRS, au laboratoire de photonique et de nanostructure (LPN) à Marcoussis. En effet, traditionnellement des milliers de nano-émetteurs sont répartis de façon aléatoire sur une plaque, puis on rajoute des miroirs/collecteurs pour trouver un nano-émetteur et se positionner dessus.

Il faut donc fabriquer un très grand nombre de nano-émetteur pour un seul utilisable. De plus, ces nano-structures sont toutes différentes et émettent à une longueur d’onde variable de l’une à l’autre, il est donc impossible de prévoir quelle lumière va être émise par quel nano-émetteur. Ces deux difficultés sont levées par l’approche de Pascale Senellart qui utilise la superposition de deux lasers.

Le premier sert à exciter les nano-émetteurs répartis sur la plaque recouverte d’une résine photosensible. Les nano-objets émettent alors de la lumière ce qui permet de les localiser précisément, à 50 nm près, et de mesurer la longueur d’onde d’émission. Une fois la position du nano-émetteur connue, le deuxième laser écrit le motif voulu. Ce procédé unique présente l’avantage de se faire en seulement deux étapes, la géolocalisation des nano-objets  et l’identification de la longueur d’onde émise, puis la lithographie.

Si cela fait 4 ans que cette façon de faire est connue, ce n’est qu’en 2010 que le CNRS s’associe à la société Attocube, spécialiste du nano-positionnement, pour développer cette technique à une plus grande échelle.  Leur collaboration a débouché sur la fabrication d’une machine capable de scanner la plaque sur laquelle sont disposés les nano-objets en entier de façon à localiser tous les nano-objets en une seule fois, puis de graver le motif souhaité. Il devient donc possible de fabriquer des nano-objets (nano-leds, nano-laser, détecteurs de photons…) en grande série.

Par Audrey Loubens, journaliste scientifique

Revue du Web #34 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Retour sur la fantastique chute de Felix Baumgartner, avec les prises de vues des caméras embarquées ;
  • Boeing a testé avec succès un missile utilisant les micro-ondes pour neutraliser les systèmes électroniques ; 
  • « Hyper-Matrix », superbe installation développée pour le constructeur coréen Hyundai ;
  • Un peu de pyrotechnie avec l’expérience, bien connue des chimistes, dite du « serpent de pharaon » ; 
  • enfin, le gadget (inutile ?) de la semaine : un singe robot chouineur particulièrement cheap.

Vue de la caméra embarquée de Felix Baumgartner

Pour débuter cette trente-quatrième Revue du Web, rien de tel que de se replonger dans l’évènement médiatico-scientifique de ces dernières semaines : l’Autrichien Felix Baumgartner est parvenu à franchir le mur du son en chute libre, battant ainsi le record du monde de vitesse et le record du saut le plus haut en chute libre. Nous vous parlions déjà ici (//www.techniques-ingenieur.fr/actualite/environnement-securite-energie-thematique_191/franchir-le-mur-du-son-en-chute-libre-article_75832/) du succès de la mission Red Bull Stratos, grâce à une équipe au sol composée de près d’une centaine de personnes, un long et méticuleux travail de préparation en amont, un équipement de pointe ainsi que le talent et un brin de folie du sauteur autrichien.

Alors que la mission avait déjà été repoussée deux fois en raison de mauvaises conditions atmosphériques, un nouvel incident a failli de nouveau annuler la mission : le système chauffant du casque de Felix Baumgartner est tombé en panne lors de l’ascension de la capsule. Le rôle de ce système était d’éviter l’apparition de buée sur la visière, pour permettre à l’Autrichien de bien prendre ses repères afin de conserver son équilibre, et de contrôler au mieux la phase de chute libre. Cela n’a pourtant pas empêché la mission d’être le succès que l’on connait, grâce au sang-froid et à l’expérience du parachutiste.

Un documentaire, issu de la collaboration de la BBC, de National Geographic et de l’équipe Red Bull Stratos, devrait être diffusé le 11 novembre prochain. En voici un teaser, comprenant des images inédites provenant des caméras embarquées : 

L’expérience du « serpent de pharaon » : 

Connue des amateurs de pyrotechnie sous le nom de « serpent du pharaon » ou encore « serpent noir », la combustion du thiocyanate de mercure a de quoi surprendre les non-initiés. Le thiocyanate de Mercure (II) est un composé chimique de formule Hg(SCN)2, généralement obtenu par réaction entre un sel de mercure (II) et un sel thiocyanate. La vidéo qui suit montre la combustion d’une petite quantité de ce composé, poudre blanchâtre déposée soigneusement au fond d’un aquarium. Après un contact d’un court instant avec la flamme d’un chalumeau, le composé produit des flammes bleutées et une cendre spectaculaire qui s’allonge, ressemblant à de nombreux tentacules qui n’en finissent pas de grandir, chacun étant assimilé au fameux « serpent ».

L’expérience, grand classique chez les chimistes, est pourtant dangereuse : en effet, les vapeurs de mercure émises sont fortement toxiques. Cette toxicité a conduit les apprentis sorciers à utiliser des composés moins dangereux pour continuer à réaliser ce « tour de magie ». Deux variantes existeraient notamment : la première de ces variantes fait entrer en réaction la 4-nitroacétanilide (un composé nitro de l’acétanilide) et de l’acide sulfurique, moins toxiques mais très nocifs et corrosifs. La seconde variante est par contre sans danger, et nécessite de l’hydrogénocarbonate de sodium, du sucre glace et de l’éthanol.

« Hyper-Matrix », l’installation mouvante de Hyundai qui en met plein la vue :

Pour l’Exposition internationale de cette année ayant eu lieu à Yeosu, en Corée, le constructeur automobile Hyundai a mis les petits plats dans les grands, quitte à voler la vedette aux autres exposants. La version 2012 de l’exposition a abrité en son cœur, trois mois durant, le pavillon de la firme coréenne qui, pour attirer le chaland, abritait elle-même une installation tout à fait surprenante. Baptisée « Hyper-Matrix », l’installation en a bluffé plus d’un.

Conçu en collaboration avec l’agence de communication média Jonpasang, l’installation se compose de trois gigantesques surfaces sur 180 degrés, offrant une particularité ô combien excitante : chacune de ces surfaces dissimule plusieurs milliers de cubes motorisés d’une trentaine de centimètres de côté, dont le quadrillage donne un époustouflant rendu de texture. Lorsque l’installation se met en route, les cubes de polystyrène extrudé servent de support pixelisé à une animation en relief, avant de donner une toute autre dimension aux images, qui gagnent en profondeur… et en magie.  

La première vidéo donne un aperçu de l’animation, la seconde en dévoile les arcanes. Le pavillon Hyundai, à la fois plate-forme et vitrine des futures ambitions du constructeur coréen, aura réussi la prouesse de parvenir à convaincre les plus sceptiques. 

Boeing teste CHAMP, le missile électromagnétique :

S’il devait y avoir un « bon » missile et de « mauvais » missiles, CHAMP ferait probablement partie de la première catégorie. Plutôt qu’un missile aux effets destructeurs mais pas toujours contrôlés, que ce soit pour sa cible ou pour les environs – avec le triste succès de l’euphémisme « dommage collatéral » – ce nouveau missile joue dans une toute autre catégorie. Développé par le constructeur américain Boeing, le missile CHAMP (acronyme de Counter-electronics High-powered Advanced Missile Project) serait l’arlésienne du missile : un missile « propre » ne s’attaquant qu’aux appareils électroniques. 

Le nouveau joujou de l’avionneur américain a fait l’objet d’une batterie de tests au-dessus du désert de l’Utah, il y a quelques semaines seulement. Visant en tout et pour tout huit cibles avant de s’autodétruire au-dessus du désert, CHAMP utilise les micro-ondes pour neutraliser les systèmes électroniques. On peut observer dans la vidéo qui suit ce qu’il s’est passé au cœur de l’une des huit cibles du missile, une salle remplie de matériel informatique semblant sortir tout droit des années 90. Alors que le missile vient de passer au-dessus de la pièce, les écrans virent au noir, et la vie électronique s’éteint brutalement. Même la caméra n’y résiste pas.

Le but d’un tel missile laisse peu de place au doute, et laisse entrevoir des objectifs moins « propres » : se débarrasser des radars de l’ennemi pour laisser le champ libre aux avions furtifs et autres drones américains.

Le gadget (inutile ?) de la semaine : un atroce singe robot

Pour conclure cette trente-quatrième Revue du Web, nous vous présentons le gadget (inutile ?) de la semaine : un singe robotique dont l’utilité et la qualité (tant dans la réalisation du robot, le souci du détail, la mise en scène, ou encore le travail inexistant de finition) semblent plus que difficiles à démontrer. L’aspect repoussant de la mascotte est plutôt bien complété par les sons suraigus et insupportables qu’il émet. Nous vous recommandons d’ailleurs de baisser le son de la vidéo, si vous tenez un tant soit peu à l’intégrité de vos esgourdes.

Présenté lors du récent Congrès Européen des Pirates ayant eu lieu les 10 et 11 septembre dernier à Cologne, en Allemagne, ce singe robotique très cheap est juché sur un caddy de supermarché, et pleure – enfin presque, il laisse échapper un jet d’eau. Il surjoue même la tristesse, avec force mouvements de tête en arrière et gestes désespérés du bras. Le singe, que vous pouvez admirer dans la vidéo qui suit, est par ailleurs contrôlé par une manette qui nous rappelle le bon vieux temps des jeux d’arcade.

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

Hacker un pacemaker, un jeu d’enfant ?

C’est une découverte qui a de quoi faire froid dans le dos : une faille de sécurité pourrait permettre à une personne malintentionnée et simplement équipée d’un ordinateur portable d’éteindre un pacemaker, ou d’en réécrire le micro-logiciel afin de délivrer une décharge électrique mortelle de 830 volts, dans un rayon allant d’une dizaine à une vingtaine de mètres.

Présentée lors de la conférence « Breakpoint Security » à Melbourne ayant eu lieu mercredi dernier, l’étude a créé un malaise certain chez les professionnels, en premier lieu en raison des potentielles conséquences dramatiques de l’exploitation de la faille, mais aussi en raison de l’homme à l’origine de la découverte, un très célèbre hacker.

« Electric Feel »

Pour reprogrammer un pacemaker, il fallait auparavant qu’un patricien passe sur le porteur du stimulateur une baguette de commande, réinitialisant ainsi le programme et permettant alors la mise à jour. Cette étape se fait désormais la plupart du temps à l’aide d’un programmateur sans fil, avec une portée d’une dizaine de mètres, via la bande de fréquence 400 MHz. Le problème vient de là : il serait possible, via une requête particulière vers l’émetteur, de récupérer le numéro de série et le numéro du modèle. Il devient alors aisé de reprogrammer le firmware de l’émetteur, et ainsi lui faire faire n’importe quoi.

Le hacker est même allé plus loin pour sensibiliser les fabricants : il a développé « Electric Feel », une application permettant de repérer les stimulateurs dans un rayon donné, puis délivrer des décharges mortelles ou tout simplement arrêter le stimulateur. Les serveurs des sociétés en question seraient également vulnérables et pourraient infecter un très grand nombre de stimulateurs à la fois, par le biais d’un ver ou d’un virus.

Un hacker expérimenté

Le hacker à l’origine de la découverte, Barnaby Jack, est loin d’en être à son coup d’essai : il est passé sur le devant de la scène une première fois en juillet 2010, lorsqu’il est parvenu à vider un distributeur de billets automatique en s’introduisant dans le système logiciel du distributeur, sur une scène d’un casino de Las Vegas.

Le distributeur de billets, transformé en véritable machine à sous se vidant de ses coupures, allait même jusqu’à afficher le mot « Jackpot ». Il s’est également illustré, plus récemment, en soulignant les nombreuses failles logicielles des pompes à insuline, dispositif programmé pour délivrer à une personne diabétique de l’insuline en continu.

Barnaby Jack a alors été débauché par la société américaine IOActive, un éditeur de solutions de sécurité. C’est pour le compte de cette dernière qu’il est intervenu à Melbourne sur le possible piratage des pacemakers.

Un stimulateur cardiaque permet de délivrer des impulsions électriques au cœur, l’accélérant par exemple si besoin. Le nombre d’implantations de ces stimulateurs augmente régulièrement depuis plus de dix ans. Plus de 50 000 patients bénéficient chaque année de l’implantation d’un stimulateur cardiaque en France. Le vieillissement de la population est l’un des facteurs du nombre grandissant de patients implantés sur l’ensemble du territoire.

Par Rahman Moonzur, journaliste scientifique

Prévoir la production d’électricité du parc éolien

L’un des freins au développement à grande échelle de la filière éolienne est le caractère intermittent et aléatoire de sa production. Totalement dépendante des conditions météorologiques, l’intégration de cette production aux systèmes et réseaux électriques est particulièrement délicate.

Aujourd’hui, il existe néanmoins des outils pour prévoir la production éolienne. A la RTE (Réseau de transport d’électricité), l’outil du système électrique français, Préole, intègre les prévisions météorologiques fournies par Météo France toutes les heures et pour chaque heure des trois jours à venir. Ces informations sur les vents sont croisées avec la localisation des parcs éoliens de façon à calculer précisément le volume de production éolienne.

Grâce à cela, les ingénieurs peuvent anticiper les éventuels déséquilibres et notamment prévenir les surcharges en activant la fermeture/ouverture de disjoncteurs dans certains postes électriques pour décharger le surplus d’électricité vers des lignes haute tension moins chargées.

Plus récemment, le projet SafeWind coordonné par le Centre Energétique et Procédés de MINES ParisTech et ARMINES, vient de déboucher sur la création d’une plateforme de développement d’algorithmes destinés à affiner encore ces prévisions en tenant compte des spécificités géographiques locales.

Par Audrey Loubens, journaliste scientifique