Fissures dans les matériaux fragiles : elles sont moins rapides que prévu !

Prévoir le comportement à la rupture de matériaux fragiles tels que le verre qui se cassent par propagation de fissures nécessite en particulier de connaître la vitesse d’avancée de la fissure et de comprendre les facteurs dont elle dépend. Jusqu’à présent, les connaissances théoriques se fondaient sur une vitesse maximale égale à celle des ondes acoustiques de surface dans le matériau, dite « vitesse de Rayleigh ».

Or des chercheurs du CEA-IRAMIS (Institut Rayonnement Matière de Saclay), en collaboration avec leurs collègues de deux autres laboratoires, le Laboratoire « Surface du Verre et Interfaces » ou SVI (CNRS/Saint-Gobain), et le Laboratoire de Tribologie et Dynamique des Systèmes ou LTDS (CNRS/Ecole Centrale de Lyon/Ecole Nationale d’Ingénieurs de Saint-Etienne), travaillant sur des échantillons de plexiglas qu’ils ont cassé en faisant varier la force appliquée pour ouvrir la fissure, viennent de démontrer qu’il n’en est rien et que la vitesse des microfissures engendrées sur des défauts du matériau et observées à une échelle suffisamment fine pour pouvoir être isolées les unes des autres est quatre fois plus faible qu’attendu. Et ce n’est que par un effet géométrique de rencontre de ces multiples microfissures que la fracture globale est finalement si rapide.

Vue au microscope (lumière polarisée) d’un exemple de marque laissée par une microfissure sur une surface de rupture rapide d’un échantillon de Plexiglas. Dimensions de l’image : 128 micro-m – 137 micro-m

Les résultats de ces travaux, publiés dans la revue PNAS (Proceedings of the National Academy of Sciences of the United of America), remettent donc en cause la vision classique de la rupture. En effet, ils montrent que toutes les microfissures se propagnent à la même vitesse d’environ 200 m/s, indépendamment du niveau de force appliquée pour ouvrir la fissure principale.

Un comportement observé à l’échelle microscopique très différent de celui observé à grande échelle, où la vitesse de fracture augmente avec la force, celle-ci pouvant atteindre 500 m/s. La prise en compte du rôle important joué par les défauts microscopiques présents dans un matériau sur le comportement en rupture de ce dernier devrait permettre ainsi de mieux apprécier, voire à terme d’améliorer, la résistance à la rupture des matériaux.

Qui plus est, la méthodologie développée au cours de cette étude pourrait par exemple fournir des indications sur les causes de l’effondrement d’une structure uniquement à partir de l’analyse des empreintes laissées sur les surfaces de rupture.

 

  • En haut : vue au microscope du réseau d’empreintes laissées par la nucléation, croissance et coalescence des microfissures, lors de la fracture rapide d’un échantillon de Plexiglas. Dimensions de l’image : 2,5 mm x 3,5 mm.
  • En bas : reconstruction numérique du réseau observé.

 

Source : Bulletins électroniques

Participez à la formation Techniques de l’ingénieur Tribologie : diagnostic et solutions techniques

Des peintures toujours plus intelligentes

Pour se prémunir contre les défauts structurels faisant leur apparition sur bon nombre de constructions, il existe des solutions peu pratiques, et dont le coût reste souvent excessivement élevé, voire prohibitif. Une équipe de chercheurs de l’université de Strathclyde, à Glasgow, en Écosse, a mis au point une peinture qualifiée d’« intelligente », permettant de détecter et de lutter contre les minuscules défauts structurels (inclusions d’air, micro fissures) qui peuvent consteller et fragiliser sur le long terme de gigantesques constructions telles que les éoliennes, les ponts ou encore certains bâtiments publics.

On retrouve au cœur de cette peinture écologique les inévitables nanotechnologies, par le biais de nanotubes de carbone, dont le rôle ici est de détecter les mouvements sur les très grandes structures, faisant fi des méthodes de surveillance et de contrôle traditionnelles, trop complexes et chronophages. Ces méthodes traditionnelles nécessitent des outils toujours plus pointus et onéreux, allant jusqu’à engloutir des millions d’euros chaque année. Elles peuvent aller d’une simple mais fastidieuse surveillance à l’œil nu, très imparfaite, jusqu’à une très complète mais peu pratique radiographie numérique à particule.

Cette peinture intelligente est, d’après ses concepteurs, très simple d’utilisation, puisqu’une fois pulvérisée sur n’importe quel type de surface, il suffit de lui associer des électrodes, combinaison détectant les défauts longtemps avant qu’un problème plus conséquent n’apparaisse. Le processus de surveillance et de contrôle ne requiert quant à lui aucune expertise. « Son prix accessible lui donne en outre un sérieux avantage sur ses concurrents », ajoute le docteur Mohamed Saafi, responsable du département d’ingénierie civile de l’université de Strathclyde.

Les principaux composants de cette peinture intelligente sont les fameuses « cendres volantes », un sous-produit industriel recyclé, ainsi que des nanotubes de carbone. Le mélange présente des propriétés de résistance et de durabilité identiques à celles du ciment, le rendant très utile dans des environnements considérés comme difficiles.

Le processus de contrôle implique un réseau de capteurs sans-fil connectés à une source d’alimentation autonome, réseau capable par exemple de dépister les moindres micro-fissures dans les fondations d’une éolienne. « Le contrôle des éoliennes se fait encore visuellement. La mise en place de ce système pourrait réduire de manière significative les coûts de maintenance et améliorer la sécurité de ces structures », rappelle Mohamed Saafi. « La peinture intelligente permet une surveillance sur l’ensemble de la structure, alors que les technologies actuelles nous cantonnent à des zones spécifiques », ajoute-t-il, « ce qui est particulièrement utile pour maximiser les opportunités de prévention de dégâts majeurs. »

Un prototype développé par l’équipe universitaire aurait déjà fait ses preuves, et d’autres tests sont en cours dans les environs de Glasgow. Nul doute que les propriétés mécaniques des cendres volantes, ainsi que leur prix dérisoire feront pencher la balance en faveur de cette nouvelle méthode de contrôle.

Par Moonzur Rahman

Les nouvelles glissières télescopiques KIPP : une meilleure fonctionnalité et une grande durabilité

Les différents types de glissières offrent pour pratiquement chaque application une solution adaptée au besoin. Que ce soit dans la construction mécanique ou l’automobile, dans l’équipement industriel ou le stockage, dans l’électromécanique ou les standards 19 pouces, il existe sûrement une glissière télescopique KIPP qui peut vous convenir.

Le montage rapide et simple est une des caractéristiques de toutes les glissières télescopiques KIPP. Dans de nombreuses applications, ils peuvent être fixés sur le bâti et l’élément mobile par vissage ou rivetage.

Les glissières télescopiques KIPP, comprenant de 2 à 4 profilés séparés, garantissent une très grande stabilité même lorsqu’ils sont entièrement sortis avec une charge importante. Afin d’optimiser leur durée de vie, les rails sont pré-graissés à l’aide d’une graisse spéciale et ne requièrent de ce fait quasiment aucune maintenance.

Le système de séparation rapide des rails, le verrouillage fin de course ou l’amortissement lors de la fermeture sont autant de solutions innovantes qui rendent la fonctionnalité des glissières télescopiques KIPP supérieure aux autres.

 

 

 

Le levier à came KIPP en matière plastique : efficace et ergonomique

La version en matière plastique du levier à came KIPP constitue un moyen de serrage économique, utilisable dans les applications les plus diverses.

HEINRICH KIPP WERK complète sa gamme fiable de leviers à came par une version de forme ergonomique en matière plastique de haute qualité. Ce levier permet de serrer rapidement et en toute sécurité, sans mouvement rotatif. Dans le cas d’une utilisation intensive, il en résulte une économie substantielle de temps et d’argent.

La double courbe de serrage permet l’utilisation avec 2 positions différentes du levier et a été conçue de telle sorte que le maintien en position serré soit effectif dans chaque configuration. La butée intégrée protège le point de serrage contre un excès de pression et empêche une sur-contrainte dans tous les composants. L’avantage d’un serrage exempt de couple, est qu’il n’est pas nécessaire de protéger les pièces contre la torsion. Pour la version réglable, le réglage de la force et de la position de serrage s’effectue à l’aide du tournevis et garantit un effort de serrage optimal.

Le levier à came ergonomique en matière plastique développé par KIPP est disponible, tout comme les modèles en aluminium ou en acier inox, avec taraudage ou tige filetée de dimension M5 à M10.

Pour en savoir plus

Positionner des pièces à usiner rapidement et sûrement

Les cimblots épaulés à bout sphérique sont des éléments qui servent à positionner les pièces brutes dans des alésages en vue d’être usinées ou à assembler des composants.

Un pré-centrage est tout d’abord effectué par le biais du bout sphérique. La pièce brute ou le composant peut très bien ne pas se trouver dans l’axe. Le bout sphérique déjoue la tendance au coincement, également appelé « l’effet de tiroir »ou « stick-slip ». L’oblique d’assemblage résultant du bout sphérique met la pièce brute en position. Le positionnement exact s’effectue alors dans le dernier quart.

Afin d’éviter une surdétermination, il est utile de placer dans un alésage un cimblot avec section complète (forme A ou B) et dans le deuxième alésage le modèle aplati (forme C ou D).

Le taraudage incorporé offre la possibilité, à l’aide d’un extracteur, de dégager à nouveau aisément les cimblots hors d’un trou borgne.

Il est également possible d’équiper ultérieurement des dispositifs existants. Les diamètres de logement vont de 8 mm à 50 mm. De cette façon, le produit standard remplace même des systèmes jusqu’ici particuliers. De l’acier à outils durci et rectifié ou de l’inox rectifié ou durci en surface permettent une utilisation dans des milieux agressifs.

Pour en savoir plus

Les nouveaux aimants KIPP : Diverses formes, adhérence importante, parfait blindage

 

Dans sa large gamme, KIPP propose les formes les plus diverses, telles que grappins cylindriques, aimants plats, aimants boutons et en U. Tous nos aimants sont en stock chez nous et livrables rapidement.

Des aimants blindés sont utilisés dans la plupart des applications, c’est-à-dire que les aimants ne possèdent qu’une surface d’adhérence. Toutes les autres surfaces de l’aimant ne sont pas magnétiques, ce qui ne provoque pas la magnétisation indésirable de l’environnement entrant en contact avec l’aimant.

Pour éviter les rayures, les aimants KIPP disposent d’une gaine de protection en caoutchouc. Ces aimants conviennent parfaitement pour des surfaces sensibles, telles que les surfaces laquées ou polies.

La gamme propose différentes possibilités de fixation avec taraudage ou tige filetée ou avec des perçages. Les variantes lisses peuvent être aussi bien collées qu’emmanchées.

Matières d’aimant utilisées :

  • Ferrite dure
  • SmCo (Samarium-Cobalt)
  • NdFeB (Neodyme-Fer-Bore)
  • AlNiCo (Aluminium-Nickel-Cobalt)

Pour en savoir plus

Gaz de schiste : ce que révèle l’enquête du New York Times (2/3)

Extraits : « Suis-je juste complètement fou, ou est-ce que tout le monde approuve l’exploitation des gaz de schiste sans en connaître vraiment les implications réelles au niveau économique pour les entreprises qui travaillent dans ce secteur ? ». Un autre e-mail exprime des doutes similaires : « Je suis d’accord avec vos préoccupations au sujet de l’euphorie pour les gaz de schiste et de pétrole», écrivait un membre de la haute direction de l’EIA.

Autre exemple : « Nous pourrions être dans une « ruée vers l’or » dans laquelle quelques personnes ont développé des « monstre puits», et aujourd’hui tout le monde suppose que tous les puits seront des « monstres » ».

Les rapports annuels de l’EIA sont largement suivis par les investisseurs, les entreprises et les décideurs, car ils sont considérés comme scientifiquement rigoureux et indépendant de l’industrie. Ils informent également sur les initiatives des législateurs. Le Congrès, par exemple, a été le lieu d’examen de subventions importantes pour promouvoir les véhicules fonctionnant au gaz naturel et la réduction des impôts pour l’industrie.

Dans toute organisation aussi grande que l’EIA, il y a inévitablement des divergences d’opinion, en particulier dans les e-mails privés partagés entre collègues. C’est un fait. Un porte-parole de l’agence a d’ailleurs affirmé que ces divergences trouvent un écho dans les rapports émis par l’agence quant aux aléas de la production de gaz de schiste.

« Un des principes directeurs que nous employons est de s’attacher aux données, a déclaré Michael Schaal, directeur de l’Office du pétrole, du gaz naturel et de l’analyse des biocarburants au sein de l’EIA. Il est clair que les données montrent que le gaz de schiste est devenu une source importante d’approvisionnement en gaz naturel domestique ».

Certains employés de l’EIA regrettent la position de l’institution sur les schistes

Mais les doutes et les préoccupations exprimées dans les e-mails et la correspondance obtenus par le Times sont remarquables, parce qu’elles sont partagées par de nombreux employés, certains d’entre eux ayant des postes de premier plan. Les documents et les e-mails, qui ont été fournis au Times par des consultants de l’industrie, des fonctionnaires fédéraux de l’Energie et des chercheurs proches du Congrès, montrent le scepticisme quant à l’économie des gaz de schiste, même de la part des pontes de ces agences.

Les e-mails ont été fournis par plusieurs personnes au Times sous la condition que les noms de ceux qui les envoient et qui les reçoivent ne seraient pas utilisés.

Certains e-mails suggèrent des frustrations au sein des équipes responsables quant à leur volonté de proposer des données plus précises quant au potentiel réel des gaz de schiste.

Ainsi, par exemple, un analyste du gouvernement fédéral, décrivant une publication de l’EIA, regrettait que l’administration partage le point de vue optimiste de l’industrie. Ce dernier écrit dans un e-mail : « il semble que la science soit orientée dans une direction et que l’industrie soit orientées dans une autre. Il nous faut trouver un juste milieu, même si cela est difficile, entre les preuves scientifiques accumulées et le lobby des industriels ».

L’EIA a pour mission de proposer des informations indépendantes et impartiales servant de base à la réflexion et à la décision politique, ainsi qu’aux marchés. Sa création résulte de la crise  énergétique des années 70, suite à laquelle les législateurs ont pensé que ce genre de données permettrait d’éviter des crises similaires dans le futur.

En guise de protection par rapport aux pressions politiques et industrielles, les rapports de l’EIA ne nécessitent pas l’aval de tout autre branche du gouvernement pour être validés.

L’administrateur de l’EIA, Richard G.Newell, qui a annoncé ce mois-ci son intention de démissionner pour occuper un emploi à l’Université Duke, a salué les perspectives pour le gaz de schiste, le qualifiant de révolution dans le mix énergétique des Etats-Unis : « Les perspectives énergétiques en ce qui concerne le gaz naturel ont considérablement évolué au cours des dernières années », a déclaré M. Newell lors de la Table ronde du gaz naturel, un groupe à but non lucratif lié à l’American Gas Association (association américaine du gaz).  « L’un des virages les plus importants est de rôle joué par la transformation des gaz de schiste », a-t-il conclu.

Par Robbie Brown et Kitty Bennett

Améliorer la recyclabilité du produit automobile : quel intérêt stratégique ? (2/3)

L’industrie automobile n’en est pas en reste. Souvent décriée, elle est aujourd’hui très consommatrice de ces nouvelles tendances environnementales. Les innovations et les stratégies commerciales poussées par les constructeurs automobiles vont toutes en ce sens : réduction de la consommation des véhicules, utilisation d’énergies alternatives, hybridation de la chaine de traction, utilisation de biomatériaux …

Suite de la première partie

La méthode C2C appliquée sur un organe automobile : le panneau de porte.

Afin d’évaluer la faisabilité technique et l’intérêt d’un démarche « cradle to cradle » dans l’industrie automobile prenons l’exemple de son application sur un panneau de porte.

Un panneau de porte est un organe de l’intérieur véhicule. Il est constitué d’un assemblage de plusieurs pièces plastiques. Il a pour fonction d’habiller l’intérieur des portes du véhicule afin de les rendre esthétiques, agréables et confortables pour les passagers.

Illustration d’un panneau de porte (Crédit a2mac1)

 

Décomposition matière d’un panneau de porte (Crédit a2mac1)

Si la diversité matière n’est pas forcement importante sur des panneaux portes. Le traitement en fin de vie de ces composants reste compliqué. Dans un scénario « tri post broyage », la présence simultanée de polyéthylène et de polypropylène ne permet pas une dissociation de ces 2 polymères. En effet, les technologies de tri actuelles sont basées la différence de densité. Or, ses 2 matériaux présentent une densité trop proche pour pouvoir être séparés.

De plus, sur un panneau de porte, on retrouve fréquemment des pièces trilaminées (constituées de trois couches de matériaux différents) composées de polypropylène pour la structure de la pièce, la mousse pour le confort et le textile en polyéthylène pour l’esthétisme de l’habitacle intérieur. La présence de ce type de pièces trilaminées ne permet pas, après broyage ou démontage, d’assurer une dissociation parfaite des matériaux. La pureté de la matière récupérée s’en retrouve dégradée.

Illustration d’une pièce trilaminée (structure plastiques, mousse et textile) (Crédit a2mac1)

L’étude C2C se déroule en 3 phases :

  • Analyse de l’existant.
  • Amélioration des résultats en gardant l’architecture originale des produits.
  • Re-conception complète en cherchant à trouver les architectures qui permettent d’optimiser le résultat.

Après l’analyse de l’existant, l’approche C2C a permis de définir 2 évolutions « produit » (dénommée étape 2 et 3) dont la recyclabilité fin de vie a été améliorée. Afin de borner l’étude et d’avoir une base de comparaison exploitable, les solutions proposent un coût de fabrication inférieur ou égal à l’original et le niveau de finition et de prestation est supérieur ou égal à l’existant.

Le projet étant toujours en cours d’avancement actuellement et comportant des innovations confidentielles, seul l’évolution de la décomposition matière sera présenté dans ce document.

Tableau : Evolution de la décomposition matière du panneau de porte au fil des étapes

Cette décomposition montre qu’au fil des étapes, la diversité matière du produit a diminué. Si le produit existant contient 5 matières différentes, la solution de l’étape 3 n’est plus composée que de 2 matières. Dans le cadre de la solution de l’étape 3, on retrouve toujours du polypropylène et du polyéthylène mais ceux-ci sont dissociables aisément par démontage lors de la fin de vie.

 

  • Amélioration de la valorisation matière envisageable

 

Si on évalue le taux de valorisation potentielle des différentes solutions, en faisant abstraction de la manière dont le tri est réalisé (démontage sélectif ou tri post broyage), on peut remarquer que le recyclage matière pourrait passer de 53 à 91% puis à 100%. 

 

Tableau : Evolution du niveau recyclabilité au fil des étapes

 

Cette estimation est basée sur les hypothèses discutables suivantes : l’ABS/PC n’est pas recyclé du fait d’un volume très peu important (viabilité d’un débouché difficile); les mélanges de matières (P/E+PU+PES) et (P/E+PVC) ne sont valorisable que thermiquement du fait de l’impossibilité de séparer ces constituants.

Pour avoir une vision réelle de l’amélioration de la recyclabilité du panneau de porte, il est nécessaire d’évaluer la quantité et la qualité de matière récupérable selon les deux scénarios de traitement de fin de vie actuellement développés : 

  • intensification du démontage (séparation manuelle des pièces composées de matériaux différents)
  • tri post broyage (broyage de la caisse nue puis tri mécanique)

Les taux présentés ci-dessus peuvent correspondre à ce qu’on peut attendre d’un scénario tri post broyage. En effet, les tris se font principalement grâce à la différence de densité des matériaux. Les composants ayant des densités bien distinctes (PP < 0,95 ; 1,1 < ABS/PC < 1,2 et le PVC > 1,2), ils sont assez facilement séparables. Par contre, l’ensemble de la matière recyclée sera dégradé par rapport à sa performance originale à cause du mélange polyéthylène et polypropylène (non dissociable par tri densimétrique : PP = PE < 0,95).

Le scénario de démontage pourrait quant à lui permettre à la matière de garder plus de valeur. Par contre, l’équilibre économique du démontage, comme nous l’avons vu précédemment, est dépendant du temps de démontage et de la valeur de la matière dans la filière de recyclage. Une rapide modélisation montre qu’à un prix de 1300€ la tonne de polypropylène vierge (valeur moyenne actuellement rencontrée), l’opération de démontage n’est pas viable. Selon la modélisation, un prix 1500€ la tonne permettrait d’équilibrer la filière avec la solution de l’étape 3.

Tableau : Evaluation de la rentabilité d’une opération de démontage

La modélisation prend en compte les hypothèses « discutables » suivantes : valeur du polypropylène recyclé = 10% de la valeur de la matière vierge ; la conception de solutions de l’étape 3 permet de diviser par 2 le temps nécessaire au démontage. Le transport n’est pas pris en compte, ce qui ferait augmenter le seuil de rentabilité de l’opération.

En conclusion, nous pouvons dire que l’effort de conception, réalisé sur le panneau de porte dans le cadre de ce projet, permet vraisemblablement d’améliorer la quantité de matière recyclable. Si dans les conditions économiques du moment il paraît difficilement envisageable de récupérer de la matière à forte valeur ajoutée (scénario de tri post broyage), à l’avenir, si le prix de la matière augmente, cela pourrait être le cas (scénario de démontage viable).

  • Impact sur les coûts de fabrication.

Afin de s’assurer que les choix de conception des produits n’induisaient pas une réduction de la marge de l’entreprise, une évaluation des coûts a été réalisée. Ci-joint le résultat de l’étape 2 :

L’amélioration de la recyclabilité du panneau de porte n’a donc pas impacté les coûts de fabrication. Elle semble même les avoir réduits. Le niveau de finition n’ayant pas été dégradé par rapport à la solution de référence (donnée de base de l’exercice), la démarche a permis de faire émerger une marge potentiellement supérieure sur le produit.

Il est toutefois un peu hasardeux d’attribuer la réduction des coûts à la démarche entreprise dans de le cadre de ce projet. Cet effet est fortement dû à l’utilisation d’une innovation qui existait avant l’émergence de ce projet. La vertu du projet a plutôt été de l’utiliser à bon escient.

 

(Troisième partie de l’article à paraître le 23/02)

Relire la première partie

Par 

Quentin Weymuller

Chef de projet Innovation, FAURECIA

Philippe Aumont

Responsable plan produit et innovation, FAURECIA

et

Jasha Oosterbaan

Enseignant-chercheur, MINES ParisTech

Responsable des Mastères Spécialisés QSE-DD et Santé-Environnement, ISIGE – MINES ParisTech

 

Article réalisé dans le cadre du Mastère Spécialisé Ingénierie et Gestion de l’Environnement de l’ISIGE – MINES ParisTech

 

également : 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Problèmes sur l’A380 : après les ailes, le nez

L’avionneur a relativisé les problèmes rencontrés. « Il s’agit là de la vie ordinaire d’un programme aéronautique et le délai de huit mois envisagé pour les compagnies prouve à quel point ce sujet ne relève pas d’une question de sécurité aérienne », a-t-il déclaré.

L’Agence européenne de sécurité aérienne (AESA) prépare une consigne pour échanger 6 rivets en aluminium contre des rivets plus résistants en titane sur le nez des A380, selon le journal économique allemand. Car en cas de choc extrême, comme une brutale dépressurisation, le radôme – la coupole protégeant l’antenne du radar sur le nez de l’appareil – risquerait de se détacher.

L’échange des rivets devrait être fait dans les huit prochains mois, selon la consigne en préparation de l’AESA. Il faut compter environ trois heures et demi pour changer ces pièces, a déclaré un porte-parole d’Airbus au FTD. Début février l’AESA avait annoncé que l’ensemble des 67 Airbus A380 en service dans le monde devaient être inspectés en raison de fissures apparues dans la voilure de certains d’entre eux. Fin 2010 c’était les réacteurs Rolls-Royce équipant certains A380 qui avaient dû être révisés en urgence, après l’explosion de l’un d’entre eux en plein vol d’un avion de Qantas.

Source : AFP

La Commission attentiste sur le gaz de schiste

Le sujet est écologiquement sensible. Chaque État étant libre de décider de son bouquet énergétique, la Commission européenne hésite donc à se prononcer sur le gaz de schiste. En Europe, tous les pays cherchent à sécuriser leur approvisionnement en énergie et ce gaz fait parfois figure d’alternative. Certains Etats ont d’ailleurs été contraints de prendre position récemment.

A l’issue d’un débat houleux, le Parlement français a décidé, en juillet 2011, d’interdire l’utilisation de la principale technique d’extraction du gaz de schiste. Trois permis d’exploration ont été abrogés. Depuis janvier 2012, la Bulgarie a rejoint le camp français. En Allemagne, les régions attendent les résultats d’une étude sur l’impact environnemental avant de décider de poursuivre ou non les projets d’extraction.

Au contraire, la Pologne rêve déjà de devenir le “Qatar de l’Europe centrale”, confie une source diplomatique. Les premiers projets d’exploration devront débuter en 2013. L’Europe, unie dans la diversité … De son côté, le Parlement européen a commencé à s’intéresser aux risques environnementaux de l’extraction et publié une étude en juillet 2011. Certains députés veulent des règles communes pour encadrer les activités d’exploration. D’autres vont plus loin et appellent à une interdiction européenne de l’extraction du gaz de schiste pour des raisons de protection de l’environnement. Une option exclue par la Commission, qui réaffirme en janvier 2012 “qu’elle n’a nullement l’intention d’interdire l’exploration du gaz de schiste en Europe ».

Toutefois, les approches divergentes entre les États et les craintes formulées par les écologistes sur la manière dont ce gaz est exploité semble avoir finalement obligé la Commission à s’intéresser au cadre réglementaire en place.

Pas d’urgence

Les conclusions d’une étude commanditée par la direction générale de l’énergie, dévoilée vendredi 27 janvier, indiquent le chemin que l’exécutif compte prendre ces prochaines années. Selon le commissaire en charge de l’énergie Günther Oettinger, “l’étude confirme qu’il n y a pas de besoin immédiat de modifier la législation européenne”.

Le résultat principal de l’étude, qui porte sur la réglementation européenne et les règles applicables en France, en Allemagne, en Suède et en Pologne, est clair. « Ni au niveau européen, ni au niveau national, nous n’avons constaté de lacunes significatives dans le cadre légal actuel », écrivent les experts.  La liste des textes réglant les différentes phases de l´exploitation est longue. L’attribution des permis aux opérateurs est couverte par la directive sur les hydrocarbures.

La directive cadre sur l’eau définit les règles de base à respecter pour la protection de l’eau. L’utilisation des substances chimiques lors de l’extraction du gaz de schiste est réglementée par la directive REACH sur les produits chimiques…  Aujourd’hui satisfaisant pour la Commission, le cadre réglementaire pourrait ne plus l’être dans quelques années. Les activités d’exploration se limitent actuellement à une dizaine de projets d’expérimentation  dans des pays comme la Suède, la Pologne et en Allemagne.

Ainsi, si l’Europe décidait de se servir de cette ressource énergétique autant que les États-Unis – où l’exploitation commerciale du gaz de schiste compte actuellement pour plus d’un quart de la production gazière nationale – les effets cumulatifs d’une multitude de site d’exploitations devraient être examinés de plus près, expliquent les auteurs de l’étude publiée par la Commission. C’est pourquoi, Günther Oettinger a annoncé surveiller de près l’évolution dans les États membres pour s’assurer que le cadre légal reste approprié.

Risques maitrisables?

Cette attitude attentiste ne satisfait guère les écologistes. Neuf eurodéputés du groupe des verts au Parlement européen déplorent l’inactivité de la Commission et l’ont appelé, dans une lettre datée du 30 janvier, à améliorer la réglementation européenne. Pour Greenpeace Europe, il est également temps d’agir, car même des projets à petite échelle comportent des risques considérables. “Avant de lancer des projets d’exploration, nous devons savoir exactement dans quelle aventure s’embarquent les compagnies du secteur de l’énergie”, déclare Frauke Thies, chargée des politiques énergétiques pour l’ONG. Jusqu’à voir plus clair, toutes les activités d’exploration devraient ainsi être arrêtées.

Certains scientifiques ne vont cependant pas aussi loin. “Les risques peuvent être maîtrisés techniquement”, estime Ingo Kapp du centre de recherche géologique de Potsdam (GFZ). En Allemagne, la facturation hydraulique est employé pour l’exploitation d’autres types de ressources que le gaz de schiste depuis les années 1960. Aucun incident majeur sur l’environnement n’a été enregistré par les autorités, selon l’institut fédéral des sciences géologiques (BGR) qui conseille le gouvernement allemand.

Juge et partie

L’étude publiée par la Commission révèle une autre faille dans les règles en vigueur. Les évaluations de l’impact environnemental ne sont pas toujours obligatoires pour les activités d’exploration, et les consultations publiques sont rares. Les quantités exploitées dans le cadre d’une simple exploration sont inférieures aux seuils critiques au-dessus desquels l’impact environnemental doit impérativement être évalué.

Ainsi, pour Mathias Altman, co-auteur de l´étude du Parlement européen, il serait opportun d’abaisser les seuils inscrits dans la directive européenne sur l’évaluation des incidences sur l’environnement (EIE). Selon la direction générale de l’énergie, ce n’est pas nécessaire, les États étant déjà tenus de faire, quoi qu’il arrive, un « examen préalable » (screening) des projets d’extraction, c’est-à-dire une procédure moins approfondie. Mais dans ce cas là, les Etats eux-mêmes jugent s’il est nécessaire d’aller plus loin et de procéder à une étude d’impact. Une manière d’être juge et partie.

Par Julian Schorpp

Source : EurActiv.fr

A lire également

Les stratégies pour réussir dans la création de nouveaux produits

Chaque fabricant doit définir son approche de l’innovation. Pour certaines sociétés, dont Swagelok, l’innovation est une valeur fondamentale. Dans ces sociétés, l’esprit d’innovation est présent dans l’ensemble de l’entreprise, des bureaux jusqu’à l’atelier. Je traiterai de l’innovation dans le développement de produits, en m’attachant à exposer les stratégies de réussite dans ce domaine essentiel.

De quelle manière la création de nouveaux produits profite-t-elle à un fabricant ? L’innovation en matière de produits, et les évolutions qui en découlent, permettent aux entreprises de se distinguer sur le marché. La création de nouveaux produits renforce l’image de la marque, accélère l’adoption des technologies, augmente les profits et favorise un environnement ouvert à de nouvelles innovations. Elle rend également le travail plus plaisant. Les collaborateurs sont mis à l’épreuve, stimulés, et se sentent reconnus lorsqu’ils savent que leurs meilleures idées deviendront réalité pour le bénéfice de tous.

Je décrirai deux stratégies essentielles pour réussir dans la création de nouveaux produits. Premièrement, déterminer la relation entre développement technologique et développement de produits dans votre entreprise, ainsi que la meilleure manière de les associer. Deuxièmement, observer les meilleures pratiques pour faire en sorte que les priorités en matière de développement de technologies et de produits correspondent au mieux aux besoins des clients. 

[°page°]

Le Yin et le Yang du développement de technologies et de produits

Le développement technologique et le développement de produits sont deux processus différents mais interconnectés et interdépendants, et ils se déroulent souvent parallèlement. Dans le cas du développement technologique, les entreprises élaborent plusieurs approches pour résoudre un problème : émettre, évaluer et itérer des idées rapidement à travers la réalisation de prototypes et de pilotes. Par comparaison, dans le développement de produits, seule la meilleure solution est développée et mise en œuvre de la manière la plus efficace possible.

Ces deux activités s’alignent sur les objectifs de marketing d’une entreprise en matière de développement de produits. L’aspect commercial est important dans la mesure où une innovation reste une invention tant qu’elle ne rapporte rien.

La première stratégie pour une innovation réussie consiste à déterminer comment allier au mieux développement technologique et développement de produits dans votre entreprise. Les deux processus pourront suivre des trajectoires distinctes mais parallèles. Dans le développement technologique, les entreprises, pour répondre à des défis technologiques spécifiques, explorent des solutions alternatives. Les solutions qui en résultent – noyaux d’informations – sont conservées pour un usage ultérieur. Dans le développement de produits, les entreprises créent de nouveaux produits, de nouvelles gammes, ou améliorent des produit existants.

Il doit y avoir des interactions entre les deux trajectoires suivies. Les ingénieurs en charge du développement de produits devront en effet puiser dans les avancées technologiques, tandis que les ingénieurs en charge du développement technologique devront connaître les nouveaux défis auxquels sont confrontés leurs collègues concepteurs de produits. Ce processus interactif permet d’améliorer les délais de commercialisation, la rentabilité et la performance des produits.

Par exemple, pour répondre à un besoin du marché des semi-conducteurs, notre entreprise s’est lancée dans le développement d’une nouvelle vanne très haute pureté à membrane. Notre équipe de développement technologique travaillait sur de nouvelles techniques d’assemblage et d’étanchéité pour un usage éventuel dans des vannes. En s’appuyant sur ces travaux, notre équipe de développement de produits a pu développer et commercialiser rapidement une nouvelle vanne répondant à la demande du marché.

La collaboration est essentielle à la réussite de la stratégie exposée ci-dessus. Par exemple, la collaboration de l’équipe de développement de produits est cruciale pour identifier les problèmes et les possibilités en matière de développement technologique. Cette approche interactive à trajectoires distinctes tient compte de la nature progressive de l’innovation, processus dans lequel les avancées majeures sont souvent le résultat de technologies existantes combinées différemment.

[°page°]

Recommandations pour répondre aux demandes des clients

Dans les entreprises, les innovations sont le résultat combiné d’études de marché, d’idées mûries en interne, de demandes émanant des clients, et d’autres facteurs divers. Par ailleurs, les solutions innovantes sont fréquemment découvertes par hasard.

Les fabricants maintiennent habituellement un équilibre entre, d’une part, les efforts d’innovation dictés par le marché, et, d’autre part, les efforts d’innovation reflétant les souhaits des clients. Les études de marché identifient les besoins du marché au sens large ou les demandes qui émanent de marchés spécifiques, qui motiveront l’innovation. Des ressources sont alors allouées pour soutenir les objectifs de l’entreprise en matière de développement de produits et de technologies. Les clients soumettent des problèmes spécifiques à résoudre, parfois sans cerner réellement la nature exacte du problème et sans réaliser qu’une solution est possible.

Les demandes des clients constituent une force extérieure qui stimule l’innovation. La réussite dans la création de nouveaux produits souhaités par les clients peut être facilitée si les entreprises suivent un ensemble de recommandations axées sur une communication claire et ouverte entre les différentes parties. La seconde stratégie consiste à suivre ce processus méthodique pour obtenir des résultats dans la création de nouveaux produits.

1. Rassembler toutes les données

Créer une solution pour résoudre un problème soumis par un client commence par une compréhension approfondie des besoins de ce client – les besoins réels, et pas seulement les besoins énoncés. Les concepteurs ne doivent pas se contenter de répondre à la demande. Ils doivent d’abord poser une série de questions détaillées pour clarifier le contexte, par exemple : Pourquoi avez-vous besoin de ce produit ou de cette technologie ? Comment ce produit ou cette technologie s’intègrent-ils dans un système complet ? Qu’est-ce qui affecte leurs performances ? Quelles autres solutions ont fonctionné ou échoué ? Une vision détaillée du problème peut révéler l’existence d’une solution plus complète, au lieu d’une solution répondant simplement à la demande initiale du client.

2. Rassembler les parties véritablement concernées et faire en sorte qu’elles soient en phase

Une communication ouverte est essentielle pour arriver à la meilleure réponse possible au problème posé par un client. En général, les clients commencent par faire part de leur demande 

aux responsables commerciaux. Il est important de faciliter la collaboration entre les équipes techniques des deux parties, cela pour assurer une bonne transmission de l’information et pour encourager une communication entre pairs, ce qui enrichira la relation et contribuera à garantir la mise au point de solutions appropriées.

Il est nécessaire que les ingénieurs des deux entreprises partagent des informations détaillées concernant l’application et qu’ils examinent ensemble les problèmes techniques le plus tôt possible dans le cycle de conception. Le fait de réunir des personnes parlant le même langage technique favorise le partage d’informations, le brainstorming et l’efficacité, tout en permettant aux différentes parties d’acquérir une connaissance approfondie du projet.

3. Rester à l’avant-garde

Les concepteurs de technologie ont de plus grandes chances de pouvoir répondre aux futures demandes de leurs clients lorsqu’ils explorent de manière proactive les possibilités du marché et les applications potentielles. Comme cela a été évoqué précédemment, un moyen pour structurer ces efforts proactifs consiste à établir une trajectoire pour le développement technologique distincte de celle du développement de produits, mais parallèle à celle-ci. Mettre au point des solutions à des problèmes spécifiques avec des technologies émergentes, en devançant les demandes des clients, permet de garantir une bonne utilisation de ces solutions lorsque celles-ci deviennent nécessaires pour répondre aux exigences des applications. En procédant de la sorte, les concepteurs ont la capacité de répondre plus rapidement, et de manière plus efficace, aux besoins des clients.

4. Réaliser des prototypes très tôt et souvent

La réalisation précoce de prototypes – même pour des composants simples – permet aux concepteurs de tester et d’affiner les produits avant d’aller trop loin dans le processus de développement. On pourra recourir à des techniques telles que les prototypes virtuels ou l’analyse virtuelle de la conception. Les concepteurs doivent tester les nouvelles idées et réaliser des études de faisabilité tout au long d’un projet, afin d’en déterminer les chances de succès ou d’échec. Ensuite, alors que le processus de développement se poursuit, il est possible d’effectuer des ajustements sans pour autant devoir procéder à des changements majeurs. Ces prototypes précoces sont souvent moins chers que des systèmes complets et peuvent être réalisés plus rapidement, d’où des coûts moindres et un temps de développement plus court.

En collaboration avec le client, il est conseillé de tester d’abord les pièces présentant les risques les plus élevés ou qui ont posé le plus de problèmes. Ainsi, les entreprises et leurs clients, avant d’investir du temps, de l’énergie ou de l’argent, sont plus à même de déterminer la présence éventuelle d’obstacles insurmontables qui pourraient imposer de mettre un frein à un projet. Même lorsqu’un projet ne remplit pas son objectif initial, il peut tout de même être considéré comme une réussite. Le processus de collaboration renforce les relations entre clients et concepteurs, et permet à chaque partie de mieux appréhender les besoins et les capacités de l’autre, ce qui contribue à faciliter la mise en œuvre du projet suivant.

[°page°]

Un processus payant

Les fabricants qui mettent en œuvre les meilleures pratiques dans la création de nouveaux produits souhaités par les clients peuvent en tirer d’importants bénéfices. En général, les activités dans ce domaine nécessitent peu d’investissements et présentent peu de risques. Bien que les bénéfices prévus soient également moindres en raison d’une base d’utilisateurs potentiels moins importante, ces activités peuvent être d’une grande importance avec de gros clients, dans la mesure où elles développent la capacité de réaction et contribuent à l’image de la marque.

Par ailleurs, du fait que les clients sont impliqués, les entreprises abordent des problèmes réels et actuels. Normalement, si le problème est résolu, le client achètera la solution, d’où une adoption accélérée de la technologie et des profits plus importants. Ces activités axées sur les clients créent également un environnement propice aux nouvelles idées et à l’élargissement d’une gamme de produits. Par ailleurs, les relations client-concepteur s’en trouvent également renforcées, et ce processus peut conduire à de futures collaborations, sources de réussite pour les deux parties.

Le fait de suivre ces recommandations dans le travail avec les clients, tout en approchant de manière stratégique la relation entre le développement technologique et le développement de produits, peut contribuer au succès d’une entreprise en matière d’innovation. Les efforts consentis en valent la peine. Un fabricant connu pour ses innovations se distingue sur le marché. En interne, la création de nouveaux produits est également payante pour une entreprise : elle offre l’occasion de célébrer une réussite et de reconnaître le travail de tous ceux qui y ont contribué.

Publié par P.T
 

également : 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

La batterie « termite » de Sony

Les termites sont capables de prouesses : elles parviennent notamment à produire de l’énergie lorsqu’elles dévorent leur principale nourriture, le bois. Après avoir soigneusement étudié, quelques années durant, ces insectes et leur fonctionnement, une équipe de scientifiques affiliés aux laboratoires du géant japonais de l’électronique Sony a réussi à mettre au point une « batterie bio » dont le fonctionnement est directement inspiré par la faculté qu’ont ces petits insectes de produire de l’énergie à partir du fruit de leur festin.

Ce prototype de batterie se nourrit de petits morceaux de papiers ou de carton placés dans une solution aqueuse, produisant de l’énergie en petite quantité mais toutefois suffisante pour alimenter, par exemple, un lecteur MP3. Également qualifiée de « batterie termite », ce projet était dans les cartons de Sony depuis quelques années, projet qu’ils ont pris le temps de peaufiner afin d’arriver à un résultat jugé satisfaisant. Le principe de base était très simple : on utilise une enzyme pour casser des molécules de sucre, libérant des ions hydrogène et des électrons en quantité, qui génèrent alors un courant électrique et de l’eau. L’idée de départ était d’ailleurs d’utiliser des boissons sucrées, telles que certains sodas ou jus de fruits, mais l’intérêt en était extrêmement limité.

L’équipe de scientifiques s’est alors mise à pied d’œuvre pour rechercher une autre source de glucose. Rapidement, l’idée d’utiliser la cellulose du papier et du carton comme source fit son petit bonhomme de chemin, jusqu’à s’imposer totalement lors de la phase de développement. En adjoignant à la solution aqueuse une enzyme supplémentaire, il devient possible de casser les molécules de cellulose en molécules de glucose. La cellulose est constituée de longues chaines de glucose, et est très présente dans la plupart des végétaux, dont elle forme la paroi cellulaire. Le carton et le papier sont tous deux bien évidemment sources de cellulose, et donc de glucose. La rupture de ces longues chaines n’est pas chose simple, et fait intervenir des enzymes que l’on retrouve chez les termites.

Il suffit alors, pour alimenter cette batterie, de lui jeter en pâture des morceaux de carton et de papier, que l’on immerge dans la solution aqueuse enzymatique. La première enzyme rompt la cellulose, produisant ainsi du glucose que la seconde enzyme dévore pour libérer des ions hydrogène et des électrons. Ces derniers génèrent de l’électricité en passant au travers d’un circuit extérieur, alors que les ions hydrogène se combinent avec l’oxygène de l’air pour former de l’eau.

Utiliser des déchets de carton ou de papier pour produire de l’électricité, sans se reposer sur des traitements à base de métaux lourds ou des produits chimiques toxiques, trop beau pour être vrai ? Presque, car dans l’état actuel d’avancement de cette technologie, il faudra un certain temps avant que des batteries de ce type n’alimentent des appareils plus gourmands en électricité…

Par Moonzur Rahman

Nouveaux moteurs « eco-responsables » aux Etats-Unis

Avec la prise de conscience progressive des raisons du changement climatique, la pression exercée sur les fabricants de moteurs est de plus en plus grande afin qu’ils adoptent des pratiques éco-responsables, notamment la réduction des émissions de gaz de carter ou le passage aux carburants écologiques renouvelables. 

L’Agence américaine de protection de l’environnement (EPA) et l’Union européenne (UE) ont instauré de nouvelles réglementations strictes sur les taux d’émission tolérés pour les polluants comme le NOx, les particules, les hydrocarbures, le CO et le CO2. Ces textes ont des implications considérables pour les fabricants et exploitants de véhicules roulants et d’engins mobiles non routiers. 

Dans le secteur de la marine, il existe une législation équivalente appelée MARPOL MPEC 58/23. Sa version réactualisée (Tier 2) est entrée en vigueur en janvier dernier et des restrictions supplémentaires sont attendues pour les années à venir. Pour pouvoir se conformer à l’évolution des objectifs d’émissions, des efforts de développement constants doivent être menés.

Parker Racor vient de mettre au point le Super Impactor, un système de séparation des gaz innovant, simple et efficace, dépourvu de pièces en mouvement, répondant aux futures normes Euro 6 et Tier 4. 

Séparation par impact

A la suite de ses recherches sur les contraignants et couteux systèmes concurrents de centrifugation alimentée par air comprimé, Parker Racor a inventé un nouveau système de séparation par impact, en accélérant la vitesse des aérosols au delà de 100 mètres/seconde. Pour y parvenir, l’huile sous forme d’aérosols doit être accélérée à la même vitesse d’impact que celle d’un système de centrifugation. L’utilisation d’un très faible débit d’air du turbocompresseur permet cette accélération, aboutissant à des résultats significatifs et fiables. Cette nouvelle technologie, baptisée Super Impactor, est totalement dépourvue de pièces en mouvement et de consommables, facile à mettre en œuvre, compacte et ne nécessite aucune  maintenance.  

Les premières versions ont été intégrées l’année dernière à des moteurs de série. « Les volumes de production commencent à augmenter avec l’arrivée sur le marché des moteurs conformes aux nouvelles normes Tier 3b  et 4 »,  annonce Parker.

« Le premier Super Impactor mono-étagé a atteint une efficacité de séparation de 95 à 97% » précise Parker Racor. « Toutefois, d’autres variantes, parmi lesquelles des systèmes d’impact multi-étagés équipés de filtration secondaire sans entretien, ont même atteint des efficacités exceptionnelles de 99,6% dans le cadre d’essais de longue durée ». 

L’essentiel du travail de développement a été mené à bien dans les laboratoires d’ingénierie internes de Parker situés dans le  Yorkshire, en Angleterre, en partenariat étroit avec l’université de Leeds. 

Racor précise : « l’avantage essentiel de ce système est sa flexibilité : la technologie peut être utilisée soit en circuit fermé, le gaz de carter étant ramené vers le turbo, soit en circuit ouvert avec une efficacité élevée. Le Super Impactor ne nécessite aucun entretien ni maintenance. Il intègre aussi une régulation optimisée de pression/débit, garante du maintient de l’efficacité du système pendant toute la durée de vie du moteur.  

La technologie du Super Impactor a été étudiée pour être intégrée facilement dans les moteurs. 

Ainsi Parker contribue à la réduction des émissions de gaz par des moyens simples et économiques en conformité avec les réglementations de plus en plus strictes tout en améliorant significativement les performances globales et le rendement des moteurs.

Publié par Pierre Thouverez

L’essentiel de Reach (février) 1/2

Exportation de produits chimiques dangereux : 7 nouvelles substances

01/02/2012

Le règlement PIC relatif aux exportations et importations de produits chimiques dangereux a été de nouveau modifié. Sept produits chimiques supplémentaires sont soumis à des procédures de notification : dichlobénil, dicloran, éthoxyquine, propisochlore, bromure de méthyle, cyanamide et flurprimidol. Les substances triflumuron et triazoxide, dont l’utilisation dans les pesticides vient d’être autorisée, sont en revanche retirées de la liste des substances soumises à notification d’exportation.

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:026:0023:0025:FR:PDF

Directive-cadre sur l’eau – Quinze molécules rejoindraient la liste des substances dangereuses

01/02/2012

La Commission européenne propose de durcir la directive-cadre sur l’eau (DCE). Elle a identifié quinze nouvelles molécules qu’elle voudrait voir s’ajouter à la liste des trente-trois polluants déjà surveillés et contrôlés dans les masses d’eau européennes. Pour la première fois, trois substances issues de médicaments entreraient dans cette liste : 17-alpha-éthinylestradiol (EE2), 17-bêta-estradiol (E2) et diclofénac. Six de ces quinze nouvelles substances entreraient directement dans la catégorie « substances dangereuses prioritaires », qui implique la suppression progressive de leur déversement dans l’eau dans un délai de vingt ans (dicofol, PFOS, quinoxyfen, dioxines et composés, HBCDD, heptachlore). Par ailleurs, la Commission souhaiterait que deux des substances qui étaient déjà dans la liste des 33 substances comme « substances prioritaires » passent au statut de « substances dangereuses prioritaires ». Il s’agit de l’endosulfan et du trifluralin. Plus d’informations sur : 

http://ec.europa.eu/environment/water/water-dangersub/pri_substances.htm#list

http://europa.eu/rapid/pressReleasesAction.do?reference=IP/12/88&format=HTML&aged=0&language=FR&guiLanguage=fr

2300 substances déjà identifiées pour l’enregistrement de 2013 

03/02/2012

Fin 2011, l’ECHA a interrogé les entreprises pour obtenir une image précise de toutes les substances phase-in destinées à être enregistrées en 2013. Pour cela, l’ECHA a contacté toutes les entreprises qui avaient déclaré dans leur pré-enregistrement leur intention d’enregistrer une substance avant la seconde échéance de REACH. La date limite d’enregistrement du 31 mai 2013 concerne tous les déclarants potentiels de substances phase-in fabriquées ou importées dans l’UE dans des quantités comprises entre 100 et 1000 tonnes par an. 

L’ECHA invite les entreprises à consulter régulièrement cette liste. Les résultats préliminaires de l’enquête révèlent une liste de 2 300 substances qui seront enregistrées pour la première fois. L’ECHA mettra à jour la liste mensuellement et souhaite qu’elle soit aussi complète que possible. 

Pour les deux tiers de ces 2 300 substances, un déclarant principal a été nommé et l’ECHA souhaite publier leurs noms. Tout déclarant principal nouvellement nommé est invité à notifier cette information à l’ECHA en utilisant le formulaire dédié (ce formulaire peut également être utilisé pour mettre à jour les données précédemment soumises). Plus d’information sur :

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/ab06aa2b-8c2f-4273-a628-e2fdfaf2a6f4

Campagne « REACH 2013 – Act now » de l’ECHA 

En vue d’aider les entreprises à se préparer à l’échéance d’enregistrement de 2013, l’ECHA propose une série de Webinars. Les deux prochains, destinés aux déclarants principaux, portant sur les informations requises partie I et II se dérouleront le 29 février 2012 et le 7 mars 2012 (libres d’accès sur inscription). 

http://echa.europa.eu/web/guest/support/training-material/webinars#Lead_registrant_importance

Dans le cadre de cette campagne un Workshop pour les déclarants principaux s’est déroulé le 2 et 3 février à Helsinki. Les présentations et les enregistrements vidéo sont maintenant disponibles.

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/b5961cb7-ee61-4c40-9a14-9068f23f28f9

Informations pour éviter les essais inutiles sur les animaux – une nouvelle substance concernée

04/02/2012

L’ECHA a lancé un appel visant à collecter des informations sur une nouvelle substance pour éviter les tests inutiles sur les animaux : furannedione-2,5, dihydro-, dérivés mono-alcényles en C15-20 (N° CAS : 68784-12-3 et N° CE : 272-221-2)

Les informations sur ces substances sont à soumettre pour le 19 mars 2012. 

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Séances de pré-soumission de l’information

06/02/2012

Les futurs candidats pour l’autorisation peuvent demander une séance de pré-soumission d’information auprès de l’ECHA afin de clarifier les questions liées à la réglementation et à la procédure de demande d’autorisation. Plus d’information sur : 

http://echa.europa.eu/web/guest/applying-for-authorisation/pre-submission-information-sessions

Mise à jour de l’annexe XVII de REACH

09/02/2012

Un règlement de la Commission européenne, du 9 février 2012, met à jour l’annexe XVII du règlement REACH qui fixe les restrictions applicables à la mise sur le marché et à l’utilisation de certaines substances, mélanges ou articles dangereux.

Cette mise à jour porte sur les substances cancérogènes, mutagènes ou toxiques pour la reproduction (CMR). Elle résulte de l’inclusion d’un certain nombre de substances nouvellement classées CMR dans le règlement relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (CLP). Le nouveau règlement vient adapter la liste des substances CMR du règlement REACH concernées par l’interdiction de vente au grand public afin de les aligner sur les entrées correspondantes du règlement CLP.

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:037:0001:0049:FR:PDF

Publication de l’inventaire des classifications et étiquetages des substances chimiques

13/02/2012

L’ECHA a publié le 13 février le premier inventaire européen des classifications et des étiquetages des substances chimiques. Cet inventaire établit la classification de toutes les substances chimiques utilisées dans l’Union Européenne et permet ainsi d’identifier celles qui sont potentiellement dangereuses et susceptibles de nuire à la santé et à l’environnement. Plus de 90.000 substances sont répertoriées (substances soumises par les fabricants et importateurs dans le cadre du règlement CLP ou enregistrés en vertu du règlement REACH. L’inventaire en anglais, est accessible librement sur le site de l’ECHA. Cette base de données doit permettre à l’industrie, et en particulier aux petites entreprises, d’accéder aisément aux informations relatives à la dangerosité d’une substance, de faciliter le classement et l’étiquetage des substances et des mélanges, ou de remplacer les substances dangereuses par des produits moins nocifs lorsque cela est possible.

La Commission avertit toutefois que l’inventaire est susceptible de contenir des informations divergentes pour des substances identiques. L’inventaire doit donc servir de base aux entreprises qui devront s’efforcer de convenir d’une classification uniforme pour une substance donnée, comme l’exige le règlement CLP.

A cette fin, l’ECHA doit élaborer un outil de communication spécifique qui facilitera les contacts entre les fabricants et les importateurs de produits chimiques. Il est prévu que l’Agence actualise régulièrement le contenu de l’inventaire.

Cet inventaire est accessible à partir du lien suivant : 

http://echa.europa.eu/web/guest/information-on-chemicals/cl-inventory

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Avec Eight19, l’éclairage solaire devient accessible aux plus pauvres

Dans le passé, de nombreuses ONG ont essayé de diffuser les technologies d’éclairage solaire mais se sont heurtées aux équations économiques. Le coût du solaire PV a été divisé par 3 ces 5 dernières années, et pour environ 50 dollars, il est à présent possible d’obtenir un panneau solaire, une batterie lithium phosphate et une lampe LED permettant d’éclairer une petite pièce. Cela devient attractif, le temps de retour sur investissement est d’environ 1 an compte-tenu des économies réalisées en kérosène, mais nombreux sont ceux qui n’ont pas les moyens de sortir cette somme d’emblée. D’où l’innovation potentiellement très prometteuse proposée par Eight19.

Start-up née à Cambridge, spécialisée dans le photovoltaïque organique et soutenue par Carbon Trust et Rhodia, Eight19 a intégré au kit d’éclairage solaire un système électronique de type téléphonie mobile: l’usager obtient le kit complet « IndiGo » pour 10 dollars, et doit verser environ chaque semaine 1 dollar pour obtenir un code qui lui permet d’activer le kit.  Grâce à ce modèle économique innovant pay-as-you-go, qui rappelle celui de l’opérateur de mobilité durable BetterPlace, l’éclairage solaire devient à portée de main pour les populations plus pauvres de la planète.

Un investissement amorti sur un an

Au bout d’environ 1 an, une fois l’investissement remboursé étape par étape, les populations s’éclairent gratuitement, et peuvent alors investir dans un nouveau kit solaire pour par exemple recharger un téléphone mobile, une radio, un micro-ordinateur ou un petit téléviseur. C’est ce qu’Eight19 appelle l’«Energy Escalator ». Accéder peu à peu au confort moderne, sans dons ni subventions.

La start-up, qui a fait sensation à l’occasion du World Futur Energy Summit à Abu Dhabi fin janvier 2012, a réunit 5 millions de dollars, ce qui va lui permettre d’aller au-delà de la première phase d’installation de 4000 kits en Afrique de l’est avec l’aide de l’ONG SolarAid. 

Eight19, huit minutes et 19 secondes. C’est le temps que met la lumière du soleil à venir sur Terre. Plus que jamais, l’énergie solaire a le potentiel pour faire sortir l’humanité de l’âge de la bougie. Ceci à la vitesse d’un business-model éco-intelligent.

Par Olivier Danielo

 

 

également : 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Les nouveaux verrous quart de tour KIPP : Un verrouillage fiable et sûr même dans le cas de fermeture avec pression élevée

 

Pour quasiment chaque environnement et chaque application, vous trouverez dans la gamme KIPP le verrou quart de tour adéquat ayant l’indice de protection IP65.

Dans leur version standard, les verrous quart de tour KIPP sont actionnés à l’aide d’une clé à douille conforme à la norme industrielle et s’utilisent aussi bien en configuration droite que gauche.

Le barillet et le boîtier sont fabriqués en alliage moulé sous pression chromé brillant ou galvanisé. Le joint torique intérieur ainsi que le joint d’étanchéité extérieur empêche la poussière et l’humidité de pénétrer dans le mécanisme. Les verrous quart de tour KIPP peuvent être verrouillables et sont disponibles de couleur noire ou en matière plastique. La gamme est complétée par des  couvercles anti-poussière, des poignées d’ouverture et des clés à douille.

Les verrous quart de tour KIPP avec came étagée constituent la solution pour des applications où une pression moyenne de fermeture du couvercle contre le joint du boîtier est requise.

Pour une fermeture sûre et une pression d’application optimale, le verrou quart de tour à compression est l’outil idéal: la première rotation de 90° place la came étagée en position de fermeture, au cours de la deuxième rotation de 90°, le couvercle est fermement serré dans le sens axial. L’utilisation d’un engrenage planétaire avec une importante course de compression garantit une fermeture sûre et optimale.

Pour en savoir plus

Une nouvelle technologie permet de retirer le césium de l’eau

Ce procédé, détaillé dans le schéma suivant se décompose en plusieurs phases :

 

Schématisation du procédé
(Crédits : G. Charmier, Ambassade de France au Japon)

1. L’absorbant de césium (se présentant sous la forme d’une solution aqueuse d’ions ferrocyanures) est ajouté à l’eau contaminée. Cette addition provoque la formation d’un complexe de césium ;
2. Une solution d’ions ferriques est ensuite ajoutée ;
3. Une solution alcaline aqueuse d’ions chlorure est additionnée afin de pouvoir magnétiser le complexe de césium préalablement formé ;
4. Le complexe de césium magnétique est ensuite retiré de l’eau à l’aide d’un aimant.

Selon la compagnie JNC, cette technologie permet d’obtenir de meilleurs résultats quant à la décontamination des eaux radioactives que les techniques existantes, telle l’utilisation d’adsorbants solides comme les zéolites. JNC affirme avoir ainsi obtenu d’importants taux de décontamination en un temps relativement court : pour une solution d’eau de mer d’une concentration de 10 ppm de césium, 99,5 % de l’isotope radioactif a pu être retiré en 10 minutes.

JNC met en avant les multiples applications possibles de cette technologie, telle que la décontamination de l’eau de lavage issue des procédés de décontamination des sols. La société met aussi l’accent sur le faible coût des matériaux et solutions utilisées pour le procédé. Elle annonce être en cours de transposition du procédé à l’échelle industrielle pour une commercialisation dans un proche avenir.

(Source : http://www.bulletins-electroniques.com/actualites/068/68704.htm)

 

À lire aussi :

Catastrophe de Fukushima : la décontamination reprend

La dépollution des eaux radioactives par les algues

Un champignon pour dépolluer les sols contaminés ?

« Les centrales françaises ont un haut niveau de sûreté »

Production : Universcience 2012

A lire également :

 

Les pétroliers pour une fiscalité revue et un débat sur le gaz de schiste

L’Ufip a présenté lors d’une conférence de presse une « contribution au débat sur l’énergie » national, en plaidant pour que le secteur pétrolier français, qui constitue un « contributeur important à l’économie et à l’emploi« , ne soit pas « pénalisé » par rapport à ses concurrents européens.

L’organisation a appelé le gouvernement à prendre des mesures pour éviter à terme une « disparition pure et simple de l’outil de raffinage français« , alors que les raffineries hexagonales ont perdu plus de 2 milliards d’euros depuis 2009.

Elle propose notamment une « harmonisation progressive, à un rythme acceptable pour le consommateur, des fiscalités entre essences et gazole« , qui permettrait de rééquilibrer les ventes de carburant. Selon elle, les ventes de gazole sont quatre fois plus élevées que celles d’essence, ce qui oblige le secteur à importer massivement du gazole et exporter de l’essence.

L’Ufip prône également une transposition des réglementations européennes en matière d’environnement « sans surenchère » et une prise en compte du « bilan coût/bénéfice » avant d’instaurer toute contrainte supplémentaire.

Elle suggère en outre des mesures pour atténuer la chute du nombre de stations-service en France, comme des « adaptations réglementaires » en faveur des stations menacées.

Du côté de l’exploration et de la production de pétrole et de gaz, l’Ufip appelle la France à « mettre en valeur les ressources en hydrocarbures sur son territoire pour favoriser la réduction de sa dépendance en matière d’énergie« .

Cela passe selon elle par l’ouverture d’un débat public « constructif et rationnel » sur l’exploitation des gaz de schiste, libéré de « toute considération idéologique« .

L’Ufip demande également une mise en place rapide de la commission de suivi prévue par la loi de 2011 qui a interdit le recours à la fracturation hydraulique pour exploiter les gaz de schiste, et une réforme du code minier afin que citoyens et élus soient mieux impliqués dans les consultations sur les projets pétroliers.

AFP

A lire également

L’Impossible capitalisme vert

L’ouvrage montre, dans un style résolument polémique, les contradictions entre l’écologique et le social, entre la protection de l’environnement et la défense de l’emploi. Il dépasse les traditionnels débats d’idées sur le capitalisme vert, la consommation verte, les emplois verts… , qui ne mesurent pas leurs réels enjeux et leurs difficultés de mise en œuvre.

Constatant l’échec du sommet de Copenhague (décembre 2009) sur les changements climatiques, l’auteur (fondateur de l’ONG « Climat et justice sociale ») souligne l’urgence des mesures visant à lutter contre le réchauffement climatique. Il dénonce notamment les offensives des « climato-sceptiques » qui cherchent à déligitimer le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Il montre que ce phénomène planétaire – qu’il juge inhérent au capitalisme industriel et financier –  aura de graves conséquences économiques et sociales, en particulier pour les pays en développement.

Il considère que les « correctifs marchands » appliqués dans certains pays (normes environnementales,  « éco-taxes », « marchés carbone »…) n’ont pour effet que de préserver la rentabilité des entreprises sans s’attaquer réellement au phénomène. Il prône la mise en place d’une planification de la production d’énergie à l’échelle du globe, ainsi que des transferts massifs de technologies en faveur des pays émergents. Cette réorganisation viserait une maximisation du bien-être plutôt que du profit, la conception de « biens sobres et durables », la limitation de la consommation marchande et la réduction de la durée du travail.

 

L’impossible capitalisme vert

Daniel Tanuro

Éditions La Découverte, 2011, 303 pages.

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin : 

 
 
 

 

 

 

 

 

Vague de froid – Pointe de consommation électrique : qui est responsable ?

L’on a donc tôt fait de faire porter la responsabilité de ces pointes de consommation par grand froid au chauffage électrique qui a pris, en raison de son attractivité économique, des parts de marché importantes dans la construction neuve jusque récemment. Mais qu’en est-il vraiment ?

En 1990, lorsque j’étais Directeur général d’EDF, la baisse d’1°C des températures hivernales, se traduisait par un accroissement de consommation de l’ordre de 1100 mégawatts, soit l’équivalent de deux grosses unités de production électrique brûlant du fioul ou du charbon. Aujourd’hui, cette sensibilité de la consommation hivernale à la température aurait plus que doublé : une baisse de température de un degré entraîne un accroissement de la consommation de 2300 mégawatts. Or, durant la même période (1990-2011), la consommation d’électricité pour le chauffage des logements « tout-électriques » a progressé d’à peine plus de 20 %. Le développement du chauffage électrique, en tant que mode de chauffage principal, ne peut donc expliquer qu’une petite partie de l’accroissement de la sensibilité des consommations à la température.

Alors qui est le coupable de ces pics de consommation ? Le suspect n°1 est, évidemment, le chauffage électrique d’appoint que certains qualifient de « sauvage ». Bon an mal an, 1 million d’appareils de chauffage électriques mobiles sont vendus en France, en particulier en grandes surfaces. Nombre d’entre eux  sont mis en service en période de grand froid, dans les locaux mal chauffés et/ou mal isolés.

Quelles solutions seraient envisageables, sachant qu’affronter les pointes de consommation coûte cher à la collectivité nationale, en investissement, en combustible,  voire en importation ? Il est de toute façon à craindre que ces pointes se répercuteront tôt ou tard sur les factures des consommateurs.  Alors que faire ? Interdire l’achat des appareils de chauffage électrique mobiles n’est pas concevable…

L’appel au civisme, avec une attention particulière aux utilisations superficielles d’électricité, est, lui, une bonne chose : il a eu des effets bénéfiques durant l’actuelle vague de froid mais ses effets ne peuvent être que limités.

La vraie solution est de pouvoir s’appuyer sur un portefeuille de consommations « effaçables » à la demande de l’exploitant du réseau, dont la plus grande part pourrait être précisément constituée par des « logements électriques » : dans un logement bien isolé, on ne perd rien en confort à faire fonctionner le chauffage un peu l’après-midi et un peu la nuit,  plutôt que de le pousser au maximum pendant la pointe de 19 heures ! L’innovation en matière de régulation est donc stratégique autant qu’incontournable.

La maîtrise des pointes de consommation électrique passera donc par une régulation-programmation fine des logements électriques en dialogue avec l’opérateur de réseau, à travers les smart grids de l’avenir. Et, dans une vision d’avenir et de manière quelque peu paradoxale, plus il y aura de logements électriques, mieux la régulation du réseau sera assurée !

Par Jean Bergougnoux, Président de l’association Equilibre des Energies

(Crédit photo : AFP)

Les impacts environnementaux des TIC (1/3)

L’ADEME part de ce constat pour évaluer les impacts environnementaux des TIC et a lancé dans ce but une étude, réalisée elle aussi par BIOIS, et accompagnée des avis d’experts indépendants. L’ADEME retient trois usages pour en faire analyser les cycles de vie : les courriers électroniques, les requêtes et l’utilisation de supports comme les clés USB.

Les résultats de l’étude, en termes d’impacts potentiels, sont illustrés, selon l’ADEME,  à travers la lecture des trois indicateurs les plus pertinents : le potentiel de changement climatique, l’épuisement potentiel des métaux, reflétant la consommation des ressources et l’épuisement potentiel des ressources fossiles, lié notamment au mix énergétique utilisé.

247 milliards de courriels ont été échangés chaque jour dans le monde en 2009, y compris les spams. Pour 2013, on en prévoit 507 milliards… En France, en se fondant sur des chiffres moyens (entreprise de 100 personnes, 58 courriels reçus par personne, 33 envoyés, d’une taille moyenne d’un Mo), cela entraîne, sur 220 jours ouvrés, 13,6 tonnes d’émission de gaz à effet de serre.

Décupler le nombre de destinataires d’un courriel de 1 Mo revient à multiplier par 4 l’impact sur le changement climatique. En mesurant sur 2, 3 ou 4 destinataires, l’étude montre qu’environ 6 g éqCO2 supplémentaires sont émis par destinataire. Cela représente 44 kg éqCO2 par an et par employé : « Réduire de 10 % l’envoi de courriels incluant systématiquement son responsable et un de ses collègues au sein d’une entreprise de 100 personnes permet un gain d’environ 1 tonne équivalent CO2 sur l’année (soit environ 1 aller-retour Paris/New-York). »

L’impression d’une pièce jointe de 4 pages  a bien entendu une forte influence sur le potentiel de changement climatique, et le format d’impression demandé n’y est pas étranger. Par contre les impacts de la lecture de cette même pièce sur l’écran sont directement liés au temps d’utilisation de l’ordinateur : « Diminuer de 10 % le taux d’impression des courriels reçus par les employés d’une entreprise de 100 personnes permet d’économiser 5 tonnes équivalent CO2 sur un an (soit l’équivalent d’environ 5 allers-retours New-York/Paris). »

En comparant l’envoi d’un courriel de 1 Mo à une personne à l’envoi du même courriel à une personne qui le stocke 6 mois sur son serveur et à une autre qui le sauvegarde 3 mois avant de le supprimer, l’étude montre que « plus le courriel est conservé longtemps, plus il a un impact négatif sur le potentiel de changement climatique. Son rôle dans l’épuisement du potentiel de ressources fossiles est également accru. »

Les scenarii ont également permis de mesurer  la différence d’émissions de gaz à effet de serre si 10 % de ces employés de cette même entreprise française de 100 personnes envoient les documents sans les compresser, passant donc ainsi à un message de 10 Mo : « Diminuer de 10 % la proportion d’envoi de courriels de 10 Mo au sein d’une entreprise de 100 personnes permettrait un gain de 8 tonnes équivalent CO2 sur un an (équivalent à 8 allers-retours New-York/Paris). »

Les deux autres volets de l’étude, sur les requêtes sur le Web et les clés USB feront l’objet de la deuxième partie de cet article. Mais trois recommandations sont d’ores et déjà de mise :

  • Éviter d’imprimer systématiquement chaque document, quelle que soit sa nature ;
  • Rationaliser le nombre de destinataires des courriels ;
  • Nettoyer régulièrement sa messagerie électronique.

Par Claudine / blog EcoCO2

 

À lire aussi :

Les TIC sont bonnes pour l’environnement

Plus d’éthique dans les STIC

L’Europe veut doubler ses investissements dans les TIC d’ici 2020

 

Pour aller plus loin : 

 
 
 

De nouvelles découvertes sur les propriétés du cuivre

L’étude est d’une grande importance car la Suède devrait être parmi les premiers pays à se doter d’un site de stockage final en couches géologiques profondes du combustible nucléaire usé d’ici 2025. Le pays a choisi d’encapsuler le combustible dans des conteneurs en cuivre. Connaître les mécanismes de réaction de l’hydrogène et de l’oxygène avec le cuivre métallique est donc primordial pour assurer la sécurité du dispositif de stockage. L’étude a été initiée afin de déterminer, entre autres, s’il existait une structure du cuivre encore plus stable que les composés déjà connus et qui résisterait davantage à la corrosion. Selon les principes d’oxydo-réduction, le composé d’hydroxyde de cuivre (I) existerait mais ne serait malheureusement pas stable.

Dans les domaines de production d’hydrogène et des piles à combustible, le cuivre est aujourd’hui étudié comme un éventuel matériau de substitution. Le nombre croissant d’applications potentielles des matériaux cuivrés renforce l’intérêt porté sur les études pour la compréhension des propriétés physiques et chimiques des composés cuivrés stables et instables.

Selon le professeur Pavel Korzhavyi de KTH, son équipe est maintenant en mesure de démontrer l’existence de l’hydrure de cuivre (CuH) et de l’hydroxyde de cuivre (CuOH) sous forme solide. L’étude a également permis de mettre à jour certaines propriétés chimiques et physiques de ces deux composés. L’état solide est une forme métastable. Ainsi, sous cette forme, l’hydrure de cuivre (CuH) se décompose spontanément en cuivre métallique et en hydrogène. D’après des calculs théoriques, l’hydroxyde de cuivre (I) se décomposerait en oxyde de cuivre (I) et en eau. Les oxydes et les hydroxydes métalliques, ainsi que les hydrures sont des composés chimiques très importants ayant de nombreuses applications.

De nombreuses études sont également menées pour étudier les possibilités d’oxydation du cuivre en milieu anoxique. Suite au dépôt du dossier de demande de construction du site de stockage final du combustible usé par le Centre suédois de traitement des déchets nucléaires (SKB), l’Autorité suédoise de sûreté nucléaire (SSM) a commissionné Studsvik Nuclear AB afin de confirmer l’existence de ce phénomène annoncé par des chercheurs de l’Ecole royale polytechnique de Stockholm (KTH). SKB a, de son côté, fait appel au professeur de chimie, Mats Boman, de l’Université d’Uppsala pour étudier la réaction.

Il est encore trop tôt pour savoir si cela aura des conséquences sur la méthode de stockage proposée par SKB. Mais selon les premiers résultats annoncés par Studsvik Nuclear AB, le cuivre pourrait s’oxyder en milieu anoxique.

(Source : http://www.bulletins-electroniques.com/actualites/69067.htm)

 

À lire aussi :

Une chemise d’eau résistante à la corrosion marine grâce à un composite

 

Pour aller plus loin :

 

Télécharger… des objets en 3D !

Le site d’échange de fichiers torrents, « The Pirate Bay », – site connu pour enfreindre régulièrement les lois sur le copyright dans les domaines de la musique, du cinéma et des ebooks –, a ouvert une toute nouvelle rubrique de téléchargements, qui peut surprendre : le téléchargement d’objets physiques. Baptisée « Physibles », cette nouvelle rubrique promet de faire parler d’elle.

Par le biais du blog de « The Pirate Bay », un des responsables du site suédois explique la démarche derrière cette nouvelle catégorie : « nous croyons que la prochaine étape dans l’univers de la copie sera de passer de la forme numérique à la forme physique, du fichier numérique à l’objet physique. Ou comme nous avons décidé de les appeler, les « Physibles ». Des objets-données qui ont la possibilité de prendre forme, de prendre vie. »

Le fichier numérique pourrait contenir les informations codant pour la modélisation de l’objet, préalablement scanné, et embrassant plusieurs paramètres tels que le volume, la matière, ou encore la couleur, pour peu qu’ils puissent être utilisés par l’imprimante 3D. Car il faudra, bien entendu, une imprimante 3D pour profiter des avantages des différents fichiers téléchargeables, rendant la tâche plus complexe que de simplement télécharger un fichier MP3. Ce pas en avant ouvre de fantastiques nouvelles possibilités mais il ouvre également la voie à l’effraction de la propriété intellectuelle sur les objets physiques.

« The Pirate Bay » n’est pourtant pas le pionnier du partage de fichiers destinés aux imprimantes 3D. À titre d’exemple, le site « Shapeways » a vu l’année dernière un de ses utilisateurs recevoir une menace de plainte des studios de cinéma Paramount, après avoir créé une réplique en trois dimensions de l’un des accessoires du film Super 8, réalisé par l’Américain J. J. Abrams. Le fichier avait alors été rapidement retiré. « The Pirate Bay » fonctionne différemment, partageant les fichiers Torrents plutôt que d’héberger directement les fichiers en question, rendant toute opération légale plus difficile à mener.

Il y a d’ores et déjà quelques « Physibles » disponibles : une version 3D du logo du site « The Pirate Bay », un circuit de voitures miniatures, ainsi qu’un modèle de robot. Les deux derniers objets sont très probablement des versions contrefaites de designs existant mais, d’après le responsable du site suédois, la démarche n’est pas d’enfreindre systématiquement les lois, soulignant que « le bénéfice pour les entreprises pourrait être énorme. Plus de livraisons à travers le monde […], plus de travail des enfants. »

La nourriture aussi pourrait bien être concernée, bien que les exemples existant ne concernent pour le moment que le chocolat. La limite semble plutôt se trouver au niveau des cartouches pour l’imprimante 3D. En effet, une imprimante ne possédant qu’une cartouche d’un polymère ne pourra fabriquer qu’un chocolat… en polymère. Enfin, le prix des cartouches, déjà élevé pour les imprimantes standards, risque de limiter, pour quelques temps, l’usage de cette technologie pour les particuliers.

Par Moonzur Rahman

 

À lire aussi :

Des prototypes en couleur avec une imprimante 3D

« L’intégration 3D représente un enjeu majeur de la microélectronique »

De nouvelles perspectives pour la technologie 3D

Microsoft Techdays 2012 : les innovations qui vont changer notre quotidien

  • Santé : la technologie au service du bien-être du patient

Les lentilles de contact intelligentes

En partenariat avec l’université de Washington, Microsoft a développé des lentilles de contact capables de mesurer la glycémie de celui qui les porte. Grâce à cette innovation, plus besoin de prélèvement sanguin ! Le taux de glycémie est en effet établi par des capteurs électroniques contenus dans les lentilles et qui transmettent les données vers un agent intelligent : smartphone, tablette, ordinateur. Le patient pourra ainsi à tout moment vérifier son état en temps réel mais aussi réduire la douleur liée aux piqures quotidiennes. Son agent intelligent pourra aussi détecter toute anomalie et même prévenir directement son médecin traitant. Cette innovation constitue potentiellement une avancée considérable pour tous les diabétiques insulino-dépendants qui sont actuellement contraints de se piquer 6 à 8 fois par jour.

« Cette innovation repose sur les technologies des interfaces naturelles. Il s’agit en fait de proposer une informatique plus intuitive, où l’ordinateur est à notre service et interprète nos comportements grâce à des informations en provenance de capteurs » précise Bernard Ourghanlian, directeur technique de Microsoft France, qui souligne également « bientôt ces lentilles pourront projeter des informations contextuelles pour nous assister dans notre quotidien en temps réel. Développer de nouvelles technologies qui contribuent à améliorer le quotidien fait partie de notre ADN. Ce projet de lentilles intelligentes s’inscrit aussi dans ce cadre ».

Vers plus d’autonomie des personnes dépendantes grâce à un robot auxiliaire de vie

Autre innovation appliquée à la santé, un robot domestique appelé Kompaï : développé par la société Robosoft (www.robosoft.com), notamment avec Microsoft Robotic Developer Studio, il est équipé de multiples caméras et d’un écran fonctionnant avec Windows 7. Ce robot est capable de venir en aide aux personnes dépendantes dans tous les gestes de leur quotidien. Personnes âgées, accidentées ou malades pourront ainsi vivre plus facilement à domicile, et ce à un coût accessible. Ce robot peut en effet non seulement exécuter des tâches répétitives – par exemple, apporter des médicaments à heure fixe à son utilisateur- mais également interagir avec la personne. Il est également à même de détecter toute anomalie ou absence de mouvement et alerter un service d’assistance extérieure. Kompaï a obtenu le soutien du programme Européen AAL et de l’ANR (projet DOMEO).

Comme le souligne Vincent Dupourqué, CEO de Robosoft, « cette nouvelle génération de robots de services va considérablement améliorer la vie quotidienne des personnes dépendantes, mais aussi et surtout celles des aidants pour lesquels elle devrait devenir un véritable outil de travail. C’est également une formidable opportunité industrielle à saisir, comme l’ont été le PC ou le téléphone mobile en leur temps ».

La technologie Kinect pour limiter les risques d’infections nosocomiales

Dans un bloc opératoire, le chirurgien ne peut manipuler que des objets stériles. Grâce à la technologie Kinect de Microsoft, qui permet d’interagir avec la machine par la voix et le geste, le chirurgien peut désormais faire défiler des images – des radios par exemple – sur un écran à l’intérieur de la salle d’opération.

Avec Kinect, il peut disposer des informations nécessaires en cours d’opération sans sortir du bloc opératoire. Cette solution limite ainsi les risques d’infections nosocomiales et réduit le temps nécessaire à une opération. Cette application de la technologie Kinect est aujourd’hui développée en Espagne par la société Tedesys.

  • Transports : une solution de mobilité urbaine utile pour l’environnement

Auto-partage : la voiture géo-localisée

Posséder et gérer une voiture est devenu de plus en plus compliqué et coûteux pour les habitants des grandes villes. La solution : utiliser une voiture en libre-service et ne payer que les trajets effectués.

VU Log (www.vulog.fr) a développé une plateforme de mobilité temps réel permettant d’opérer une variété de services innovants sur ce principe. Chaque véhicule est équipé d’un système embarqué de la société VU Log, utilisant notamment les technologies Microsoft, et permettant de contrôler à distance l’accès aux véhicules par les abonnés mais aussi de générer automatiquement la facturation des trajets effectués ou encore de gérer en temps réel la flotte de véhicules, en particulier l’état de charge des batteries pour les véhicules électriques.

« Grâce à nos solutions et à notre support, nos clients opérateurs sont aujourd’hui capables de déployer en quelques mois des services nouveaux simplifiant et optimisant l’usage de la voiture dans les grandes villes, mais aussi dans les entreprises. La sophistication de notre technologie nous permet aujourd’hui d’offrir une expérience utilisateur très simple : un coup de téléphone suffit pour trouver et accéder à une voiture. C’est une condition essentielle à l’adoption de cet usage » indique Georges Gallais, président-fondateur de VU Log.

  • Education : un outil de reconstruction 3D pour redonner vie aux découvertes archéologiques

L’exemple de la reconstitution de Pompéi – un projet mené dans le cadre des travaux du laboratoire commun Microsoft-INRIA

Depuis leur découverte aux XVIIIème et XIXème siècle, les ruines de Pompéi se sont dégradées, et les fresques qu’elles portaient se sont effacées. Aux Techdays 2008, Jean Ponce, professeur à l’Ecole normale supérieure de Paris, et chercheur au centre de recherche commun INRIA-Microsoft Research, nous présentait un aperçu des défis de l’analyse automatique de medias numériques, photos et vidéos.

Aujourd’hui, 3 ans après, c’est Hélène Dessales, maitre de conférences à l’Ecole normale supérieure, spécialiste de l’architecture romaine, qui a présenté les progrès considérables qui ont été réalisés depuis, afin de reconstruire « automatiquement » virtuellement en 3D les décors disparus d’une maison de Pompéi. Les technologies en question ont été développées et mises au point notamment au sein du laboratoire commun de Microsoft Research et de l’INRIA.

  • Vie pratique : un assistant personnel pour simplifier son quotidien

xBrainsoft et sa plateforme de création d’assistants personnels vocaux et multi-écrans

Véritable machine à créer des assistants personnels, la plateforme IAS permet aux développeurs d’applications de créer eux-mêmes des assistants personnels pilotés en mode vocal ou texte, disponibles sur tous les écrans ou objets connectés et sur tous les systèmes d’exploitation.

Avec cette plateforme, les assistants ne se limitent pas à l’envoi d’e-mail ou de SMS. Ils peuvent également réserver une salle de réunion, retrouver un document dans un intranet, rappeler à l’utilisateur son émission de TV favorite ou l’anniversaire d’un ami en lui conseillant une idée cadeau, ou encore anticiper ses retards possibles en fonction de sa position géographique et de la circulation et prévenir ses interlocuteurs si souhaité.

« Nous sommes à l’aube d’une nouvelle ère, celle du web 3.0, une ère de services internet Intelligents et proactifs. Notre volonté : proposer une plateforme complète de créations de ces nouveaux outils » a déclaré Grégory Renard, Président de xBrainsoft.

http://angie.xbrainsoft.com

Kinect Fusion, une nouvelle application de Kinect par Microsoft Research

Kinect Fusion utilise un capteur Kinect mobile permettant de capter des données de profondeur afin de créer des modèles 3D de haute qualité d’une pièce entière et de son contenu. L’implémentation basée sur le GPU pour le suivi de la caméra et la reconstruction de surface fonctionne en interactif et en temps réel afin de permettre la mise en oeuvre d’applications très prometteuses pour la réalité augmentée et l’interaction homme-machine.

Nous effectuons la «fusion» des données provenant d’un capteur Kinect dans une représentation de la surface volumétrique qui imite de près la géométrie du monde réel. Plutôt que de prendre une simple image de profondeur avec la Kinect, nous fusionnons en temps réel plusieurs mesures de profondeur obtenues à partir d‘un capteur Kinect en mouvement pour créer un modèle 3D complet.

Actuellement en phase d’expérimentation, cette technologie d’avenir a de multiples champs d’applications, comme par exemple le secteur de l’ameublement : l’utilisateur sera ainsi en mesure de numériser son environnement et d’y superposer des images 3D de meubles qu’il pourra directement visualiser dans son intérieur avant son achat.

 

Pour découvrir ou revivre la plénière du 9 février présentant ces démos, RDV ici

 

 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Les tarifs de rachat de l’électricité photovoltaïque continuent à baisser

Comme attendu, ceux-ci sont toujours orientés à la baisse pour le troisième trimestre consécutif. L’arrêté du 4 mars 2011 fixe les conditions d’achat de l’électricité produite par les installations utilisant l’énergie radiative du soleil. Selon cet arrêté, les conditions d’achat dépendent du calcul de deux coefficients, Sn et Vn, selon  le type d’installation solaire.

Les bilans des demandes de raccordement transmis par les gestionnaires de réseaux publics d’électricité à la Commission de régulation de l’énergie (CRE) totalisent pour le trimestre d’indice N=3 une puissance crête cumulée de 38,20 MW pour les installations souhaitant bénéficier du tarif d’intégration au bâti situées sur des bâtiments à usage principal d’habitation, et de 116,27 MW pour les installations souhaitant bénéficier du tarif d’intégration au bâti situées sur un bâtiment à usage principal autre qu’un usage d’habitation ou du tarif d’intégration simplifiée au bâti.

En application de l’annexe 1 de l’arrêté du 4 mars 2011 et en considérant les puissances crête cumulées des bilans des demandes de raccordement transmis par les gestionnaires de réseaux publics d’électricité dans le délai réglementaire (avant le 15 janvier 2012), les valeurs des coefficients S3 et V3 sont respectivement fixées à 0,045 et 0,095.

Pour les installations intégrées au bâti et situées sur un bâtiment à usage principal d’habitation (coefficient Si), les tarifs sont donc passés de 46 centimes d’euro le kWh au 10 mars 2011, à 42,55 cts au 1er juillet, puis 40,03 cts le 1er octobre, et enfin 38,80 cts au 1er janvier 2012 pour les installations inférieures ou égales à 9 kW. La baisse de 4,5 % par rapport au dernier trimestre de 2011 amène à 15,65 % la diminution de ces tarifs, enregistrée sur un an.

Pour les installations intégrées au bâti et situées sur un bâtiment à usage principal autre que celui d’habitation (enseignement, santé, autre) et pour les installations respectant les critères d’intégration simplifiée au bâti (coefficient Vi), la baisse des tarifs est encore plus sensible. De 40,60 centimes d’euro le kWh au 10 mars 2011, ils sont passés à 36,74 cts au 1er juillet 2011, 33,25 cts au 1er octobre pour arriver à 30,09 cts au 1er janvier 2012, pour une puissance inférieure ou égale à 36 kWc. Perdant 9,5 % depuis le dernier trimestre 2011, ils fondent au total de 25,89 % en un an.

Vous pouvez consulter l’ensemble des tarifs sur le document Tarifs d’achat de l’électricité produite à partir de l’énergie radiative du soleil (c€/kWh), de la délibération de la CRE du 17 janvier 2012.

Par Claudine / blog EcoCO2

 

À lire aussi :

Les tarifs d’achat du solaire photovoltaïque doivent baisser… vite !

« Le rendement financier d’un investissement dans le photovoltaïque est plus qu’incertain »

 

Pour aller plus loin :

Découvrez la base documentaire Techniques de l’Ingénieur :

 

 

 

 

 

 

 

 

Une base lunaire américaine d’ici 2020, vraiment ?

Le candidat à la primaire républicaine Newt Gingrich n’y va pas avec le dos de la cuillère. Pour donner plus de poids à sa candidature, Gingrich a promis… l’établissement d’une base américaine permanente sur la Lune, d’ici à 2020, s’il est élu président des États-Unis en novembre prochain. Alors qu’il faisait campagne mercredi dernier dans la petite ville de Cocoa, en Floride, Newt Gingrich a annoncé sa volonté de développer une robuste et dynamique industrie spatiale commerciale, « dans la droite lignée de l’essor qu’a connu l’aviation américaine dans les années 30. »

Il a également annoncé sa volonté d’œuvrer en faveur d’une future et pas si lointaine exploration de la planète Mars, en favorisant le développement et l’amélioration des technologies actuelles de propulsion.

Le candidat à la primaire a choisi 2020 pour une simple et bonne raison : cet horizon correspondrait à la fin de son éventuel second mandat à la Maison Blanche, s’il devait être élu en novembre.

Le choix de la Floride et de Cocoa pour effectuer son annonce n’est évidemment pas le fruit du hasard : cette ville est située à moins d’une vingtaine de kilomètres à l’ouest de Cap Canaveral qui, comme toute la région, souffre des récentes coupes budgétaires aux différents programmes spatiaux, avec l’abandon du projet « Constellation » en tête. Newt Gingrich, très applaudi, est resté relativement flou quant au financement de ces deux mesures, indiquant seulement qu’il voudrait pouvoir simplifier et stimuler les investissements dans ces programmes par le secteur privé.

Par Moonzur Rahman

Les robots Quince 2 et 3, prêts à explorer les débris de Fukushima

Jusqu’à maintenant, de nombreux modèles se sont relayés : après les robots Packbot, de l’entreprise américaine iRobot Corp., le premier robot japonais à être entré dans la centrale, Quince, a été utilisé du mois de juin au mois d’octobre. Victime d’une rupture du câble de communication. Quince a donc dû être abandonné dans la centrale.

Le Future Robotics Technology Center (FuRo), faisant partie de l’Institut de Technologie de Chiba, a présenté les nouvelles versions de Quince, dénommées Quince 2 et Quince 3, qui devraient être utilisées dès la fin février 2012. Quince 2 intégre un échantillonneur de poussière ou de particules ultra-fines, alors que Quince 3 dispose d’un scanner tridimensionnel. Les deux robots ont néanmoins une taille identique et un aspect similaire (les dimensions exactes n’ont pas été rendues publiques).

Pour éviter le même problème que Quince, les deux robots sont capables de communiquer entre eux sans fil. En cas de rupture du câble de communication, le robot n’est donc pas « perdu ». De plus, le câble de communication s’enroule et se déroule automatiquement, évitant ainsi qu’il ne traîne à terre. Un certain nombre de capteurs ont également été ajoutés : capteurs de radioactivité ambiante, de température et d’humidité.

Comme leur prédécesseur, ces deux robots peuvent se déplacer sur des gravats, mais aussi monter ou descendre des escaliers.

Eiji Koyanagi, le développeur en chef de ces robots, a dit travailler également sur d’autres types de robots pouvant aider aux opérations sur la centrale. L’un de ces robots en préparation pourrait porter une caméra à environ 4 mètres de haut, afin de prendre des photographies de machines placées en hauteur. Un autre sera en mesure de porter une gamma-caméra de 200 kg.

(Source : http://www.bulletins-electroniques.com/actualites/69026.htm / Crédit vidéo : robonable1)

 

A lire aussi :

Fukushima : des robots dans les réacteurs, et en vidéo

Un robot chinois précieux dans la gestion des accidents nucléaires

Un robot sphérique pour lutter contre les fuites radioactives

 

Google est-il en train de renier les valeurs de son moteur de recherche ?

Sur le papier, le mouvement opéré par Google avec Search Plus Your World (SYPW – pour l’instant uniquement disponible aux États-Unis) s’inscrit dans une évolution stratégique logique. Aujourd’hui, les contenus disponibles sur la Toile émanent en effet autant des sites classiques que le moteur indexe inlassablement depuis 1998 que des réseaux sociaux où les internautes partagent à tour de bras quantité d’informations avec leurs contacts et leurs amis.

Un prolongement logique du moteur de recherche

Pour Google, continuer à se cantonner à sa mission première tout en occultant ce gisement nouveau reviendrait à nier l’essence même de ce qui a toujours motivé sa vision initiale : recenser in extenso l’information du monde et la restituer de la manière la plus pertinente aux utilisateurs en fonction de leurs critères de recherche. Internet étant devenu un espace à forte consonance sociale, Google ne pouvait donc faire l’impasse sur cette évolution radicale.

Dans son blog Superception, Christophe Lachnitt souligne clairement l’enjeu (1) : « Cette révolution signale que Google prend en compte le passage d’Internet d’un réseau de liens hypertexte à un réseau de personnes. Ce faisant, le groupe de Larry Page et Sergey Brin donne raison à Mark Zuckerberg qui professe depuis quelques années que la recherche va passer d’un mode vertical (un moteur de recherche répond à nos questions) à un mode horizontal (nos amis répondent à nos questions) ».

Vu sous cet angle, injecter plus étroitement l’indexation du Web social dans son moteur de recherche par le truchement de SPYW apparaît par conséquent comme une avancée technologique de bon sens et la prolongation logique de la mission universelle d’indexation qu’a toujours revendiquée Google depuis sa fondation. Search Plus Your World procède donc clairement de ce renversement de paradigme que Google tente déjà d’appréhender avec plus ou moins de bonheur depuis quelques années. Après les échecs de Wave et Buzz, Google est revenu à la charge l’été dernier avec Google + pour répliquer à l’emprise énorme de Facebook sur le Web 2.0. Pour l’instant, même si le réseau social de Google revendique 90 millions de profils créés, son développement demeure laborieux avec des inscrits nettement moins nombreux et prolifiques que les 800 millions d’adeptes de Facebook.

Ton concurrent, tu n’indexeras point !

Entre les intentions professées main sur le cœur et les actes effectivement accomplis, le géant de Mountain View a pris néanmoins un gros risque en termes d’image. Il a choisi de n’intégrer que son réseau social Google + dans les résultats remontés par SPYW et exclure des acteurs pourtant largement plus représentatifs du Web social comme Twitter et Facebook. Même si tactiquement et commercialement parlant, la manœuvre peut se concevoir pour permettre à Google + de combler son retard sur ses deux principaux rivaux, elle s’avère périlleuse d’un point de vue de la réputation.

Elle s’inscrit en effet à rebours de ce que Google s’est toujours évertué à proclamer être : un moteur de recherche exhaustif et objectif. Auteur d’un ouvrage fort documenté sur Google en 2011, le journaliste américain Steven Levy confirme cette obsession du moteur de recherche (2) : « Lorsque j’écrivais The Plex, j’ai appris le secret qui résidait derrière le design fade de Google. Il s’agissait d’induire l’idée que la conception de Google résultait d’une machine. Ainsi, les utilisateurs comprendraient implicitement que le moteur de recherche Google n’était pas pollué par des opinions orientées. Google a méticuleusement positionné son produit phare comme un juge neutre et pertinent envers l’utilisateur ».

Les concurrents concernés au premier chef n’ont évidemment pas manqué de crier au scandale sitôt SPYW entré en action au service de la promotion active des contenus présents sur Google +. Ainsi, Alex Macgillivray, juriste en chef de Twitter (et ex-Googler), a tweeté amèrement (3) : « Aujourd’hui est un sale jour pour Internet » ajoutant que la recherche était désormais pervertie. Même récrimination chez James Grimmelmann, professeur de droit à l’université de New York (et connu pour ses positions pro-Microsoft) (4) : « Aujourd’hui est un bon jour pour éteindre Google + et effacer votre profil Google ».

A ce hiatus préjudiciable pour l’image de Google, les têtes pensantes de Mountain View ont préféré répondre avec des arguties technico-juridiques (5) : « Nous sommes ouverts à travailler avec les autres. Mais leur information ne nous est pas disponible. Ils ne nous laisseront même pas les indexer ». Matt Cutts, un des ingénieurs piliers de Google +, va même jusqu’à écrire dans un billet défensif (6) que SPYW fournit quand même des résultats issus de FriendFeed, Quora, FlickR et même Twitter ! Oubliant au passage d’évoquer Facebook, l’actuel n°1 du Web social ! Depuis, Eric Schmidt a publiquement invité les sites sociaux à ouvrir des négociations pour intégrer leurs contenus dans le moteur de recherche Google. Mais en dépit de ce rétropédalage de circonstance, Google a indéniablement brouillé la perception d’impartialité de son moteur de recherche.

L’utilisateur, dindon de la farce ?

Transformer un supposé neutre moteur de recherche en arme concurrentielle a d’ailleurs suscité une large perplexité critique chez les observateurs du secteur. Si d’aucuns ne remettent pas en cause l’idée d’introduire du contenu social dans le moteur de recherche et comprennent les enjeux stratégiques vis-à-vis de la concurrence, nombreux sont ceux qui s’interrogent en revanche sur la façon de procéder de Google. Le journaliste Mathew Ingram de la newsletter spécialisée GigaOM, estime notamment que les utilisateurs sont au final les victimes collatérales de cette bagarre entre acteurs du Web. Un de ses confrères et vétéran du Web, John Battelle, va même plus loin (7) : « Cette mauvaise volonté qu’ont Facebook et Google à partager un bien commun public au croisement du social et de la recherche, est corrosif pour le tissu même de notre culture de connexion et de partage ».

D’autres s’agacent que Google puisse profiter de l’écrasante domination de son moteur de recherche sur le marché pour pousser en priorité ses propres produits. Or dans le même registre, Google a annoncé le 24 janvier une refonte des conditions d’utilisation de ses services dans un objectif de « simplification et de lisibilité » selon les termes du géant américain. Concrètement, cela va se traduire à compter du 1er mars par un regroupement des informations d’un utilisateur qui provenaient auparavant séparément des différents outils Google.

En d’autres termes, l’ouverture d’un compte de messagerie électronique Gmail impliquera par exemple la création de facto d’un profil Google +. De fait, Google disposera d’une mine d’informations nettement plus précises et recoupées là où elles étaient précédemment éparpillées. Un changement de conditions d’utilisation qui est loin d’être anodin lorsqu’il est remis dans le contexte de l’accélération du développement de Google + et de son imbrication étroite avec le moteur de recherche. 

Plébiscité aujourd’hui mais demain ?

Aujourd’hui, le moteur de recherche Google est indubitablement un succès du fait de la pertinence et de la rapidité des résultats procurés à l’utilisateur. A tel point que Google pèse par exemple près 65% des recherches aux Etats-Unis et jusqu’à 90% en France. Avec une telle prédominance, Google dispose d’une belle rente de situation d’autant que les utilisateurs plébiscitent encore le moteur de Mountain View et ses différents outils.

Ce succès, Google l’a précisément bâti sur cette capacité à toujours se préoccuper de livrer l’information la plus adéquate à la demande formulée par l’internaute. Avec un label de qualité érigé en ligne de conduite invariable : « Don’t be evil ». Autrement dit, le moteur ne doit en aucun cas favoriser tel ou tel contenu selon des critères subjectifs mais au contraire selon des paramètres sophistiqués dont s’enrichit continuellement l’algorithme du moteur de recherche. Dans sa communication, Google a toujours clamé appliquer cette ligne de conduite. Il a même coutume de dire que « l’utilisateur est à un clic de la concurrence » si d’aventure le moteur ne remplissait plus correctement sa mission.

C’est d’autant plus vrai que la marque Google n’est pas perçue comme une marque émotionnelle par les utilisateurs mais comme une marque pratique, facile d’accès, simple à utiliser et fiable. A la différence de la marque Apple où son aura émotionnelle génère une adhésion quasi irrationnelle des Applemaniacs (au point parfois de refuser d’entendre des critiques fondées sur leur marque fétiche), Google ne dispose pas de cette puissance empathique. La marque est appréciée mais ne véhicule pas d’attributs « affectifs » qui sont souvent la condition sine qua non de la fidélité des consommateurs.

« Evil or not ? »

En imposant au forceps les contenus de Google + dans son moteur, le géant de Mountain View administre la preuve que l’inflexible mantra du « Don’t be evil » est en train de muter et de s’écarter de la neutralité au profit d’une « personnalisation » plus orientée. La marque Google joue gros d’autant qu’elle n’est pas en odeur de sainteté tant auprès des autorités américaines (La Federal Trade Commission, l’autorité de la concurrence, avait diligenté une enquête en 2011 sur les pratiques du moteur de recherche soupçonné d’abus de position dominante) qu’européennes où la Commission mène également des investigations sur le même sujet.

A la suite du lancement de SPYW, les concurrents ne se sont d’ailleurs pas privés d’appuyer là où ça fait potentiellement mal pour Google. Trois ingénieurs issus de Facebook, Twitter et MySpace ont ainsi conçu un logiciel censé procurer des résultats plus pertinents et moins excluants que ceux de SPYW. Ironiquement baptisé « Focus On User », il vise à enrichir les résultats sociaux du moteur de recherche Google. Un comble !

Google va-t-il alors réviser le tir et communiquer autrement ? Rien n’est moins sûr si l’on en juge un article paru sur le site high-tech américain Pandodaily. Selon celui-ci, Larry Page aurait déclaré aux Googlers lors du traditionnel TGIF (Thanks God It’s Friday) que le lancement de SPYW « est le cap que nous empruntons, c’est-à-dire un unique et magnifique produit unifié au cœur de tout. Si vous ne comprenez pas cela, alors vous devriez probablement aller travailler ailleurs« .

Doit-on donc en déduire que l’ère du « Don’t be evil » est sur le point d’être révolue ? Difficile de se prononcer avec certitude. En revanche, la marche en ordre serré autour de SPYW est de rigueur si l’on se fie à l’interview accordée par Amit Singhal, le directeur mondial de Google pour le moteur de recherche, au site américain Searchengineland.com. S’il admet que le produit n’est pas encore parfait, il promet qu’il va s’améliorer. Sur les critiques qui ne cessent d’enfler, il balaie d’un revers de main la polémique : « Laissez-moi ajouter une chose que j’ai remarqué. Le feedback utilisateur que nous avons eu jusqu’à présent est quasiment à l’opposé de la réaction que nous avons vue dans la blogosphère (…) Avec Universal Search ou Google Instant, il y avait initialement plus de plaintes puis plus tard, les gens étaient ravis« .

Arrogance irraisonnée du leader ou pari visionnaire gagnant ?

Par Olivier Cimelière / Le blog du Communicant 2.0 / Le Plus, Le Nouvel Observateur

 

Sources :

(1) – Christophe Lachnitt – « Google aurait-il raison trop tôt ? » – Blog Superception – 15 janvier 2012
(2) – Steven Levy – « Is too much Plus a minus for Google ? » – Wired.com – 12 janvier 2012
(3) – Jeff Roberts – « Did Google too far mixing social and search ? » – Paid Content.org – 10 janvier 2012
(4) – Ibid.
(5) – Steven Levy – « Is too much Plus a minus for Google ? » – Wired.com – 12 janvier 2012
(6) – Ibid.
(7) – Mark Coddington – « Google and the social search wars » – Niemanlab.org – 13 janvier 2012

 

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous ! « 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Débat sur le potentiel des nouvelles normes Internet IPv6

Le changement de protocole informatique de l’Internet mondial, passant de la version 4 (IPv4) à la version 6 (IPv6) est, selon le Ministère fédéral de l’économie et de la technologie (BMWi), une étape importante de l’évolution technologique du réseau et des problématiques y afférant. Ainsi le BMWi a tenu le 26 janvier 2012 un atelier intitulé « Protocole Internet version 6 (IPv6) – Opportunités et défis pour la localisation des entreprises en Allemagne ». Cet atelier a traité des nouveaux modèles économiques rendus possible avec cette transformation de l’Internet, de son impact possible sur la future architecture des réseaux d’information mondiaux, de la sécurité et de la protection des données.

Stefan Kapferer, Secrétaire d’Etat au BMWi, soutient que « les décideurs du monde politique et des affaires sont bien avisés de s’intéresser de près à cette question stratégique du déploiement mondial de nouvelles normes de diffusion sur Internet, car il implique des changements profonds pour de nombreux domaines de l’Internet et de l’économie de l’information et des télécommunications. Cela ouvre des possibilités de nouveaux modèles d’affaires, mais aussi de nouveaux défis à surmonter tels que la protection des données ou la sécurité informatique. »

Avec ce nouveau protocole, il est possible d’accorder des domaines et des adresses Internet de façon quasi illimitée, et ainsi soutenir l’émergence de nouveaux champs d’application et de leur interaction, ce qui pourrait avoir un fort impact sur la croissance. On parle dans ce contexte d’Internet des objets ou Internet des services, se référant à des concepts naissants tels que les maisons intelligentes ou les compteurs énergétiques intelligents, dans lesquels les différentes données captées sont gérées en adaptation continue avec les données extérieures du réseau.

Le gouvernement fédéral se sent aussi impliqué par le passage à cette nouvelle norme Internet et notamment pour son propre réseau informatique, qui a déjà été victime d’attaques. Cependant, beaucoup de questions restent ouvertes, à savoir quel impact aura ce changement sur l’accès aux données, s’il sera adopté d’une manière harmonisée, ou quels seront les facteurs déterminants pour que les entreprises allemandes participent de manière proactive à ce développement, en tant que concepteurs et utilisateurs de technologies électroniques.

Le but du BMWi était avec cet atelier de dresser un panorama sur le développement de l’IPv6 et de discuter avec des experts de l’industrie et du milieu universitaire sur la façon d’en tirer le meilleur avantage économique pour les acteurs allemands (entreprises, gouvernement, recherche), ainsi que les défis implicites pour la protection des données et la sécurité informatique. A partir des résultats de ces discussions, des propositions d’action devraient être annoncées prochainement par les parties prenantes afin de permettre une approche systémique de cette question considérée comme importante en Allemagne.