« La tribologie permet d’économiser de la matière et de l’énergie »

Techniques de l’Ingénieur : Depuis quand la tribologie existe-t-elle ?

La tribologie existe depuis toujours. À l’âge de pierre, l’homme des cavernes frottait déjà des silex pour se fabriquer des outils et faire du feu. Le terme « tribologie », date lui, de 1966. Il a été proposé par Peter Jost, actuellement président de l’ITC (International Tribology Council) et construit à partir de deux termes grecs : « tribos » qui signifie « frottement », et « logos » qui signifie « lois».  Mais en réalité, le mot semble avoir déjà été évoqué par Leonard de Vinci dans l’un de ses carnets récemment découvert. De Vinci dessinait des schémas de mécanisme et aurait constaté qu’il pouvait y avoir des résistances mécaniques, des frottements.

Quelles sont les causes de détérioration les plus fréquentes des matériaux en tribologie ?

L’usure, dont il existe plusieurs familles : l’usure par adhésion, lorsqu’il y a collage et arrachement des matériaux ; l’usure par abrasion, lorsqu’il y a une particule intrusive qui s’introduit entre les matériaux et qui va enlever de la matière ; l’usure par érosion, où des particules viennent agresser les surfaces ; l’usure par fatigue, dont l’action répétée de contraintes à la surface va fatiguer le matériau et provoquer une émission de particules ou la rupture des composants ; et l’usure par tribocorrosion où la corrosion s’ajoute à l’usure par exemple.

Comment mesure-t-on l’usure d’un matériau ?

Par la perte de dimensions du matériau, la perte de masse, ou la perte de matière.

À quelles disciplines scientifiques la tribologie fait-elle appel ?

À la mécanique des solides et des fluides, à la connaissance des matériaux, à la physique, à la chimie, car il y a beaucoup d’actions physico-chimiques en surface.

Dans quels secteurs industriels la tribologie se révèle-t-elle utile ?

Dans tous les domaines d’activité, dès que des solides ou des fluides sont mis en contact. On en trouve aussi bien en mécanique qu’en transport, qu’en biomécanique (usure des dents, des articulations)…

Quelles solutions existent pour remédier aux phénomènes d’usure et de frottement ?

Les solutions les plus classiques consistent à éviter ou limiter le contact des matériaux en introduisant un lubrifiant entre les surfaces, il s’agit alors de lubrification hydrodynamique, hydrostatique, élastohydrodynamique… D’autres solutions consistent à utiliser des matériaux résistants aux différents types d’usure. On joue sur la structure des matériaux, leurs caractéristiques mécaniques et physico-chimiques pour limiter l’usure. Troisième solution : on introduit des matériaux à structure spécifique entre les solides. On peut, par exemple, utiliser des lubrifiants de type solide, certains composés lamellaires (graphite, bisulfure de molybdène…), qui abaissent les frottements et limitent l’usure. On peut aussi, dans le cas d’engins de travaux publics ou de matériels agricoles, mettre en œuvre des techniques de rechargements avec des métaux durs pour limiter l’abrasion des outils par les particules dures contenues dans le sol.

Quelles sont les techniques les moins classiques ?

Les techniques qui consistent, par champ magnétique, à faire une sustentation magnétique. Ce sont des techniques utilisées dans des circonstances très particulières.

Les nanotechnologies peuvent-elles servir à la tribologie ?

Effectivement, on peut utiliser les nanotechnologies pour limiter l’usure dans certaines circonstances. Par exemple, en renforçant les matériaux par des nanoparticules, que l’on disperse dans une matrice pour former un composite plus résistant. C’est actuellement l’application la plus courante des nanotechnologies dans la tribologie. Inversement, les connaissances en nanotribologie permettent de mieux comprendre certains phénomènes de tribologie tels que l’établissement des liaisons, qui se produisent par exemple dans le cas d’usure adhésive. Ainsi, les modèles de nanotribologie permettent de mieux analyser les phénomènes mis en jeu.

La tribologie peut-elle contribuer à la protection de l’environnement ?

Oui. Prenons l’exemple d’un moteur de voiture. Dans un moteur, une partie importante de l’énergie est dissipée par frottement. Si l’on abaisse les frottements, on optimise l’énergie dissipée, on réduit les pertes et on améliore par conséquent le rendement du moteur. Autre exemple : si l’on conçoit un pneumatique qui dure deux fois plus longtemps qu’un pneumatique classique, on limite l’apparition de particules d’usure. On économise ainsi de la matière, de l’énergie et on réduit la présence de particules polluantes dans l’environnement.

Propos recueillis par Carole Hamon

 

Pour aller plus loin :

Découvrez la base documentaire Techniques de l’Ingénieur : Tribologie

 

 

 

 

 

 

 

 

Le saviez-vous ?

René Gras, ancien dirigeant du groupe tribologie de l’institut supérieur de mécanique de Paris (SUPMECA), docteur ès sciences physiques de l’Université Pierre-et-Marie-Curie Paris-VI, fait partie de l’équipe d’experts Techniques de l’Ingénieur mettant leurs compétences à votre disposition à travers notre activité de conseil. Il anime également la formation Tribologie, diagnostic et solutions techniques.

Pour en savoir plus, cliquez-ici.

« Les porphyrines sont vraiment des molécules enthousiasmantes »

Des chercheurs de l’Indian Association for the Cultivation of Science (Calcutta) travaillent à l’élaboration de matériaux à base de porphyrines. Plus précisément, ils ont synthétisé des polymères organiques poreux contenant du fer et présentant une surface spécifique très importante, avec des micropores de grand diamètre. Ce nouveau matériau a montré une excellente capacité de capture du CO2. Interview du professeur Asim Bhaumik  :

En quoi consiste votre projet et quels en sont les principaux objectifs ?

Nous développons de nouvelles stratégies pour la conception de polymères organiques, micro et mésoporeux, et nous explorons leurs applications potentielles pour la recherche sur les énergies et l’environnement (stockage du dihydrogène, capture du dioxyde de carbone, dépollution de l’eau, etc.).

  Dans quel but développez-vous des polymères contenant du fer ?  

Nous avons tenté de développer des polymères organiques poreux contenant d’autres métaux ou n’en contenant pas du tout, mais leurs surfaces spécifiques étaient beaucoup plus faibles. Par ailleurs, le fer(III) peut lier les sites donneurs d’azote de façon très efficace et stabiliser la nanostructure du matériau.

  Pourquoi avez-vous choisi d’utiliser des porphyrines pour ce projet ?   

Les porphyrines sont vraiment des molécules enthousiasmantes pour les chercheurs en chimie organique synthétique. Mais concevoir des matériaux organiques poreux à base de porphyrines et de fer, à partir de sa brique élémentaire – le pyrrole – et d’une substitution aromatique avec des molécules de para-dialdéhyde, est une première.

 Qu’est-ce qui rend les porphyrines intéressantes pour l’adsorption du CO2 ?

Les porphyrines sont des molécules très riches en azote. Or, les sites azotés sont des bases de Lewis et le CO2 est un acide de Lewis. Nous nous attendions donc à ce que des matériaux poreux à base de porphyrines, avec d’importantes surfaces spécifiques, présentent un excellent potentiel de capture du CO2. Et c’est justement ce que nous avons découvert avec ce projet.

Quelles propriétés espériez-vous que ces nouveaux matériaux possèdent ?

Les sites azotés basiques peuvent être utilisés pour catalyser des réactions, tandis que les sites contenant du fer peuvent être exploités pour des réactions d’oxydation partielle en phase liquide. Ces matériaux pourront donc avoir de multiples fonctions et applications, notamment dans les domaines de l’énergie et de la recherche environnementale.

Par Alexandra Chavarot
A lire également :

Un bouchon de bouteille « UV », purificateur d’eau ?

Lors d’une randonnée plus ou moins longue et plus ou moins éprouvante, il semble raisonnable de voyager léger plutôt que de s’encombrer avec toutes sortes de gadgets pas toujours pratiques. Il est par contre difficile de se passer d’eau potable

Deux solutions s’imposent lorsqu’on ne peut en trouver au cours de la randonnée : partir avec une assez grande quantité d’eau, ou emmener un dispositif de purification. C’est tout du moins l’argument avancé par les concepteurs d’un purificateur d’eau niché à l’intérieur même du bouchon d’une bouteille, sous la forme d’une ampoule à ultraviolets. La bouteille « All Clear » de la jeune société américaine CamelBak s’occuperait donc de tout, une fois remplie d’eau, rebouchée et allumée.

L’écran LCD se trouvant sur le dessus du couvercle guide l’utilisateur pas à pas, assurant le décompte des soixante secondes nécessaires selon les concepteurs à purifier l’eau, et donne des informations sur l’état de charge de la batterie. Il suffirait alors de retourner et de secouer plusieurs fois la bouteille pendant le processus de purification, pour permettre à l’ampoule UV de traiter le maximum d’eau possible et ainsi détruire la plus grosse partie des bactéries, virus et protozoaires, mis à part 0,1 % de chacune de ces catégories, pour 75 centilitres d’eau, toujours d’après les statistiques avancées par les concepteurs.

Un procédé pas encore 100 % efficace

La durée de vie de l’ampoule est estimée à une dizaine de milliers de cycles, permettant de purifier environ trois litres d’eau par jour, et ce pendant plus de sept ans. La bouteille de CamelBak aurait déjà du être commercialisée en 2009, mais les Américains avaient alors décidé de retarder sa mise sur le marché, jugeant que leur produit n’était pas assez efficace. Le processus de purification est désormais plus rapide, l’ampoule dure plus longtemps et la batterie est intégrée de manière plus « douce » à l’ensemble. Le prix a également été revu à la baisse, 99 dollars pour le kit contenant une bouteille, le bouchon purificateur, un bouchon standard permettant de boire aisément, un étui de protection et un câble USB pour recharger le dispositif. Un tamis au maillage de 100 microns est par ailleurs fourni pour 15 dollars supplémentaires.

Pourtant, malgré les déclarations rassurantes, la qualité de l’eau ne semble pas à 100 % avérée. En effet, certains agents infectieux (et pas des moindres) ne disparaissent pas après une minute d’exposition à un rayonnement ultraviolet. Une période d’obscurité d’une vingtaine de minutes est parfois nécessaire, pour contrer les effets de la photolyase, enzyme réparant certains dégâts causés dans l’ADN des agents infectieux par les ultraviolets, réaction déclenchée par la simple exposition à la lumière.

Les polluants chimiques tels que le chlore et les métaux lourds ne sont pas détruits par simple exposition aux ultraviolets. Quant aux microbes eucaryotes, il faut plus de temps pour s’en débarrasser car leur processus de réplication est plus long. La bouteille « All Clear » est donc un produit à suivre, mais avec précautions pour le moment.

Par Rahman Moonzur

Responsabilité sociale des entreprises

L’ouvrage collectif – rédigé à la fois par des juristes et des économistes – soulève les multiples problématiques engendrées par la responsabilisation économique, environnementale, sociale et sociétale de l’entreprise.

La mise en œuvre de ces notions encore émergentes comporte de nombreuses et complexes implications en matière de droits fondamentaux, de droit social, de droit de l’environnement, de droit des affaires… Mais il pose également la question des nouveaux modèles de management financier, commercial, des ressources humaines… à mettre en œuvre par les entreprises.

L’analyse de ce processus est d’autant plus stimulante qu’elle fait appel à plusieurs disciplines et qu’elle balaye un vaste champ historique et géopolitique. Ces regards croisés sur un des grands phénomènes contemporains de société, s’enrichissent mutuellement en vue d’une meilleure compréhension des finalités et des dispositions des nouvelles normes ISO 26 000, des principes directeurs de l’OCDE appliqués aux firmes multinationales ou des accords de Grenelle 1 et 2.

 

Responsabilité sociale des entreprises : Regards croisés Droit et Gestion

François Guy Trébulle et Odile Uzan (dir.)

Economica, 2011, 518 pages.

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

« Geckskin », surface adhésive inspirée par les pattes du gecko

Les scientifiques de tous bords ont pendant très longtemps été impressionnés par les propriétés adhésives des pattes du gecko, sans jamais vraiment comprendre les rouages permettant à ce reptile de développer une force équivalant à supporter une charge d’environ quatre kilogrammes sur une surface verticale et sans glisser, – soit près de 30 fois le poids du gecko, en moyenne 140 grammes. Une équipe composée d’un biologiste et de scientifiques spécialistes des polymères de l’université du Massachusetts, à Amherst, se sont penchés sur le sujet, avec des résultats qui sont pour le moins concluants.

Tous les précédents efforts pour synthétiser le pouvoir adhésif des pattes du gecko se sont régulièrement soldés par des échecs, la communauté scientifique ayant imputé cette prouesse aux seuls poils microscopiques présents sous leurs doigts, les setæ. La plupart des geckos possèdent ces setæ, dont l’implantation très dense forme des lamelles adhésives sous chaque doigt . Les setæ se ramifient à leur extrémité en poils extrêmement fins, engendrant des interactions avec le support à l’échelle moléculaire, connues sous le nom de « force de Van der Waals ». Pour décoller les setæ d’une surface, les poils doivent changer leur orientation.

Les principaux problèmes sont la reproduction de ce dispositif naturel à plus grande échelle, la faible durée de vie de poils conçus artificiellement qui ne peuvent se renouveler, ainsi que la difficulté à reproduire la capacité qu’ont les geckos à se coller et se décoller à volonté, et ce jusqu’à plus de 10 fois par seconde. « La complexité d’une patte de gecko n’avait jamais été entièrement prise en compte », explique le biologiste du groupe, Duncan Irschick, qui a étudié le petit lézard pendant plus d’une vingtaine d’années. « La patte d’un gecko est composée de plusieurs éléments qui interagissent entre eux, incluant les tendons, les os et la peau en plus des setæ, travaillant ensemble pour produire aisément cette fantastique adhésivité réversible », ajoute-t-il.

C’est grâce au décryptage plus précis de ces mécanismes que l’équipe de chercheurs est parvenue à concevoir « Geckskin », un adhésif dont seulement 40 cm² posés sur une surface verticale peuvent supporter près de 317 kilos, – prouesse encore jamais réalisée à une telle échelle. Au delà de ces incroyables propriétés adhésives, « Gecksin » demanderait des efforts négligeables pour être détaché et serait réutilisable de très nombreuses fois sans perte d’efficacité, d’après l’équipe de chercheurs. Autre atout majeur : Geckskin ne laisserait pas de résidus sur les surfaces utilisées.

L’innovation majeure, selon le spécialiste Michael Bartlett, a été de « créer un adhésif intégré, avec une surface souple solidaire d’une structure rigide, permettant à la surface souple d’envelopper le support choisi pour maximiser le contact. » Comme dans une patte de gecko, « Geckskin est relié à une sorte de tendon synthétique, dispositif clé dans le maintien de la rigidité et dans la liberté rotationnelle offerte par notre découverte », poursuit-il. Les scientifiques de l’université du Massachusetts ont également prouvé que les setæ n’étaient pas nécessaires pour reproduire les performances des geckos, « concept qui n’avait jusqu’alors pas été étudié par les précédents travaux de recherche, et qui pourrait ouvrir de nouvelles possibilités pour les futurs travaux de recherche », conclut-il dans l’article publié dans la revue scientifique Advanced Materials.

Geckskin est essentiellement composé d’un polymère très commun, le polydiméthylsiloxane (PDMS), présent notamment dans les shampooings ou dans certains aliments. C’est un polymère très prometteur pour le développement d’un adhésif puissant, réversible, durable et peu onéreux. Suspendre comme « décoller » une télévision, un ordinateur aussi bien que du matériel médical ou industriel pourrait alors ne plus être qu’un jeu d’enfant, sans laisser le moindre résidu.

Le projet Geckskin a été réalisé sans surprise sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. Les concepteurs de Geckskin, loin de se satisfaire de leur travail, continuent encore à améliorer leur découverte, afin de présenter le dispositif le plus efficace possible.

Par Moonzur Rahman

 

À lire aussi :

Les rainettes au service des humains

Un super-adhésif pour un assemblage polyamide / aluminium

 

L’ISO 26000 et la responsabilité sociale et sociétale des entreprises

Publiée le 1er novembre 2010, la norme ISO 26000 est l’unique norme internationale visant à fournir aux organisations les lignes directrices de la responsabilité sociétale. Elle donne un cadre international de comportement à tout type d’organisation (entreprises, collectivités, ONG, syndicats…) quelle que soit sa taille, ses domaines d’actions.

Elle respecte les grands textes fondateurs internationaux comme la Déclaration Universelle des Droits de l’Homme, les conventions de l’Organisation Internationale du Travail… Cette norme est une norme de lignes directrices et non d’exigences ; elle n’est donc pas « certifiable ».

Comment mettre en place une démarche ISO 26000 dans un organisme ? Quel lien entre Développement Durable et Responsabilité Sociétale ? Comment les aspects économiques sont-ils traités dans la norme ?

Autant de questions qui trouveront réponse dans ce Jeudi du CNRI du 5 avril (s’inscrire).

Présentation du programme

  • 9h30 : Ouverture du colloque

  • 9h40 : Tables rondes :

– Corinne TURPIN (Fondatrice et directrice d’OSMOZE – Evaluatrice AFAQ ISO 26000 pour le Groupe AFNOR) :

ISO 26000 Responsabilité sociétale : comprendre, déployer, évaluer

– Michel DOUCIN : Ambassadeur chargé de la bioéthique et de la responsabilité sociale des entreprises au Ministère des affaires étrangères et européennes :

Que se passe-t-il dans le monde en matière de RSE ?

– Alexandre MARIONNET : Gérant de Colles & Couleurs Cléopâtre :

Le chemin à parcourir dans une PME pour devenir EMAS

– Nicolas PORTEAU : Directeur des Ressources Humaines et Directeur du Développement Durable de CHRYSO :

La RSE : la façon même de piloter l’entreprise

– Florence EMMANUELLI : Animatrice de la Fédération nationale des CREPI (Clubs Régionaux d’Entreprises Partenaires de l’Insertion) et Annick JULIA : Directrice du CREPI Touraine :

Entrepreneur responsable : un outil simple d’évaluation des pratiques

  • 12h30 : Fermeture du colloque

 

Ce colloque sera animé par Frédéric CHATEAUVIEUX

 

Mise en œuvre de la réforme des enquêtes publiques et des études d’impact

Les nouvelles enquêtes publiques

Pour mémoire, la loi Grenelle 2 a regroupé les enquêtes publiques autour de deux catégories : celles régies par le code de l’environnement et celles régies par le code de l’expropriation (articles 236 et suivants de la loi n°2010-788 du 12 juillet 2010). Le décret n°2011-2018 concerne les enquêtes publiques régies par le code de l’environnement : ses dispositions sont codifiées aux articles R123-1 et suivants du même code.

Le champ d’application de l’enquête publique

Le principe est que font l’objet d’une enquête publique les projets de travaux, d’ouvrages ou d’aménagements qui, en application de l’article R122-2 du code de l’environnement sont soumis à la réalisation d’une étude d’impact. La liste des catégories d’aménagements, d’ouvrages ou de travaux concernées est définie aux annexes I à III de l’article R123-1 du code de l’environnement. En cas de réalisation fractionnée d’une même opération, l’appréciation des seuils et critères doit tenir compte de l’ensemble de l’opération.

La procédure de l’enquête publique

Le décret n°2011-2018 apporte plusieurs précisions, destinées à améliorer son déroulement, et notamment la participation du public. On notera en particulier :

  • L’encadrement de la durée de l’enquête, dont le prolongement peut désormais être de 30 jours au lieu de 15 jours auparavant ;
  • Les nouvelles conditions d’organisation et de publicité de l’enquête, ainsi que les moyens dont dispose le public pour formuler ses observations, en permettant, le cas échéant, le recours aux nouvelles technologies de l’information et de la communication ;
  • La prise en considération des observations du public et des recommandations du commissaire enquêteur par la possibilité de suspendre l’enquête durant 6 mois (auparavant une nouvelle enquête était nécessaire), et d’organiser une enquête complémentaire sur les avantages et les inconvénients de ces changements pour le projet et l’environnement ;
  • Les nouvelles conditions d’indemnisation des commissaires enquêteurs.

L’entrée en vigueur de la réforme

Elle a été fixée au 1er juin 2012, ce qui signifie qu’elle s’appliquera aux enquêtes publiques dont l’arrêté d’ouverture et d’organisation sera publié à compter de cette date.

Les nouvelles études d’impact

Le champ d’application de l’étude d’impact

La loi Grenelle 2 a prévu que sont précédés d’une étude d’impact les projets de travaux, d’ouvrages ou d’aménagements publics et privés qui, par leur nature, leurs dimensions ou leur localisation sont susceptibles d’avoir des incidences notables sur l’environnement ou la santé humaine.

Le décret n°2011-2019, codifié aux articles R122-1 et suivants du code de l’environnement, précise que sont soumis à étude d’impact les projets mentionnés en annexe à l’article R122-2 du code de l’environnement. En fonction de seuils qu’il définit, le décret impose soit une étude d’impact obligatoire en toutes circonstances, soit une étude d’impact au cas par cas, après examen du projet par l’autorité administrative compétente.

Ne sont pas soumis étude d’impact les travaux d’entretien et de grosses réparations, quels que soient les ouvrages ou aménagements auxquels ils se rapportent, ainsi que certains travaux de modernisation et de renforcement mentionnés à l’article R122-5 du code de l’environnement.

Le contenu de l’étude d’impact

Le décret n°2011-2019 précise les modalités de la procédure permettant au pétitionnaire de demander à l’autorité administrative compétente de rendre un avis sur le degré de précision des informations à fournir dans l’étude d’impact, conformément à l’article L. 122-1-2 du code de l’environnement (article R122-4 du code de l’environnement). Dans sa demande, le pétitionnaire doit fournir au minimum les éléments dont il dispose sur les caractéristiques principales du projet et, dans la zone qui est susceptible d’être affectée. Dans son avis, l’autorité administrative doit préciser les éléments permettant au pétitionnaire d’ajuster le contenu de l’étude d’impact à la sensibilité des milieux et aux impacts potentiels du projet sur l’environnement ou la santé humaine, notamment le degré de précision des différentes thématiques abordées dans l’étude d’impact.

Cet avis, ainsi que l’étude d’impact, doivent être insérés dans le dossier soumis à enquête publique ou le cas échéant, mis à disposition du public, selon les modalités prévues au 4° de l’article R123-8 du code de l’environnement.

L’entrée en vigueur de la réforme

Elle a été fixée au 1er juin 2012, ce qui signifie qu’elle s’appliquera aux projets dont le dossier de demande d’autorisation, d’approbation ou d’exécution sera déposé auprès de l’autorité compétente à compter de cette date.

Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement

 

A lire aussi :

Le dispositif des certificats d’économies d’énergie (CEE) se renforce

Une solution logicielle pour répondre aux exigences de la loi Grenelle 2

Le « paquet énergie – climat » face à la crise

Un matériau à base de porphyrines pour réduire l’effet de serre

Une équipe de chercheurs de la Faculté de Sciences et Technologie de l’Université de Coimbra (Portugal) veut développer de nouvelles molécules capables d’adsorber le dioxyde de carbone et le méthane.

En effet, réduire les émissions de ces deux gaz, qui figurent parmi les principaux acteurs du réchauffement climatique, est un enjeu majeur. Toutefois, si la solution la plus médiatisée consiste à stocker le CO2 dans des réservoirs géologiques, le professeur Abilio Sobral pense que le défi n’est plus aujourd’hui d’isoler ces gaz mais de les transformer en produits à valeur ajoutée.

C’est dans cette optique qu’il s’est intéressé aux porphyrines, des molécules organiques très répandues dans le monde vivant, que l’on retrouve au cœur de l’hémoglobine et sous forme de chlorophylles.

Entre les mains des scientifiques ces porphyrines pourraient devenir les constituants de nouveaux matériaux multiporeux qui, placés à la sortie des cheminées industrielles, piègeraient les gaz à effet de serre. Ces derniers seraient alors transformés en méthanol (utilisable pour la production de biocarburant), en acide formique (destiné à la fabrication de teintures, insecticides, additifs alimentaires), en  formaldéhyde (à usage de désinfectant, fixateur ou conservateur)…

C’est la structure du matériau qui va rendre possibles ces mécanismes de piégeage et de conversion. En effet, les porphyrines seront liées à deux métaux, l’un permettant l’assemblage des molécules entre elles, l’autre assurant la fonction de catalyse. Les vides créés entre les blocs poprhyrine-métal emprisonneront les gaz de telle façon qu’ils soient amenés à subir les réactions chimiques nécessaires à leurs transformations.

Mais comment construire de tels matériaux ?

Pour répondre à cette question, l’équipe du professeur Sobral veut tout d’abord créer de nouvelles porphyrines, plus robustes et faciles à synthétiser. Et c’est justement dans la définition de ces voies de synthèse que se situe le principal challenge du projet.

« Nous pouvons créer toutes sortes de porphyrines » commente A. Sobral « mais le problème ici est de parvenir au bon équilibre entre efficacité et coût de production, car notre solution doit s’inscrire dans une réalité industrielle ».

Il existe alors deux possibilités pour fabriquer de nouvelles porphyrines : partir de zéro ou bien d’une molécule naturelle, qui subira des modifications. « Je pense que nous arriverons à une solution mêlant ces deux options » affirme A . Sobral. « La décision sera probablement prise d’ici la fin de l’année. Pour y parvenir, nous allons commencer par travailler sur des porphyrines symétriques, ce qui implique un procédé assez simple (en un ou deux temps), puis sur des porphyrines non symétriques, une démarche plus complexe qui peut exiger jusqu’à 20 étapes ».

Les chercheurs de Coimbra sont au commencement d’une démarche expérimentale qui pourrait amener un bouleversement des pratiques de lutte contre le réchauffement climatique, en ajoutant à la capture des gaz à effet de serre la possibilité de les recycler et de leur donner de la valeur.

Par Alexandra Chavarot.

Google sur le point de lancer sa librairie numérique en France

On se souvient du lancement de la librairie Google aux États-Unis en 2010, qui proposait alors un catalogue de trois millions d’e-books. Le géant américain prévoit désormais de s’attaquer au marché français et de se tailler une place aux côtés de ses concurrents, Apple et Amazon.

La nouvelle est tombée vendredi 16 mars, lors de l’inauguration du 32e salon du livre, qui s’est tenu à Paris du 16 au 19 mars. Le magazine Livres Hebdo, après avoir pris connaissance d’un mail destiné aux éditeurs partenaires de Google Livres, a dévoilé que le moteur de recherche s’apprêtait à lancer Google Play Books en France prochainement. Dans ce courriel, on pouvait y lire notamment ceci « Les internautes qui iront  sur le site Google eBooks Store accéderont automatiquement au site Google Play où ils pourront acheter des livres numériques mais aussi des applications Android ».

Concernant les ventes directes de livre numérique, c’est-à-dire sur la plateforme, le géant américain se réservera une marge de 48 % contre 52 % si la commercialisation a lieu en passant par un revendeur. Dans ce cas, la marge perçue sera partagée avec le libraire, et ce dans une proportion non précisée. S’ils sont d’accord, les éditeurs déjà adhérents au programme Google Books, devront signer un avenant à leur contrat qui les lie à Google Europe, dont le siège est en Irlande.

Les grands éditeurs français, autrefois réticents face au numérique, réfléchissent à la proposition de la firme de Mountain View – bien qu’actuellement, aucun contrat n’ait été signé avec la holding européenne. C’est un travail de longue haleine selon Philippe Colombet, le directeur français de Google Books, qui affirme travailler « depuis de longs mois à mettre en place quelque chose qui soit conforme aux volontés du Syndicat national de l’édition ».

Seuls les éditeurs indépendants semblent avoir franchi le cap en proposant quelques milliers d’ouvrages consultables sur la plateforme Google Play. Parmi ces maisons indépendantes, citons L’Harmattan, Le Petit futé, Michelin, Vrin où encore des presses universitaires.

Par Sébastien Tribot

Revue du Web #22 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Cheetah, le nouveau poulain de la Boston Dynamics, qui a battu le record de vitesse pour un engin robotisé monté sur pattes ;
  • Une « cape d’invisibilité » pour la F-Cell de Mercedes, à l’aide d’un tapis de LED ;
  • Une course entre une voiture sportive et un jetpack ;
  • Utiliser une bobine Tesla comme instrument de musique, c’est possible ! ;
  • Le gadget (inutile ?) de la semaine : le plus grand tire-bouchon du monde ;
  • Enfin, une nouvelle vidéo du crash de la navette américaine Challenger, survenu en 1986.

Cheetah, nouveau poulain de la Boston Dynamics 

Pour débuter cette vingt-deuxième revue du Web, voici Cheetah, un robot créé par la très prolifique société américaine Boston Dynamics sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. Cheetah a battu le record de vitesse pour un engin robotisé monté sur pattes, en galopant sur un tapis roulant à la vitesse de 18 miles/h (29 km/h), explosant ainsi le précédent record de 13,1 miles/h (21km/h) détenu depuis près de 23 ans par un robot conçu par le Massachusetts Institute of Technology (le fameux MIT).

Les chercheurs se sont inspirés des mouvements de l’animal terrestre le plus rapide au monde, le guépard, baptisant leur robot du nom du guépard indien, animal maintenant présumé disparu. Les éminences grises de la Boston Dynamics ont prévu de tester Cheetah en conditions réelles et en environnement extérieur prochainement, tests qui pourraient s’avérer concluants si l’on doit se fier au prestige dont jouit cette société dans la communauté scientifique, notamment grâce à Alpha Dog ou à Big Dog, des mules-robots particulièrement impressionnantes, – ou encore grâce à Petman, leur robot anthropomorphe. Les champs d’applications pourraient être assez nombreux, bien que le Pentagone pense évidemment à des débouchés… militaires.

Une cape d’invisibilité pour la F-Cell de Mercedes-Benz

Les communicants du constructeur automobile allemand Mercedes-Benz ont de la ressource : pour promouvoir leur nouveau modèle, la classe B « F-Cell », voiture qui n’émet aucun gaz à effet de serre et pourrait donc être considérée comme « transparente » environnementalement parlant, la marque allemande a décidé de réaliser un mini-clip publicitaire pour le moins spectaculaire. Quel meilleur moyen pour illustrer cette transparence que… d’essayer de la rendre effectivement « transparente ».

Pour ce faire, toute l’aile gauche de la classe B F-Cell a été recouverte d’un tapis de LED, alors qu’une caméra a été installée sur l’aile droite, capturant tout ce qu’il se passe côté passager. Les images sont alors retransmises en temps réel par le tapis de diodes, donnant l’impression que la voiture est – presque – invisible, tout particulièrement lorsque l’angle et l’éclairage sont idoines.

Les trois réservoirs d’hydrogène de la Mercedes classe B F-Cell permettent, à travers la pile à combustible, une production d’électricité pour une autonomie d’environ 400 km et une pointe à 170 km/h. De la même manière que sur une hybride, des batteries Lithium-Ion d’une capacité de 1,4 kWh accumulent de l’énergie récupérée au freinage, la restituant lors d’accélérations importantes.

 Une voiture sportive et un jetpack font la course 

Pour le lancement de la nouvelle Renault Mégane RS 250 Australian Grand Prix, le constructeur automobile français a imaginé une campagne très différente de celle de son concurrent allemand. En effet, la marque au losange a décidé d’organiser une course entre sa nouvelle voiture compacte et… un jetpack, piloté par le jeune Nick Macomber. La course se déroule sur une piste de 400 mètres de longueur.

Un jetpack (« réacteur dorsal » en français) est un équipement portable, ressemblant à un (gros) sac à dos et permettant de décoller et de voler pendant un laps de temps très réduit. Les jetpacks existent sous plusieurs formes, comme le « Jetlev », déjà commercialisé, qui fonctionne à l’eau et dont l’autonomie est d’environ deux heures, ou bien le Martin Jetpack développé par les Américains de Martin Airways. Pas de suspense, le jetpack ne fait pas le poids contre la Renault Mégane, il brûle même tout son carburant en moins de 30 secondes.

La bobine Tesla, un instrument de musique comme un autre

Les deux vidéos qui suivent ont pour point commun l’utilisation détournée de bobines Tesla, ou transformateur de Tesla, appareil mis au point par l’inventeur américain d’origine serbe Nikola Tesla. Une bobine Tesla est une machine électrique composée de deux, voire trois circuits de bobinages couplés et accordés par résonance, fonctionnant sous courant alternatif à haute fréquence et permettant d’atteindre de très hautes tensions.

Les bobines Tesla servent ici d’instrument de musique : un microcontrôleur sert à traduire et synthétiser les données au format MIDI, via la modulation de largeur d’impulsions, comme lors d’une conversion du numérique-analogique. La bobine est donc activée et désactivée à une fréquence très élevée, jusqu’à plus d’un millier de fois par seconde, produisant ainsi des sons audibles. Par exemple, la note « La » a une fréquence de 440 Hertz dans la norme internationale, et à un certain octave. Pour obtenir ce « La », il suffit que la bobine soit activée et désactivée 440 fois par seconde.

La première vidéo présente Tyler Christensen, étudiant au prestigieux Massachusetts Institute of Technolgy (MIT), avec une bobine Tesla jouant le thème du jeu vidéo Mortal Kombat. La seconde vidéo montre deux de ces bobines jouant de manière épique Dueling Banjos, thème classique instrumental composé dans les années 1950 et popularisé par le film américain sorti en 1972, Delivrance.

 Le gadget (inutile ?) de la semaine : le plus grand tire-bouchon au monde 

Le gadget (inutile ?) de la semaine a été conçu par Rob Higgs, un sculpteur se servant de divers objets et pièces mécaniques pour concevoir ses œuvres, et dont le fonctionnement toujours spectaculaire et l’élaboration compliquée sont pourtant au service d’une fonction pratique… et simple à l’origine. Alors qu’il était déjà responsable en 2009 d’un casse-noix mécanique, Rob Higgs réitère ici avec son tire-bouchon au style résolument « steampunk », dont les nombreux rouages rendent l’utilisation très spectaculaire.

Le sculpteur tourne une manivelle, qui met alors en branle le dispositif et active les rouages, débouchant doucement la bouteille en deux temps. La sculpture ne se contente pas de retirer le bouchon puisqu’elle sert également le vin dans un verre placé en haut à gauche du dispositif, dans un astucieux mouvement de va-et-vient, activé lui aussi manuellement. La vidéo montre le tire-bouchon en pleine action, pendant une démonstration publique lors du salon « Taste of London ».

Nouvelle vidéo du crash de Challenger

Pour terminer cette vingt-deuxième revue du Web, voici un document exclusif qui a été exhumé il y a seulement une semaine, montrant le crash de la navette américaine Challenger sous un nouvel angle. Le 28 janvier 1986 à 11h39, Challenger explose lors de sa dixième mission, 73 secondes après son décollage de la base de Cap Canaveral, en Floride.

C’est la rupture de l’un des joints toriques d’un des deux propulseurs à poudre accolés au réservoir principal d’hydrogène qui a provoqué l’accident, ayant souffert du froid la nuit précédant le tir. L’habitacle est retombé presque intact dans l’océan, mais aucun des sept membres de l’équipage n’a survécu. Le drame du crash avait alors largement traumatisé la population américaine.

 

 

Le crash de Challenger, en direct sur CNN :

 

Par Moonzur Rahman

 

A lire aussi :

Revue du Web #21 : les vidéos de la semaine

Revue du Web #20 : les vidéos de la semaine

Revue du Web #19 : les vidéos de la semaine

Les grandes entreprises françaises sont-elles encore en position d’innover ?

Si l’enquête révèle que la recette miracle de l’entreprise innovante n’existe pas, quatre causes d’échecs majeurs peuvent être évitées. Les résultats de l’étude mettent en lumière les facteurs de déterminismes auxquels les entreprises sont soumises tout en insistant sur leur caractère non inéluctable. Elles donnent aussi les voies de progrès où elles peuvent et doivent gagner en maturité. L’étude a aussi mené à un modèle de cinq « entonnoirs de l’innovation » caractérisant la création, la sélection et le développement des idées et des projets. Si le constat est un manque criant de professionnalisation de l’innovation, des pistes et propositions sont faites et leur efficacité démontrées.

 
Si la recette miracle de l’innovation garantie n’existe pas, l’enquête met en évidence 4 causes majeures d’échecs dans le management de l’innovation : la recherche du ROI en mode annuel, l’organisation en silos des fonctions de l’entreprise, la rétribution individuelle, et le manque de processus équilibré de convergence de l’innovation.
 
  • La recherche du ROI en mode annuel ou un réel marketing stratégique de l’innovation ?
Selon l’enquête, la financiarisation des entreprises conduit aujourd’hui de plus en plus d’entreprises industrielles françaises à réduire la part d’innovation de rupture au bénéfice d’une innovation plus sécurisée. « Les managers d’innovation sont progressivement devenus comptables de bénéfices espérés » déplore Emilie Vallet. Elles aboutissent souvent à tuer trop tôt des idées dont le revenu est apparemment difficilement démontrable » poursuit-elle. Le manque de marketing stratégique pour piloter la R&D contribue à ce manque d’indicateurs pour l’innovation, c’est-à-dire la création de valeur à plus long terme.
 
  • L’innovation en silos ou l’open innovation organisée ?
Le manque de concertation entre les fonctions de l’entreprise (recherche & développement, marketing stratégique, plan produit, projets de développement, achats, ressources humaines, …) dans la veille et la participation à la stratégie innovation conduisent à un regard partiel des besoins clients et des opportunités technologiques et concurrentielles, ainsi que des forces et des faiblesses de l’entreprise. De plus, les formes d’open innovation avec les partenaires externes sont souvent considérées comme un mal nécessaire plutôt que gérées systématiquement comme des opportunités sur le long terme.
 
  • La rétribution individuelle ou la valorisation des équipes innovantes ?
Les formes d’incitation à innover se résument le plus souvent à un intéressement personnel dérisoire en phase de dépôt de brevet, ou bien à une valorisation d’estime à l’issue d’un concours interne aux idées. Ces formes primitives d’incitation doivent faire place à une plus grande diversité de reconnaissances individuelles mais aussi de groupe, à une époque où les profils de génération « Y » et « Z » fondent leur motivation dans le travail en réseaux.
 
  • Un manque de processus organisé de convergence ou l’entonnoir d’innovation idéal ?
L’étude a bien montré qu’il existait à la fois des entonnoirs d’innovation trop réglés (de type stage & gate) qui filtrent trop rapidement les idées et des entonnoirs trop aléatoires ou inexistants laissant la place aux « héros porteurs de projets » ou au hasard. Un modèle de cinq entonnoirs de l’innovation a été proposé pour couvrir tous les cas de figure de processus de génération et de convergence des idées et des projets. Ces cinq entonnoirs ont, d’après les observations effectuées, tendance à s’enchainer dans un ordre donné en fonction de la taille de l’entreprise et de sa maturité dans le secteur industriel. Il y a alors fort à apprendre en ambitionnant d’atteindre le stade suivant.
 
 
Mais la démarche ne s’arrête cependant pas là. Elle devra se doubler d’une introspection permettant aux entreprises d’échapper à leurs déterminismes.
 
 « Toutes les entreprises que nous avons interrogées se considèrent comme innovantes et pensent qu’elles le seront demain » révèle Emilie Vallet, senior manager chez Logica Business Consulting, en charge de la performance de la fonction R&D.
 
Partant de ce constat, Logica Business Consulting et l’Ecole Centrale se sont penchés sur les pratiques opérationnelles de management de l’innovation des différents acteurs selon cinq domaines : les natures d’innovation, la veille et la stratégie innovation, l’organisation et les processus d’innovation, les moyens/méthodes/ressources, la gestion des connaissances et des compétences et les indicateurs de pilotage.
 
Ils ont abouti au premier constat que si chaque entreprise a ses propres processus d’innovation, des facteurs déterminants tels que l’historique, le secteur d’activité, le contexte concurrentiel ou le positionnement sur la chaîne de valeur influent sur la capacité de l’entreprise à innover en rupture. Ainsi, une entreprise du secteur pharmaceutique restera concentrée sur l’innovation produit (molécule au service d’un nouveau médicament) au détriment de l’innovation sur ses processus de distribution (circuit de diffusion de ses produits).
 
Pour Bernard Yannou de l’Ecole Centrale, « ces caractéristiques de l’écosystème de l’entreprise façonnent de manière importante ses pratiques et capacités innovantes et les conditionnent dans leurs modes de pensée et d’action en les empêchant souvent de gagner en maturité sur la recherche d’innovation ».
 
Pour échapper à leurs caractères innés, Bernard Yannou leur recommande, après avoir analysé leurs facteurs de déterminisme, de savoir se positionner sur les échelles de maturité des cinq domaines des pratiques opérationnelles, de s’enrichir des innovations notables des autres secteurs d’activité et de travailler en conduite du changement à gagner sur chacune des échelles de maturité. 
 
Dans ces décloisonnements suggérés dans l’étude, « Il faut notamment élargir les natures d’innovation en sortant de l’idée selon laquelle une innovation de rupture est seulement une innovation technologique. Il faut faire évoluer ses processus pour se donner le champ le plus large pour capter LA bonne idée en étant plus prospectifs sur les usages, les services, les nouvelles formes de modèles économiques et l’évolution des technologies. Penser l’innovation aujourd’hui, c’est penser en termes d’organisation innovante, en associant l’ensemble des fonctions de l’entreprise et de ses partenaires de l’innovation, dès l’amont du cycle, en raisonnant dans le monde des usages et des expériences client plutôt que dans le seul monde des fonctions. » conclut Emilie Vallet.

Paypal Here ou l’ère du paiement mobile

Le leader du paiement sur Internet lance Paypal Here, un nouveau moyen de paiement par mobile, concurrent direct de Square, et destiné aux professionnels du commerce. Sont concernés les marchands ambulants, les forains, les vendeurs de porte à porte… Seuls les détenteurs d’iPhone ou d’appareil fonctionnant sous Android peuvent utiliser ce service. Mais selon la catch-line de Paypal, « soyez assuré de ne plus manquer une vente ». Un argument capital.

Le système se compose d’un accessoire triangulaire de couleur bleu, placé en haut du téléphone et connecté par prise jack ainsi que d’une application mobile gratuite à télécharger depuis l’App Store d’Apple. Lorsqu’ils sont associés, votre mobile fait office de caisse enregistreuse et traite les transactions. Paypal Here accepte le paiement par carte bancaire, mais aussi par chèques et cash en plus d’émettre des factures.

Le système est d’une simplicité exemplaire, puisque d’un glissement de carte, le paiement s’effectue. En un geste, la piste magnétique de la carte de paiement est lue, et la somme indiquée. Ne reste plus qu’à signer l’achat sur l’écran tactile du terminal. Les transactions effectuées sont alors immédiatement transférées sur le compte Paypal du marchand.

Néanmoins, Paypal s’octroie une commission de 2,7 % à chaque transaction, calculée sur le montant du virement. Ce taux augmente à 3,5 % en cas de paiement sans lecture de carte magnétique. Des commissions extrêmement élevées en comparaison des 0,30 % perçues en France lors d’opération par carte.

Au préalable, des accords ont été signés avec les principaux établissements émetteurs de cartes de crédit (American Express, Visa, MasterCard…). Concernant la sécurité des données recueillies, Paypal assure qu’elles sont encryptées et qu’en aucun cas le commerçant ne peut avoir accès aux données du client, sauf si celui-ci lui laisse une adresse mail.

Et comme tous les commerçants ne se servent pas de Paypal Here, eBay a mis à jour son application iPhone, créant une nouvelle fonctionnalité « Local » afin de connaître les commerces environnant qui acceptent ce système.

Uniquement disponible aux États-Unis, au Canada, en Australie et à Hong Kong à l’heure actuelle, Paypal prévoit un lancement européen, sans toutefois préciser de date. Vous pouvez cependant demander à être notifié dès sa sortie sur cette page : https://www.paypal.com/webapps/mpp/credit-card-reader

Par Sébastien Tribot

 

À lire aussi :

E-payment : la France riposte avec Buyster

Risque chimique : les réglementations évoluent, les formations également

Le passage à une nouvelle phase de REACH va de paire avec l’implication de nouveaux acteurs responsables de la bonne application des nouvelles réglementations. L’échéance d’enregistrement de 2013 est également une étape clé qu’il convient d’aborder avec le plus grand sérieux.

C’est partant de cet état de fait que les Techniques de l’Ingénieur font évoluer leurs formations pour coller au plus près de l’évolution des réglementations et de leur impact sur les missions d’un responsable risques chimiques.

Voici comment Techniques de l’Ingénieur a adapté ses formations à l’actualité scientifique et aux évolutions réglementaires :

  • FDS étendues : sélectionnez une des deux formations spécifiques en fonction de votre statut : fabricant ou utilisateur

  • Réglementation du risque chimique : découvrez désormais en une seule formation toutes les réglementations auxquelles vous devez vous référer : REACH, CLP/SGH, Transport de matières dangereuses, Biocides, CEVESO…

  • Chef de Projet REACH : plus de temps et d’outils spécifiques accordés à la gestion de projets pour mener à bien le programme REACH de votre entreprise ;  

  • CMR : Une partie de notre formation « Evaluer et prévenir le risque chimique » leur est entièrement consacrée ;

  • Déchets industriels : découvrez désormais en une même formation comment les gérer et organiser leur transport.

Nouvelles thématiques : nouvelles formations

Nous tenons également à vous apporter des compétences sur de nouvelles thématiques, en traitant chaque jour les sujets qui vous mobilisent

  • Laboratoires : une formation spécifique pour maîtriser vos risques chimiques et biologiques ainsi que le traitement de vos déchets de laboratoire ;

  • Risques biologiques : bien présents mais souvent sous-estimés, Techniques de l’Ingénieur vous apporte les règles et la méthode pour les évaluer et les prévenir ;

  • Rayonnements ionisants : découvrez la réglementation et les moyens de radioprotection ;

  • Gestion de l’eau : les obligations et les responsabilités à respecter pour ne pas être sanctionné ;

  • Etudes HAZOP : suivez notre nouvelle formation pour prévenir les risques industriels et rendre vos études HAZOP plus efficaces. 

L’équipe pédagogique, constituée d’ingénieurs, de toxicologues et d’animateurs en Santé-Sécurité, travaille en continu à l’amélioration de nos programmes de formation. Nos experts-formateurs sont en parallèle en poste ou sur le terrain, confrontés aux problématiques quotidiennes vous rencontrez. Nous sommes à votre écoute pour comprendre votre métier aujourd’hui pour innover demain.

Par Florence Arnoux

Solvants et chimie verte : L’eau, un solvant vert ? (2/3)

Il s’agit en effet de la molécule la plus abondante sur Terre et elle présente de nombreux avantages : elle est non toxique, sans danger pour la santé, non inflammable. C’est un solvant polaire (avec une permittivité relative importante : εr ≈ 78 ) et une structure interne dominée par un réseau de liaisons hydrogène ou laisons-H. En particulier, l’utilisation d’eau comme solvant pour des réactions de Diels-Alder conduit à une augmentation des vitesses de réaction et de la sélectivité du fait d’une combinaison entre effets hydrophobiques et effets liés aux liaisons-H.

Néanmoins, l’utilisation de l’eau solvant pose plusieurs difficultés.

Les contraintes de l’eau solvant

Même si la température d’ébullition de l’eau offre l’avantage de pouvoir agir comme un dissipateur d’énergie pour des réactions exothermiques, chauffer l’eau demande beaucoup d’énergie. De fait, une fois contaminé, purifier un produit dans l’eau est difficile et coûteux en énergie.

L’eau peut également agir comme réactif avec des électrophiles et des nucléophiles, limitant le panel des réactifs qui peuvent être utilisés en solution aqueuse, ce qui a conduit à son remplacement par des solvants organiques. Par exemple, dans la synthèse de l’urée à partir de cyanate d’ammonium en solution aqueuse, 30% du cyanate est consommé par hydrolyse.

Par ailleurs, la faible solubilité de nombreux solutés potentiels limite l’utilisation de l’eau comme solvant. Beaucoup de techniques ont été mises au point pour répondre à ce problème :

  • L’ajout de groupement hydrophile peut être une solution mais nécessite une étape supplémentaire pour ôter ce groupement, ce qui est similaire à une étape de protection/déprotection donc particulièrement déconseillé en terme de chimie verte ;
  • L’utilisation d’un co-solvant organique permet également d’augmenter la solubilité des réactifs mais produit des déchets nécessitant une purification, de même que l’addition d’autres agents auxiliaires de solubilisation ;
  • Chauffer l’eau pour augmenter la solubilité et le souci de coût énergétique que cela entraîne.

En particulier, l’eau chauffée sous pression au-dessus de son point d’ébullition entraîne un changement de sa structure du fait de la réduction de l’étendue et de la résistance des liaisons-H : la permittivité relative passe de 78 à température ambiante à 21 à 300°C puis à 4.1 à 500°C. Ces changements impliquent des propriétés physicochimiques totalement différentes, à commencer par un renversement des solubilités : les composés non polaires deviennent solubles et les sels insolubles.

Dans les bases documentaires

 

 

 

 

 

 

 

L’eau supercritique au-delà du point critique (Tc = 374°C et Pc = 218 bars) est un fluide pour lequel il n’y a plus de phases liquide et gaz distinctes mais une unique phase « supercritique ». Globalement, on constate que la capacité de l’eau à établir des liaisons-H avec des solutés – ce qui domine son comportement à température ambiante – est grandement réduite ainsi que sa capacité à interagir avec les solutés par des interactions dipolaires. Pour beaucoup de composés organiques, on observe alors une miscibilité totale dans l’eau supercritique.

Cependant, cela ne résout pas le problème de la réactivité de l’eau : même à haute température, beaucoup de groupes fonctionnels sont susceptibles de s’hydrolyser. En particulier, quand le produit de la réaction est un acide, le problème de la réactivité de l’eau est d’autant plus grand que l’augmentation du produit ionique de l’eau avec la température favorise l’activité catalytique de petites concentrations d’acide. Ceci limite l’utilisation de l’eau pour les synthèses, d’autant que l’équipement pour de telles réactions doit être protégé de la corrosion acide.

Enfin, le coût énergétique pour atteindre ces températures et pressions est important, ce qui réduit l’utilisation de l’eau comme solvant pour la synthèse de molécules organiques complexes.

Les applications de l’eau solvant dans la synthèse

  • La conversion de la biomasse

Parmi les constituants de la biomasse, le chimiste s’intéresse plus particulièrement à la biomasse lignocellulosique, composée de cellulose  (un polymère linéaire de glucose), d’hémicellulose (un polymère branché contenant entre autres du glucose et des xyloses), de lignine, de lipides et de terpènes.

Ainsi, l’eau à haute température permet la conversion de la biomasse lignocellulosique en acide lévulinique dans un processus d’hydrolyse catalysée par acide. Si les mécanismes de réactions ne sont pas entièrement élucidés, cette conversion est de grand intérêt.

  • La destruction des déchets

Il s’agit de répondre à une grande préoccupation des chimistes verts. L’oxydation par eau supercritique – notée sc-H2O – est une technologie qui décompose complètement les déchets organiques domestiques et industriels en dioxyde de carbone (CO2), en eau et en diazote (N2). Outre l’intérêt commercial, cette technologie permet de répondre à une grande préoccupation du chimiste, à savoir : comment traiter les déchets après purification ? La miscibilité complète de sc-H2O en présence de dioxygène avec de nombreux composés organiques rend la méthode excellente pour détruire tous matériaux oxydables.

L’introduction de ce traitement des déchets à l’échelle industrielle présente encore des défis, non pas du point de vue chimique mais du point de vue technologique. En particulier, il nécessite de développer des réacteurs capables de résister aux conditions de réaction extrêmement corrosives et de gérer la formation de sels, insolubles dans sc-H2O. Plusieurs installations d’oxydation par sc-H2O ont été créées, notamment par EcoWaste Technologies ou par Johnson Matthey, dans le cadre de traitement des déchets de l’industrie pétrochimique ou catalytique (Figure 4). Mais beaucoup des sites ont fermés suite aux difficultés technologiques rencontrées telles la forte corrosion des réactions.

Actuellement, le traitement des déchets par sc-H2O est utilisé dans la destruction des armes chimiques.

  • Les réactions « sur l’eau »

Les réactions dites « sur l’eau »  reposent sur la non-miscibilité de nombreux composés organiques avec l’eau. Cette technique a été développée il y a quelques années par K. Bary Sharpless (Prix Nobel de Chimie 2001). Etudiant une réaction de cycloaddition, Sharpless et son équipe ont constaté que le temps de réaction passe de deux jours en milieu 1:1 sans solvant à seulement 10 minutes dans un mélange hétérogène contenant de l’eau. Les rendements des deux réactions sont par ailleurs similaires, supérieurs à 80%.

Ainsi des réactions entre composés organiques qui ne se dissolvent pas dans l’eau peuvent être optimisées en dissolvant les réactifs dans des mélanges hétérogènes contenant de l’eau et sans l’ajout d’un quelconque co-solvant organique. L’eau agit alors comme un catalyseur hétérogène : l’augmentation de la vitesse de réaction s’explique justement par la structure particulière de l’eau.

Dans les conditions ambiantes, l’eau est décrite comme un tétraèdre au sein duquel chaque molécule d’eau est liée par une liaison-H à deux autres molécules d’eau par ses deux atomes d’hydrogène et à deux autres molécules d’eau par son oxygène. Or à la surface du mélange hétérogène « par couche », cette structure est impossible. De fait, 25% des groupes hydroxyle ne sont pas liés et restent donc disponibles. Ces groupes agissent alors comme donneurs de liaisons-H pour les composés hydrophobes avec lesquels ils sont en contact, catalysant la réaction.

La méthode a été étendue à de nombreuses réactions et à des applications industrielles, en particulier dans l’industrie pharmaceutique.

  • La catalyse par transfert de phase

La Catalyse par Transfert de Phase (CTP) est une technique bien connue dont on connaît le potentiel pour offrir des voies de synthèses en chimie verte. Les avantages de la CTP – augmentation de la vitesse de réaction, stéréospécificité, catalyseurs peu coûteux… – ont rapidement conduit à son application commerciale : plus de 600 processus industriels de la chimie fine à de l’industrie pharmaceutique reposent sur cette méthode.

Le principe est simple : un catalyseur est ajouté pour permettre le transfert d’un réactif d’une phase liquide (généralement aqueuse) vers une autre phase (généralement organique) afin qu’il puisse y réagir avec un autre réactif. Habituellement, on assiste au transfert d’un anion d’une phase aqueuse vers une phase organique où il n’est pas miscible. Il existe différents types de catalyseurs de transfert de phase ; on utilise généralement des sels d’ammonium quaternaire ou des éther-couronnes.

Une des applications majeures de la Catalyse par Transfert de Phase concerne les réactions d’oxydations, particulièrement problématiques en terme de chimie verte. En effet, les oxydants traditionnels (permanganate de potassium KMnO4 ou dichromate de potassium K2Cr2O7) génèrent des déchets métalliques délicats à traiter. De même, les oxydants chlorés produisent des déchets dangereux pour l’environnement. En revanche, comme le seul produit secondaire de son utilisation est l’eau, l’eau oxygénée (H2O2) semble une alternative pratique en tant qu’oxydant en chimie verte.

La nature aqueuse de H2O2 le rend idéal pour la méthode CTP afin de permettre son transfert de la pahse aqueuse vers la phase organique où H2O2 réagit avec le composé organique à oxyder.

La troisième et dernière partie de cet article, « Solvants et chimie verte », paraîtra le 26 mars.

Relire la première partie

Par Pauline Bacle

Source : Culture science chimie

 

 

La Chine teste des robots d’exploration lunaire

 

Lancé en février 2010 par la JAXA (Japan Aerospace Exploration Agency), ce concours destiné aux universités et entreprises japonaises a pour objectif de trouver des solutions à certaines problématiques technologiques devant être résolues pour permettre une future exploration robotique de la Lune. L’agence spatiale japonaise prévoit en effet une mission d’exploration lunaire utilisant des robots vers 2025. Ceux-ci devront être capables de remplir différentes missions telles que prélever des échantillons et construire une petite base. Avant cela, la mission SELENE-2, prévue pour un lancement vers 2017, emportera un rover d’une centaine de kilogrammes qui explorera la surface de la Lune pendant deux semaines et testera des technologies de déplacement sur le sol lunaire. Toutefois, ce projet fait face à des difficultés pour obtenir le budget nécessaire à son développement et son avenir parait incertain.

Les participants aux concours dont les propositions ont été sélectionnées ont pu collaborer avec la JAXA pour réaliser un prototype de robot. Parmi les organisations ayant participé à la démonstration du 13 mars se trouvaient l’université du Tohoku, l’université de Technologie d’Aichi, l’institut de Technologie de Chiba, l’université d’Osaka et l’institut de Technologie de Tokyo. Au total, huit robots ont été présentés.

La démonstration a été effectuée sur des dunes proches de la ville de Hamamatsu, dans la province de Shizuoka. Les difficiles conditions de déplacement d’un robot dans le sable, qui provoque des glissements et des enfoncements, sont en effet relativement proches de celles rencontrées à la surface de la Lune. Le site de démonstration avait également été choisi en raison de l’inclinaison de certaines de ses pentes (environ 25 degrés), qui correspond aux spécifications de la JAXA. Les automates ont ainsi pu mettre à l’essai leur capacité de déplacement sur le sable et parfois au-dessus de petits rochers de quelques dizaines de centimètres. Chacun utilisait pour se mouvoir un système original, généralement constitué d’un nombre variable de roues et/ou de chenilles de tailles diverses. Certains robots ont aussi fait la démonstration de tâches telles que l’empilement de sacs de sable.

Le développement de ce type de robot, contrôlable à distance et capable de résister à des conditions environnementales difficiles, n’est pas uniquement profitable à l’exploration spatiale. Ces technologies sont en effet également utiles pour concevoir les robots qui sont envoyés dans les zones sinistrées après une catastrophe, comme la centrale de Fukushima.

Source : bulletins électroniques

Vers un super-réseau électrique HVDC en Asie

 

La technologie HVDC (Courant Continu Haute Tension) permet de transférer l’électricité sur de grandes distances avec moins de 3% de pertes pour 1000 km, permettant ainsi de créer des autoroutes de l’énergie formant une SuperGrid. Les liaisons peuvent être aériennes, souterraines ou sous-marines. Des projets recourant à une tension supérieure au million de Volts (Ultra HVDC) sont en cours actuellement en Chine. Plus la tension est élevée, plus les pertes sont faibles, et plus les lignes peuvent être longues.

Les interconnexions HVDC constituent un système de stockage virtuel utile pour gérer la nature fluctuante des énergies renouvelables comme l’éolien, le solaire ou l’énergie houlomotrice. Plus le super-réseau couvre une surface importante, plus l’effet de lissage est important.  Quand la production électrique solaire ou éolienne est supérieure à la demande dans un pays à un instant t, l’excès peut être exporté vers un pays voisin. Les différents pays et les différentes régions ont d’ailleurs des pics de consommation électrique se produisant à des moments différents, ce qui renforce l’intérêt des interconnexions : les puissances installées pour gérer les pointes, comme par exemple l’hydro modulable, peuvent alors être mutualisées.

La JREF a été crée suite à l’accident survenu le 11 mars 2011 à la centrale nucléaire de Fukushima-Daiichi. Son fondateur est Masayoshi Son, l’homme le plus riche du Japon et PDG de Softbank. Cet accident nucléaire a constitué pour lui un déclic : « ce jour-là, j’ai réalisé que la situation était extrêmement grave et qu’il fallait changer les choses. Bien sûr, l’électricité d’origine renouvelable coûtera 8 % ou 10 % plus cher, mais qu’est-ce que cela pèse au regard des vies humaines? Déjà 35 des 47 gouverneurs de préfecture de l’Archipel soutiennent mon initiative ». Sa fondation est aujourd’hui dirigée par Tomas Kåberger, ex-Directeur Général de l’Agence Suédoise de l’Energie. « Les technologies pour collecter l’énergie solaire et éolienne ont considérablement progressé ces dernières années »  a souligné cet expert à l’occasion de la signature de l’accord avec DESERTEC « Combinées avec les systèmes modernes de transmission de l’électricité, les énergies renouvel   ables peuvent contribuer à la prospérité économique de la région sur le long-terme.  L’établissement d’un super-réseau électrique en Asie constitue un véritable défi et requiert un coopération internationale de haut-niveau. Nous sommes heureux de pouvoir bénéficier de l’expérience de DESERTEC en la matière. » 

La Fondation DESERTEC, basée à Hambourg en Allemagne et soutenue par le Club de Rome, a été crée par un réseau de scientifiques, d’ingénieurs et de citoyens sensibilisés aux enjeux du développement durable dans l’objectif de créer un super-réseau électrique à l’échelle Europe, Afrique du nord et Moyen-Orient, et de libérer cette région de la dépendance envers les énergies fossiles et nucléaire. Le cœur du concept est d’installer de grandes centrales solaires thermodynamiques dans les déserts où la ressource solaire est particulièrement abondante, de stocker en partie l’énergie thermique dans de grandes cuves à base de sels fondus pour faciliter l’adaptation offre/demande, et de distribuer l’électricité générée via des autoroutes HVDC transnationales. La fondation DESERTEC s’est engagée à fournir à la JREF son savoir-faire pour créer une dynamique en faveur des énergies renouvelables et des super-réseaux électriques.

Par Olivier Danielo

En savoir plus : 

L’essentiel de Reach (mars) 1/2

 

L’ECHA publie des informations sur des articles de consommation contenant des substances extrêmement préoccupantes (SVHC)

(05/03/2012)

L’ECHA publie pour la première fois des informations sur les articles présents sur le marché de l’UE qui contiennent des SVHC figurant sur la liste des substances candidates. Les données recueillies reposent sur les informations fournies à l’ECHA par les entreprises dans le cadre des notifications et dossiers d’enregistrement. L’ECHA publie ces informations afin de contribuer au développement général des connaissances concernant l’utilisation et la présence de substances dangereuses dans les articles de consommation.

Elle le fait également dans l’optique de rappeler aux importateurs et producteurs que la législation les oblige, dans certaines situations, à notifier tout article contenant des substances énumérées dans la liste des substances candidates. Enfin, cela permet d’expliquer à nouveau aux consommateurs qu’ils ont le droit de savoir si les articles qu’ils envisagent d’acheter contiennent des substances faisant partie de la liste des substances candidates. Ils ont le droit de poser cette question au détaillant et d’obtenir une réponse dans les 45 jours.

  • Plus d’information sur : 

http://echa.europa.eu/documents/10162/38df6fc5-6123-493b-ba30-c9420c90e8bc

  • Données concernant la présence dans les articles de substances figurant dans la liste des substances candidates : 

http://echa.europa.eu/web/guest/information-on-chemicals/candidate-list-substances-inarticles

  • Liste des substances candidates :

http://echa.europa.eu/web/guest/addressing-chemicals-of-concern/authorisation/substancesof-very-high-concern-identification/candidate-list-of-substances-of-very-high-concern-forauthorisation

  • Notification de la présence dans les articles de substances figurant dans la liste des substances candidates : 

http://echa.europa.eu/en/web/guest/regulations/reach/candidate-list-substances-inarticles/notification-of-substances-in-articles

Informations pour éviter les essais inutiles sur les animaux – 25 nouvelles consultations 

(06/03/2012)

L’ECHA a lancé un appel visant à collecter des informations sur 22 nouvelles substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont : 

  • [1,3(or 1,4)-phenylenebis(1-methylethylidene)]bis[tert-butyl] peroxide (N° CAS : 25155-25-3 et N° CE : 246-678-3) – 3 consultations
  • Mélange de tetrasodium-phosphonoethane-1,2-dicarboxylate; hexasodium-phosphonobutane-1,2,3,4-tetracarboxylate (N° CE : 410-800-5) – 2 consultations
  • Acides gras, tall-oil, produits de réaction oligomères avec l’anhydride maléique et la colophane, des sels de calcium magnésium zinc (tests proposés avec la colophane traitée au fumarate (N° CAS : 65997-04-8)) (N° CAS : 160901-14-4 et N° CE : 500-451-8)
  • Phosphonium, tetrakis(hydroxymethyl)-, chloride (1:1), produits de réaction avec le 1-tetradecanamine et l’urée (N° CAS : 359406-89-6 et N° CE : 436-230-7)
  • Réaction en masse du 1-phenyloctadecane-1,3-dione et du  phenylicosane-1,3-dione (N° CE : 915-316-2)
  • Acides résiniques et acides colophaniques, sels de calcium (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 9007-13-0 et N° CE : 232-694-8)
  • Acides résiniques et acides colophaniques, sels de zinc calcium (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 68334-35-0 et N° CE : 269-825-3)
  • Acides résiniques et acides colophaniques, esters avec le glycerol (tests proposés avec des acides résiniques et acides colophaniques, esters avec le pentaérythritol (N° CAS 8050-26-8)) (N° CAS : 8050-31-5 et N° CE : 232-482-5)
  • Acides résiniques et acides colophaniques, esters avec le pentaérythritol (N° CAS :    8050-26-8 et N° CE : 232-479-9)
  • Acides résiniques et acides colophaniques, esters avec le triéthylèneglycol (Tests proposés avec les acides résiniques et acides colophaniques, esters avec le pentaérythritol (N° CAS : 8050-26-8)) (N° CAS : 8050-25-7 et N° CE : 232-478-3)
  • Acides résiniques et acides colophaniques hydrogénés, esters avec le glycérol (Tests proposés avec les acides résiniques et acides colophaniques, esters avec le pentaérythritol (N° CAS : 8050-26-8)) (N° CAS : 65997-13-9 et N° CE : 266-042-9)
  • Acides résiniques et acides colophaniques hydrogénés, esters avec le pentaérythritol (tests proposés avec les acides résiniques et acides colophaniques, esters avec le pentaérythritol (N° CAS : 8050-26-8)) (N° CAS : 64365-17-9 et N° CE : 264-848-5)
  • Acides résiniques et acides colophaniques, sels de magnésium (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 68440-56-2 et N° CE : 270-461-2)
  • Acides résiniques et acides colophaniques, sels de potassium (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 61790-50-9 et N° CE : 263-142-4)
  • Acides résiniques et acides colophaniques, sels de sodium (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 61790-51-0 et N° CE : 263-144-5)
  • Colophane (N° CAS : 8050-09-7 et N° CE : 232-475-7)
  • Colophane traitée au fumarate (N° CAS : 65997-04-8 et N° CE : 266-040-8)
  • Colophane traitée au fumarate, produits de réaction avec le formaldéhyde (tests proposés avec la colophane traitée au fumarate (N° CAS : 65997-04-8)) (N° CAS : 95009-65-7 et N° CE : 305-795-0)
  • Colophane, hydrogénée (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 65997-06-0 et N° CE : 266-041-3)
  • Colophane maleate (tests proposés avec la colophane traitée au fumarate (N° CAS : 65997-04-8)) (N° CAS : 8050-28-0 et N° CE : 232-480-4)
  • Colophane, produits de réaction avec le formaldéhyde (tests proposés avec la colophane (N° CAS : 8050-09-7)) (N° CAS : 91081-53-7 et N° CE : 293-659-0)
  • Scories, sidérurgie, elec. four (inox / haute production d’acier en alliage) (N° CE : 932-476-9)

Les informations sur ces substances sont à soumettre pour le 20 avril 2012. 

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Webinar

L’ECHA a publié les présentations et vidéo relatives au Webinar organisé le 29 février, à l’attention des déclarant principaux. Ces éléments sont disponibles sur : http://echa.europa.eu/web/guest/support/training-material/webinars

L’enregistrement pour le webinar du 27 mars destinée aux déclarants et portant sur l’identité des substances et le partage des données dans un SIEF. Ce webinar expliquera la notion de SIEF et traitera de l’importance d’une bonne identification des substances, du partage des données et des litiges associés.

Plus d’information sur : http://echa.europa.eu/web/guest/support/training-material/webinars

REACH : déclaration des usages avant le 31 mai 2012

(06/03/2012)

Le ministère de l’Ecologie envoie une piqûre de rappel aux utilisateurs de produits chimiques quant à la nécessité de déclarer leurs usages à leurs fournisseurs avant le 31 mai 2012 afin d’éviter toute rupture d’approvisionnement des substances. Cette déclaration des usages s’inscrit dans le cadre de la deuxième phase d’enregistrement, dont l’échéance est prévue au 31 mai 2013 et qui concerne les substances chimiques produites ou importées en Europe à plus de 100 tonnes par an. 

Pour aider les entreprises à remplir leurs obligations dans la mise en œuvre de REACH, le ministère rappelle la mise en place, depuis 2007, d’un service national d’assistance réglementaire gratuit permettant de poser ses questions en ligne ou par téléphone http://www.ineris.fr/reach-info/

L’Agence européenne des produits chimiques (ECHA) avait lancé dès septembre dernier une campagne de sensibilisation des entreprises afin qu’elles préparent cette deuxième phase d’enregistrement le plus en amont possible.

Article du Ministère de l’Ecologie : http://www.developpement-durable.gouv.fr/2e-vague-d-enregistrement-REACH.html

Le RAC adopte quatre avis scientifiques sur la classification et l’étiquetage harmonisés

(13/03/2012)

Le Comité d’évaluation des risques (RAC) a adopté quatre avis sur des propositions pour l’harmonisation de la classification et l’étiquetage de produits chimiques industriels et de substances actives de pesticides. Les substances concernées sont :

  • Proquinazid (fongicide)
  • Amidosulfuron (herbicide)
  • Tebufenpyrad
  • 1,1′,1 »-nitrilotripropan-2-ol (TIPA)

Plus d’information sur : 

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/c14568bf-8451-4681-b178-1495fda69e68

La boîte à outils QSAR version 2.3 maintenant disponible 

(13/03/2012)

La version 2.3 de la boîte à outils QSAR est maintenant disponible. Cette version contient des fonctionnalités améliorées pour le profilage et de nouvelles données sur le métabolisme et l’hydrolyse. Il prend en charge la mise à jour de IUCLID 5.3 pour l’importation et l’exportation de données. Plus d’information sur : 

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/dd3f490e-270c-4def-98a6-d87761bf6c5e

7ème Journée des parties prenantes – les inscriptions sont ouvertes

(14/03/2012)

L’ECHA a mis en ligne le formulaire d’inscription pour la conférence de la 7ème journée des parties prenantes qui aura lieu le 23 mai 2012 à Helsinki. La conférence offrira aux participants la chance d’entendre les dernières nouvelles et mises à jour de l’ECHA, les associations professionnelles européennes et les ONG. L’événement sera suivi par le Forum annuel des produits chimiques à Helsinki les 24 et 25 mai.

Page web de cette journée : 

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/40bb6ef5-03b0-496f-8c4c-a8f8d04ab68c

Pour s’enregistrer : https://www.webropolsurveys.com/Answer/SurveyParticipation.aspx?SDID=Fin416304&SID=b37a97a4-d1a7-4e0c-96af-1b30e42e6b2a&dy=782577646

Forum des produits chimiques : http://www.helsinkicf.eu/

Vidéo et présentations de la journée du 01/03/2012 disponibles

(14/03/2012)

Le 1er mars 2012, s’est tenu à Bruxelles, une journée sur la mise en œuvre des règlements REACH et CLP. Les présentations et les vidéos de cette journée sont téléchargeables sur le site : http://ec.europa.eu/enterprise/sectors/chemicals/reach/events/index_en.htm#h2-1

Révisions de deux guides

Deux guides sont actuellement en cours de révision : le guide pour les monomères et les polymères et le guide sur les exigences en matière d’information et l’évaluation de la sécurité chimique (R.7a). 

Par ailleurs, afin d’améliorer l’élaboration des guides, l’ECHA a mis en place un formulaire : https://comments.echa.europa.eu/comments_cms/FeedbackGuidance.aspx.

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Radio : ouvrez grand vos oreilles !

Cette histoire commence le soir de Noël 1921 sur les ondes de Radio Tour Eiffel. Les rares auditeurs détectent les signaux à l’aide de leurs postes à galène.

Depuis, la radio n’a cessé d’évoluer tant sur le plan technique que sur le plan des programmes proposés aux auditeurs. L’actualité se situe aujourd’hui autour de son passage au numérique.

Dès les années 1930, la radio offre des performances quotidiennes à ses auditeurs. Durant la Seconde Guerre mondiale, elle se transforme brutalement en arme de combat. Après-guerre elle devient un espace de création, de transgression et de démocratisation.

Aujourd’hui, média de masse, la radio est à la fois un outil d’information, de diffusion culturelle et de débat public.Au-delà de toutes ces évolutions, qu’est-ce qui fait la force et le charme de la radio ? Sans doute son immédiateté, sa créativité et sa très grande réactivité au monde, mais aussi la place qu’y occupe la parole.

En réunissant collections patrimoniales et archives sonores, l’exposition Radio : ouvrez grand vos oreilles ! propose de découvrir de part et d’autre du poste récepteur, ceux qui des années vingt à nos jours ont fait ou font la radio mais aussi ceux qui l’écoutent.

Lieux : Musée des arts et métiers – 60 rue Réaumur – Paris 3e

 

Par Céline.C

SFR et HP poursuivent leur association autour du cloud computing

Jeudi 15 mars, SFR et Hewlett-Packard ont annoncé un accord à la fois technologique et commercial visant à accélérer la vente de services de cloud computing auprès des Très Petites, Petites et Moyennes Entreprises françaises. Accord permettant aux deux partenaires de fournir les toutes dernières solutions de cloud à une clientèle toujours plus exigeante – ce qu’ils nomment le « cloud maîtrisé », un engagement de qualité de services fiables et sécurisés.

Concrètement, dès le 11 avril, une série d’offres impliquant les réseaux de vente indirecte de SFR et HP sera proposée. La « Suite infrastructure cloud » s’appuiera sur des plateformes HP CloudSystem hébergées dans les data-centers de SFR. Cela représente un réseau de 4 500 partenaires distributeurs-intégrateurs pour HP et 150 distributeurs pour SFR. À terme, plusieurs milliers de commerciaux seront sur le terrain et accompagneront les entreprises, optimisant de ce fait la couverture commerciale des deux groupes.

Cette offre se déclinera en trois formules, appelées respectivement « Start », « Internet » et « Critique ». La première formule aura un intérêt pour des usages non critiques, à savoir : site Web, plateformes de développement, tests de secours. La formule « Internet » sera pour des usages sensibles : site Web important, applications en ligne. Enfin, la troisième se révélera utile pour des usages critiques : site Web critique, applications métiers, applications business.

Le stockage et la sécurité seront les prochaines étapes de ces alliés. Une manière de conserver les informations chères aux entreprises sur le territoire français.

Pour l’année 2012, les deux entreprises espèrent réaliser conjointement un chiffre d’affaires de 50 millions d’euros. Elles estiment aussi pouvoir atteindre 200 millions d’euros de revenus en 2015.

Par Sébastien Tribot

 

À lire aussi :

Dassault Systèmes et SFR, associés sur le Cloud

Cloud Computing : il ne faut plus considérer la sécurité comme une problématique à part

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

Google se lance dans la fibre optique

L’idée n’est pas neuve. Déjà en 2010, le géant de Mountain View cherchait le moyen d’installer un réseau Internet très haut débit d’1 Gbit/s. Une vitesse largement supérieure à ce que proposent les réseaux fibres actuellement (100 fois plus rapide). Le 6 février dernier, Google annonçait via son blog « Google Fiber » être prêt à mettre de la fibre optique à Kansas City. La firme géante a imaginé un système de déploiement de la fibre en « fourreau », capable d’aboutir jusqu’à chaque logement des abonnés (technique que l’on appelle en anglais Fiber To The Home ou FTT).

Une demande de dépôt de brevet, relatif à cet équipement, a depuis été déposée. Alors qu’est-ce que « le fourreau »? C’est en fait une bande plate de 50 à 70 millimètres de large et de 1 à 5 millimètres d’épaisseur, abritant la fibre optique. Le fourreau pourra être enterré, semi-enterré voire en extérieur. La manière de creuser les tranchées, brevetée elle aussi, semble tenir un rôle essentiel. Puisqu’il s’agit de tirer la fibre sur des milliers de kilomètres, rien d’illogique dans tout ceci.

Le réseau sera normalement mis en service courant 2012, bien que les infrastructures ne soient pas finalisées. Sont en cause dans ce retard, des désaccords avec le Kansas City Board of Public Utilities (BPU), l’organisme chargé de gérer les tranchées, la tuyauterie et le câblage. Les coûts nécessaires au déploiement ont également posé problème.

L’idée même de déploiement de fibre optique, constitue un défi technique. Or, parmi les challenges que présente son installation, on compte la rapidité d’exécution et la préservation de la ville. Entre autres, ne pas détériorer Kansas City, notamment d’un point de vue propreté. Et pour ne pas nuire au train de vie des habitants, l’installation se doit d’être la plus brève possible. En attendant, la construction se poursuit et Google promet d’en dire davantage dans le futur.

Par ailleurs, Google n’exclut pas le marché européen. Le vice président de Google, David Drummond, avait confié à Éric Besson, lors du colloque Nouveau Monde 2.0, envisager sérieusement la possibilité d’expérimenter la fibre optique sur le vieux continent.

Par Sébastien Tribot

 

À lire aussi :

Développement révolutionnaire d’un nouveau type de fibre optique

Fibre optique : le grand malentendu

La fibre optique au service de la Coupe du monde de ski alpin

 

Inscrivez-vous dès à présent à la Formation Fibres optiques.

Le management de l’innovation : de la stratégie aux projets

L’ouvrage collectif, coordonné par des enseignants-chercheurs et consultants spécialistes du management de projet, porte sur un levier essentiel du développement économique et de la création d’emplois.

Il est organisé en quatre parties équilibrées portant respectivement sur les formes et les enjeux de l’innovation, sur les déterminants des projets d’innovation, sur l’organisation de ces projets et sur leurs systèmes de pilotage.

Les développements consacrés à l’organisation du management multi-projets, aux études de faisabilité des projets, à leurs montages juridiques et financiers, ainsi qu’aux systèmes de contrôle et de reporting  des différents types de projets, intéresseront plus particulièrement les lecteurs de la revue Echanges.

La réflexion est solidement étayée par des références théoriques sur l’économie de l’innovation et sur la gestion de projet ; elle est illustrée par de nombreux exemples et études de cas issus de l’observation de terrains variés.

L’ouvrage est rédigé dans un style à la fois rigoureux et accessible, qui en rend la lecture enrichissante et agréable.

Le management de l’innovation : de la stratégie aux projets

S. Fernez-Walch et F. Romon (dir)

Ed. Vuibert, 2006

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Également :

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Améliorer la recyclabilité du produit automobile : quel intérêt stratégique ? (3/3)

L’industrie automobile n’en est pas en reste. Souvent décriée, elle est aujourd’hui très consommatrice de ces nouvelles tendances environnementales. Les innovations et les stratégies commerciales poussées par les constructeurs automobiles vont toutes en ce sens : réduction de la consommation des véhicules, utilisation d’énergies alternatives, hybridation de la chaine de traction, utilisation de biomatériaux …

Suite de la deuxième partie

 

La pertinence commerciale d’une telle démarche dans l’industrie automobile

L’exemple précédent montre la faisabilité technique à iso-coût et iso-prestation d’une démarche « cradle to cradle » sur un composant automobile. On comprend d’autre part assez rapidement l’intérêt environnemental de l’application de cette approche. Par contre, d’un point de vue économique, nous pouvons nous poser la question de l’intérêt marketing de ce type de produit : Est-ce que les automobilistes sont prêts à payer plus cher pour avoir un véhicule plus recyclable? Est-ce que leurs consciences environnementales seront assez fortes pour privilégier l’achat d’un véhicule plus recyclable ? Est-ce la réglementation imposera un nouveau standard de recyclabilité ? Voici les questions auxquelles il est nécessaire de répondre pour s’assurer de la viabilité économique du concept.

Ce sont les réponses que recherchaient Faurecia lorsque l’entreprise a essayé de comprendre ce que pouvait apporter ce type de démarche dans leur processus de conception. En tant qu’équipementier automobile, l’entreprise est positionnée sur un marché « BtoB ». Même si l’entreprise est volontaire dans l’amélioration environnementale de ses produits, elle doit pourtant les vendre à leur juste valeur aux constructeurs automobiles. C’est-à-dire que, comme pour toutes nouvelles innovations, la société doit démontrer à ses clients quel est l’intérêt pour eux de disposer du nouveau produit développé.

Un critère d’achat du consommateur final ?

Est-ce que le consommateur se préoccupe du niveau de recyclabilité du véhicule qu’il achète ? Malheureusement, pour cette approche, le produit automobile, du fait de son prix et de son caractère révélateur de statut social, obéit à bien d’autres préoccupations du consommateur final.

Classement des critères d’achat d’un véhicule (Source : Financial time-2009)

 

En effet, l’aspect économique prend une place prépondérante dans les critères d’achat d’une voiture. Le consommateur cherche avant tout un véhicule fiable, proposant un bon rapport qualité prix, et économe en carburant avant de se préoccuper de son niveau d’impact sur l’environnement. En Europe, l’attention sur les émissions de CO2 est principalement le résultat des bonus-malus financiers qui ont été instaurés. Le consommateur final est donc loin de choisir un véhicule parce qu’il se recycle mieux. Non, l’intérêt que le constructeur automobile pourrait voir dans des composants à recyclabilité améliorée doit être ailleurs.

Réponse à la règlementation VHU de l’Union Européenne ? 

Une directive européenne est apparue dans les années 2000 pour standardiser le traitement des véhicules hors d’usage (VHU) dans l’ensemble des pays membres. Elle vise, d’une part, à la structuration des opérateurs de traitement, mais aussi à la définition des taux de valorisation minimum des VHU : 

  • En 2006 – 85% de la masse du VHU doit être valorisée, dont 80% réutilisée ou recyclée.
  • En 2015 – 95% de la masse du VHU doit être valorisée, dont 85% réutilisée ou recyclée.

Cette directive renforce notamment le principe de responsabilité élargie du producteur (REP) en rendant responsable les constructeurs automobiles de l’atteinte de ces taux. Ce qui veut dire dans les faits que si les taux de valorisation ne sont pas respectés, les constructeurs sont chargés financièrement de permettre l’atteinte de ces taux. En effet, des opérateurs indépendants se chargent aujourd’hui du traitement des VHU. Leur niveau de performance est limité par la rentabilité des processus à réaliser. Si, par contre, le niveau de valorisation à atteindre induit de réaliser des opérations non rentables alors le constructeur automobile, qui a été responsabilisé par la REP, se devra de rééquilibrer financièrement les comptes d’exploitation des opérateurs. Donc, dans le cadre de la réglementation VHU, le constructeur automobile a intérêt à monter des composants facilement recyclables si les taux sont difficilement atteignables et/ou si le bilan économique des opérateurs de traitement ne s’équilibre pas.

  • Les niveaux de recyclage atteints en 2009

Taux de recyclage et de valorisation atteints par les états membres de l’EU (2007-2009) (Source EuroStat)

 

Les taux imposés en 2006 ont donc, en moyenne, été atteints dans l’ensemble des états membres. Malgré tout, certains pays n’en sont pas encore là et une marche importante est à gravir pour atteindre ceux de 2015.

  • Les comptes d’exploitation des opérateurs de traitement

Les constructeurs automobiles sont chargés de rééquilibrer financièrement la filière de traitement si les objectifs de valorisation la rendent déficitaire. Il est donc intéressant d’évaluer l’équilibre actuel pour mieux cerner les enjeux de l’atteinte des objectifs de 2015.

Compte d’exploitation d’une activité de démontage (ADEME/Etude EU)

 

Compte d’exploitation d’une activité de broyage et de tri post broyage (ADEME/Etude EU)

 

Aujourd’hui, on peut observer que le compte d’exploitation des opérateurs de traitement atteint à peu près son équilibre. Celui-ci devrait, d’autre part, se renforcer dans les années à venir avec la standardisation dans les centres de traitement de véhicules équipés de pots catalytiques, dont le prix de revente est très élevé (présence de métaux précieux). La question qu’il faut maintenant se poser est : est-ce que les objectifs de 2015 peuvent être remplis sans porter atteinte à cet équilibre ?

Les pistes pour atteindre les objectifs de 2015 :

Le processus traitement des VHU se décompose comme suit (voir figure ci-dessous) :

Pour les taux de 2015, l’effort doit maintenant être porté sur les matériaux contenus dans les résidus de broyage (plastique, verre, élastomère, fibres…). Deux pistes sont en compétition pour atteindre les objectifs de valorisation : une intensification du démontage pour récupérer en amont la matière valorisable et un tri approfondi des résidus de broyage pour séparer les matières les unes des autres.

Le scénario « intensification du démontage » est consommateur de ressources. Le processus de démontage est réalisé par une succession d’opérations manuelles. 

Chaque véhicule étant de composition unique, il est difficile d’imaginer un processus de démontage totalement automatique. Chaque pièce doit être démontée et triée par un opérateur manuellement. La viabilité d’un tel scénario est donc dépendante de plusieurs facteurs : le temps de démontage nécessaire et la valeur de la matière sur le marché.

La figure dessous montre le résultat d’une étude sur le démontage des pièces en plastique dans une voiture (Etude PlasticsEurope – 2004). Nous comprenons que le coût de démontage augmente exponentiellement lorsqu’on cherche à augmenter le volume de plastique récupéré. En effet, plus l’on cherche à récupérer de plastique lors du démontage, plus le temps de main d’œuvre augmente pour une quantité de plastique récupéré de plus en plus petite. 

La comparaison avec la valeur de reprise du plastique généralement rencontrée sur le marché permet de mettre en évidence que seulement 15 à 20kg de plastique peuvent aujourd’hui être démontés dans des conditions économiques viables (équivalent aux pare-chocs). Donc, tout démontage supplémentaire se fera à perte pour l’entreprise de démontage. Cependant, plusieurs paramètres peuvent faire évoluer ce point de rentabilité : l’amélioration du temps de démontage (un développement d’outils, une conception des véhicules qui prend en compte leur facilité de démontage en fin de vie, …) et l’augmentation de la valeur de reprise de la matière.

Le scénario « tri des résidus de broyage » demande quant à lui un investissement important. Les technologies de tri imposent l’utilisation d’équipements lourds et onéreux qui ne peuvent être rentabilisés qu’avec des volumes à traiter importants. 

La limite de viabilité de ce scénario est que le coût global de tri post broyage doit être inférieur au coût actuel d’enlèvement des résidus (= coût de mise en décharge – 50€ la tonne en moyenne en Europe). Le tableau ci-dessous montre que certaines technologies présentent aujourd’hui des coûts s’en approchant fortement.Ce deuxième scénario semble donc permettre d’atteindre les objectifs de 2015 sans mettre en péril le bilan économique des opérateurs de traitement. Les constructeurs automobiles ne sont donc globalement pas inquiétés financièrement par cette règlementation. La qualité des matériaux récupérés ne sera que médiocre et la matière sera la plupart du temps dégradée, mais l’objectif de remplir les contraintes érigées par la règlementation va être atteint sans difficulté. Comme ces process ne nécessitent pas d’attention particulière sur la conception des composants automobiles, il est impossible de justifier une démarche Cradle to Cradle par le biais de la règlementation.

Réponse à la raréfaction et au renchérissement des matières premières ?

L’industrie automobile est une consommatrice importante de ressource. Pour sa production, elle consomme plus de 130 Mt d’acier, ce qui correspond à 11% de l’acier produit dans le monde (1220 Mt). C’est le 3ème secteur le plus consommateur après celui de la construction (525 Mt) et celui des équipements de production (250 Mt).

Elle consomme, d’autre part, 10 Mt/an d’aluminium (28% de la production primaire mondiale – 36Mt et 16% de la production totale (primaire + secondaire) – 60 Mt). C’est le secteur le plus consommateur devant les secteurs du bâtiment (24% – 9Mt) et de l’emballage (13% – 4,6 Mt).

Enfin, l’automobile consomme 10Mt de plastique par an (tous types confondus) ce qui représente 4% de la production mondiale (250 Mt en 2008). En Europe, la consommation de plastique dans l’automobile dépasse les 7% (demande globale : 48.5 Mt), derrière les secteurs de l’emballage (38%) et de la construction (21%). En ce qui concerne la consommation de polypropylène, plastique le plus utilisé dans le véhicule (52%), elle représente 11% de la production mondiale (45 Mt – 2007), le secteur de l’emballage représentant la part la plus importante de la consommation de polypropylène aujourd’hui dans le monde.

Le niveau de disponibilité des matières revêt donc d’un aspect réellement stratégique pour l’économie de la filière automobile. La majorité des coûts variables de production des véhicules dépend du prix des matières premières.

En outre, le renchérissement de ces matières parait fortement probable dans les années à venir. L’extraction et la production des métaux sont très dépendantes du coût de l’énergie. Le plastique est lui, de plus, directement issu des ressources d’hydrocarbures (pétrole et gaz naturel). La majorité des experts de ces secteurs s’accordent à dire que le coût de l’énergie et des ressources fossiles devrait rester à un niveau élevé sur une tendance à l’augmentation dans les années futures. Ceci laisse présager que la matière première pourrait devenir un point d’attention particulièrement stratégique dans les prochaines décennies.

Pour autant, le signal de stress sur les matières premières reste encore aujourd’hui très peu audible. Certains faits ont déjà pu démontrer que le risque de rupture d’approvisionnement est présent lorsque les industriels sous-estiment l’importance d’une bonne gestion de la matière (exemple de la fermeture de 3 usines Nissan pendant 5 cinq jours en 2004). Cependant, leur occurrence fait encore figure d’accident. Donc, si ces enjeux sont partagés sur le long terme, rien n’est actuellement mis en place pour s’en prémunir.

Malgré tout, une approche Cradle to Cradle pourrait permettre de stimuler l’ingéniosité des ingénieurs lorsque le sujet de la disponibilité matière deviendra prépondérant. En effet, elle prône la capacité à récupérer le maximum de matière sur les objets en fin de vie afin que celle-ci puisse être utilisée à iso-spécification. Un projet interne Faurecia a démontré, de plus, que le concept Cradle to Cradle se déclinait parfaitement en des produits concrets sans augmentation flagrante des coûts de réalisation. L’entreprise doit maintenant détecter le moment où le stress de la matière deviendra assez audible et où l’industrie initiera sa réorganisation pour répondre à ce renchérissement des matières premières.

Conclusion

Bien qu’il est l’amélioration de la recyclabilité est faisable techniquement. L’effort des constructeurs automobiles est, pour le moment, seulement justifiée par l’existence d’une règlementation européenne. Il est difficile d’imaginer justifier des solutions techniques qui permettraient d’aller au-delà de ce qui est demandé dans les conditions technico-économiques du moment. Par contre, l’approche proposée par McDonough et Braungart permettra sans équivoque d’être une source d’inspiration pour le développement des produits de demain.

Cet exemple de traduction d’un concept idéologique en une application économique concrète montre d’autre part que la justification stratégique de ce type de démarche n’est pas chose aisée à trouver. Il est nécessaire de prend en compte la réalité du marché et de son environnement pour s’assurer de la bonne pertinence du projet sur le plan commercial et économique.

 

Par 

Quentin Weymuller

Chef de projet Innovation, FAURECIA

Philippe Aumont

Responsable plan produit et innovation, FAURECIA

et

Jasha Oosterbaan

Enseignant-chercheur, MINES ParisTech

Responsable des Mastères Spécialisés QSE-DD et Santé-Environnement, ISIGE – MINES ParisTech

 

Article réalisé dans le cadre du Mastère Spécialisé Ingénierie et Gestion de l’Environnement de l’ISIGE – MINES ParisTech

 

également : 

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Un plastique à base de CO2

L’objectif est aujourd’hui la construction de la première usine pilote au monde à Herøya, au Sud-ouest d’Oslo, qui aurait un coût estimé à 53 millions de couronnes norvégiennes (environ 7,1 millions d’euros). Innovasjon Norge (instrument du gouvernement norvégien pour l’innovation) et SkatteFUNN (outil du Conseil Norvégien de la Recherche) ont d’ores et déjà apporté 15 millions de couronnes norvégiennes (environ 2 millions d’euros). « Il nous faut maintenant trouver un partenaire financier, de préférence norvégien, pour concrétiser l’industrialisation du processus.

Une lettre d’intention a été signée par une grande société pétrochimique internationale, nous espérons que cet accord sera officialisé avant Pâques. », déclare Tine Rorvik, Directrice Générale de Norner. « Le centre de production pilote aura pour objectif de développer des processus, pas des produits. Notre seule source lucrative sera la vente de brevets à des sociétés souhaitant produire du plastique avec du CO2 comme première. », ajoute-t-elle. Il est prévu que l’usine soit opérationnelle avant 2014, suivant l’avancée des négociations avec les investisseurs.

Il aura fallu quatre ans de recherche au laboratoire pour arriver à des résultats. « Il y a un vrai enjeu à trouver de nouvelles chaines de valeur dans l’industrie du plastique. Le CO2 en tant que « déchet industriel », comme le méthane produit par les déchets alimentaires, ou encore le bois, représentent aujourd’hui des pistes potentielles extrêmement intéressantes. », dit Morten Lundquist, Directeur de la recherche sur les polymères à Norner. « Les tests que nous avons effectué jusqu’à présent montrent que le plastique mis au point est particulièrement imperméable à l’oxygène.

Il pourrait donc être adapté pour le conditionnement de produits alimentaires ou encore pour des peintures ou autres substances protégeant de la corrosion. Le produit final, à la pointe de la technologie propre, représente un potentiel commercial énorme, en plus d’être une solution d’importance aux problématiques environnementales. », ajoute-t-il.

Source : Bulletins Electroniques

Une DEL particulièrement efficace

Une équipe de physiciens du très prestigieux Institut de Technologie du Massachusetts (MIT) a réussi une prouesse sans précédent dans le domaine des diodes électroluminescentes, en parvenant à développer une DEL dont l’efficacité de conversion électrique-optique serait très au-dessus des 100 %.

Une question pourrait alors venir naturellement à l’esprit : « N’est-ce pas là contrevenir au premier principe de la thermodynamique ? », stipulant que lors de toute transformation quelconque d’un système fermé, « la variation de son énergie est égale à la quantité d’énergie échangée avec le milieu extérieur, sous forme de chaleur et sous forme de travail ». Bien heureusement, la réponse est ici négative.

La DEL, mise au point, produit 69 picowatts d’énergie lumineuse, mais n’utilise que 30 picowatts d’énergie électrique (un picowatt équivaut à 10 puissance moins 12 watts, soit un millionième de millionième de watts), ce qui lui assure une très grande efficacité de conversion, de près de 230 %. On est ici très au-dessus de la conversion parfaite de l’énergie, correspondant à un rendement de 100 %, catégorie normalement occupée par les machines à pseudo-mouvement perpétuel.

Malgré tout, alors que la diode conçue par l’équipe de chercheurs du MIT émet plus de deux fois plus de photons qu’elle n’est alimentée en électrons, elle ne viole pas la loi de conservation de l’énergie. En effet, la diode attire à elle et utilise à la place de l’énergie sous forme de chaleur, récupérée dans son environnement immédiat. Lorsqu’elle atteint un pourcentage supérieur à 100 % d’efficacité électrique, la diode commence à se refroidir peu à peu, volant de l’énergie qu’elle convertit en autant de photons.

Concrètement, les chercheurs ont choisi une DEL dont le « gap » était particulièrement petit, pour lui appliquer des voltages de plus en plus petits. Dans la théorie des bandes, le « gap » est l’énergie qui sépare la bande de valence de la bande de conduction. Lorsque le gap entre ces deux bandes est suffisamment faible, les électrons ont une probabilité non négligeable de le franchir par simple excitation thermique lorsque la température augmente, ce qui est notamment le cas pour les semi-conducteurs. Chaque fois que le voltage appliqué à la diode est réduit de moitié, la puissance électrique était divisée par quatre, alors que l’énergie lumineuse ne diminuait que de moitié. L’énergie supplémentaire provenait à la place des vibrations du treillage.

Bien que la quantité de lumière produite soit très petite, compromettant tout type d’utilisation en tant que source lumineuse directe, la diode des chercheurs du MIT pourrait bien avoir d’autres applications en thermodynamique, grâce à son contrôle électrique, donc rapide. Les scientifiques ont publié en détail leur découverte dans la prestigieuse revue hebdomadaire américaine Physical Review Letters, revue gérée par la non moins prestigieuse American Physical Society.

Par Moonzur Rahman

 

À lire aussi :

Améliorer la luminosité des LED

Un composé thermo-conducteur remplace l’aluminium dans des DEL

Résultats probants pour les communications optiques en espace libre

« La lutte contre la corrosion commence à la planche à dessin »

Techniques de l’Ingénieur : Gérard Pinard Legry, quelles sont les causes et caractéristiques de la corrosion ?

C’est une interaction physico-chimique entre un métal et un environnement, modifiant le métal, l’environnement, ou les deux. On oublie trop souvent que la corrosion, c’est d’abord « une affaire de couple ». Difficile de dire comment un métal va se corroder si on ne connait pas son environnement. Dans 95% des cas, la corrosion a lieu en milieu aqueux, et résulte de deux réactions simultanées : l’oxydation du métal, et la réduction d’une espèce du milieu. Ainsi de l’oxygène dissous dans l’eau, qui se réduit quand y rouille de l’acier. En milieu neutre aéré, l’oxygène est le principal responsable de la corrosion.

La corrosion peut prendre des formes variées, uniforme et généralisée, ou localisée, selon le matériau, sa composition, sa pureté, etc, mais aussi la chimie du milieu (présence de chlorures), la température, les contraintes mécaniques, etc. Les bactéries peuvent aussi être à l’origine de la corrosion.

Quelles en sont les conséquences ?

La détérioration du métal bien sûr, qui peut avoir des conséquences aussi dramatiques que la rupture des câbles d’un pont suspendu. mais aussi des percements de canalisations, des pollutions du milieu, des pertes de rendement, etc…

Comment la stoppe-t-on ?

On peut supprimer ou réduire l’une des deux réactions citées plus haut. Le moyen simple, dans un circuit d’eau, est de supprimer l’oxygène. On peut aussi utiliser des inhibiteurs de corrosion pour réduire ces réactions.

Autre méthode : séparer le milieu et le métal par une peinture ou un revêtement organique ou métallique convenablement choisi. Enfin, la protection cathodique qui consiste à diminuer le potentiel de corrosion du métal en faisant circuler un courant électrique, par exemple par effet galvanique avec des anodes en zinc fixées sur une carène en acier.

L’essentiel est de bien connaître les propriétés du matériau, celles du milieu, et les conditions dans lesquelles fonctionnera l’installation. « La lutte contre la corrosion commence à la planche à dessin » disait un spécialiste. Cela vaut dans toutes les industries. A priori, aujourd’hui on dispose de très nombreuses connaissances pour se prémunir. C’est souvent les conditions qui sont sous-estimées ou mal connues : pollution accidentelle, vitesse du liquide, contraintes mécaniques, etc.

Face à ces questions, quelles réponses apporte le cycle de formation proposé par Techniques de l’Ingénieur ?

Beaucoup de problèmes peuvent être évités si les conditions sont bien anticipées. Cette formation permet de voir ou revoir les grands principes, les différentes formes de protection, les réglementations en vigueur. Elle s’adresse ainsi aux bureaux d’études et aux ingénieurs des PMI/PME qui souvent ne peuvent pas être spécialistes en la matière, mais aussi aux corrosionnistes des grands groupes industriels pour l’actualisation de leurs connaissances.

C’est un domaine où le retour d’expérience est important, les matériaux, les milieux et les conditions à l’interface étant extrêmement variées. On peut ajouter que les limitations pour l’utilisation de certains composés chimiques de l’anticorrosion (peintures, inhibiteurs, métaux lourds…) évoluent et doivent être connues.

 

Propos recueillis par Bruno Decottignies

 

Inscrivez-vous dès à présent à Formation anticorrosion : comment lutter contre la corrosion. Prochaines sessions à Paris les 2,3 et 4 avril 2012 et les 5, 6 et 7 décembre 2012. Prochaine session à Lyon les 8,9 et 10 octobre 2012.

Apple dévoile son Nouvel iPad

Lors de la conférence organisée à San Francisco, diffusée par visioconférence à Londres, Tim Cook a lancé le nouvel iPad dans la course aux tablettes. Par ailleurs, le show s’est déroulé autour de l’Apple TV, d’iOS 5.1 et des diverses mises à jour de logiciels. Une keynote qui n’a pas fait l’unanimité, certains regrettant les keynotes ultra-calibrées du maître Steve Jobs et son sens du spectacle.

Parmi les évolutions majeures du produit phare, citons l’écran Retina Display. D’une définition bien supérieure à l’iPad 2, il offre une résolution de 2048 x 1536 pixels. L’écran de 9,7 pouces propose un niveau de pixélisation supérieur aux télévisions HD. Des performances à la hausse gérées par la nouvelle puce A5X équipée d’un processeur graphique quadricoeur.

L’iPad se dote d’un appareil photo iSight 5 millions de pixels et adopte la fonction stabilisation, intéressante pour le mode vidéo. L’appareil pèse désormais 636 grammes et s’épaissit de 6 millimètres. En revanche, son autonomie reste identique à celle de l’iPad 2 et tourne autour des 10 heures.

Autre innovation qui fait parler d’elle, la connectivité 4G. La 4G permet de surfer beaucoup plus vite mais elle ne fonctionnera pas en France, le problème venant de l’incompatibilité de l’iPad avec les fréquences retenues en France (800 et 2 600 MHz). À voir pour 2013 ou 2014.

Niveau tarif, le modèle 16 Go connecté par WiFi reste à 489 euros. Par contre, pour un stockage plus important ou la fonction 3G, il faudra débourser jusqu’à 799 euros. L’iPad 2, quant à lui, voit son prix diminué à 409 euros.

Concernant les mises à jour, Tim Cook s’est chargé de présenter les nouvelles versions de la suite iWorks, de Garage Band, Safari, Mail et iMovie. iPhoto fait son apparition et rejoint les applications proposées sur l’App Store. Le PDG en a profité pour rappeler que 200 000 applications ont été développées pour la tablette. Toujours plus nombreuses, elles fidélisent les utilisateurs.

L’Apple TV, annoncée par Eddie Cue (vice-président chargé des logiciels et services Web d’Apple), est une nouvelle interface synchronisée via iCloud qui permet d’accéder à ses photos et vidéos, jusqu’à cinq Go de stockage. Photo Stream, désormais présent, permettra de voir directement sur la télévision les photos prises avec l’iPhone.

On regrette les présentations de Steve Jobs, gourou capable d’apporter de la magie autour de ses produits. Tim Cook a pris la relève et c’est une déception pour beaucoup. Néanmoins, Apple demeure leader incontesté sur le marché. Les chiffres l’attestent, 40 millions de tablettes vendues et 62 % de parts de marché. Pour preuve, le nombre de précommandes trop élevé de ce nouvel iPad, qui a reporté pour quelques modèles, l’expédition prévue le 16 mars au 19 mars.

Par Sébastien Tribot

 

À lire aussi :

L’Amazon Kindle Fire : un succès inattendu

Quand l’Ipad débarque en entreprise : comment s’y préparer ?

Bientôt plus d’appareils mobiles que d’habitants sur Terre

Plus d’un appareil mobile à usage personnel pour un être humain à l’horizon 2016 : c’est le pronostic établi par le géant américain de l’informatique Cisco Systems, qui a rendu public il y a quelques semaines une étude estimant que le nombre de smartphones, tablettes et autres appareils mobiles connectés à Internet devrait atteindre les 8 milliards d’unités d’ici-là. En parallèle, l’Organisation des Nations Unies (ONU) évalue à 7,3 milliards le nombre d’êtres humains peuplant la planète en 2016.

L’étude, commanditée par Cisco, révèle qu’entre 2011 et 2016, l’usage des appareils mobiles devrait augmenter de près de 78 % par an, créant la bagatelle de 10,8 exaoctets (1 exaoctet = 10 puissance 18 octets, soit un milliard de gigaoctets) de données en moyenne chaque mois. Ce nombre, bien que gigantesque, semble plausible si l’on se réfère aux chiffres publiés par EMC Corporation, entreprise américaine de logiciels et de systèmes de stockage, estimant que 988 exabits de données ont été générés au cours de l’année 2010.

« En moyenne, la vitesse de connexion mobile sera multipliée par 9 entre 2011 et 2016 », avance  Cisco Systems dans son rapport. Cisco va même plus loin : les Américains estiment à près de 2 milliards le futur nombre de connexions de machines entre elles via Internet, baptisées M2M (« Machine-to-machine »). Les connexions M2M devraient connaître une croissance record, pour des domaines d’application aussi variés que le monde médical, les compteurs électriques ou encore les terminaux de paiement.

Cisco n’évoque, par contre, nulle part, la répartition mondiale des appareils mobiles à l’horizon 2016, probablement toujours très inégalitaire.

Par Moonzur Rahman

 

À lire aussi :

2011, horizon prometteur pour le marché du MtoM

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

 

« CleanSpace One », futur éboueur de l’espace

La prolifération des débris orbitant autour de la Terre, au premier plan desquels les débris et composants de fusées ou de satellites, est un problème pour le moins endémique qui pourrait non seulement générer des coûts vertigineux, mais pourrait aussi provoquer l’arrêt pur et simple de la conquête spatiale. Pour combattre ce fléau, le Centre Spatial Suisse a décidé de lancer, en collaboration avec l’École Polytechnique Fédérale de Lausanne (EPFL), le projet « CleanSpace One », projet visant à développer l’installation d’une nouvelle famille de satellites « éboueurs » de l’espace, spécialement conçus pour nettoyer l’espace de ses débris.

Satellites abandonnés (près des deux tiers du parc actuel de 2 500 satellites), lanceurs de fusées égarés, débris de navettes spatiales ou encore fragments issus de la collision des trois premières catégories : l’orbite terrestre est une vraie poubelle flottante contenant des déchets circulant à très grande vitesse. D’après la NASA, le nombre de débris dépassant les dix centimètres de diamètre serait de l’ordre de 16 000 à 18 000, débris que l’agence américaine et le département américain de la défense essaient tant bien que mal de suivre à la trace, connaissant leur orbite. Lorsqu’une collision avec un satellite se produit, ce dernier est bien souvent détruit, générant de nouveaux débris par milliers.

On se souvient que l’équipage de la Station Spatiale Internationale (ISS) avait effectué au moins de janvier dernier une manœuvre d’évitement d’un débris menaçant la station (un des 600 débris provenant de la collision, en février 2009, entre les satellites Iridium-33 et Cosmos-2251), manœuvre effectuée pour la treizième fois en quinze ans – les trois pensionnaires de l’ISS avaient même dû évacuer temporairement la station à bord du vaisseau de secours Soyouz. « Il est devenu essentiel de prendre conscience de l’existence de ces débris, ainsi que des risques encourus par leur prolifération », souligne Claude Nicollier, astronaute et professeur à l’EPFL, pilier du projet « CleanSpace One ».

Ce futur « éboueur de l’espace » devra faire face à un certain nombre de challenges, nécessitant le développement de nouvelles technologies comme l’amélioration de technologies existantes. Le satellite nettoyeur devra tout d’abord ajuster sa trajectoire afin de se retrouver sur le même plan orbital que sa cible, à l’aide d’un nouveau moteur ultra-compact actuellement en développement dans les laboratoires de l’EPFL. Lorsque la cible se trouvera à sa portée, à la vitesse de plus de 28 000 km/h et à une altitude comprise entre 630 et 750 kilomètres, « CleanSpace One » attrapera et stabilisera celle-ci, opération particulièrement délicate à cette allure, notamment si le satellite est en rotation sur lui-même.

Pour ce faire, les scientifiques affiliés au projet devraient développer un mécanisme permettant d’attraper les déchets, mécanisme de « grip » inspiré à la fois du monde animal et végétal. Une fois l’accouplement entre les deux objets spatiaux réalisé, « ClearSpace One » devrait se charger de la désorbitation du débris indésirable en le poussant vers l’atmosphère terrestre, et donc vers sa désintégration (suivant sa taille). Bien que le premier modèle soit un modèle kamikaze destiné à être détruit dans l’espace en même temps que sa victime, « CleanSpace One » n’a pas pour vocation le développement de satellites à utilisation unique, chacun d’entre eux étant censé pouvoir désorbiter plusieurs débris indésirables du même type. Une spécialisation du satellite éboueur en fonction du type de débris est elle aussi à l’étude.

La mobilisation de la communauté scientifique est réelle, à l’instar de celle de l’équipe suisse, car la peur d’un effet boule de neige est désormais dans tous les esprits : le fameux syndrome Kessler, scénario catastrophe établi par l’ancien consultant de la NASA, Donald J. Kessler. L’astrophysicien américain est le premier a avoir émis l’hypothèse qu’un jour, le volume de débris spatiaux en orbite basse risquait d’être si élevé que leur nombre ne ferait qu’augmenter, de collisions en collisions, rendant l’utilisation des satellites ainsi que l’exploration spatiale totalement impossible pendant plusieurs générations.

« CleanSpace One » devrait coûter environ dix millions de francs suisses (près de 8,3 millions d’euros), pour un possible premier rendez-vous orbital dans les cinq années à venir, si les financements suivent. L’équipe suisse a d’ores et déjà choisi une première cible symbolique : l’un ou l’autre des deux satellites suisses actuellement en orbite, Swisscube ou TIsat.

Par Moonzur Rahman

Reach : déclaration des usages avant le 31 mai 2012

Entré en vigueur le 1er juin 2007, le règlement européen n°1907/2006 du 18 décembre 2006, sur l’enregistrement, l’évaluation, l’autorisation et les restrictions des substances chimiques, dit REACH, vise à enregistrer, évaluer et autoriser les substances chimiques présentes dans l’Union européenne. L’objectif est d’améliorer à long terme le bien-être de la population en termes de santé et d’environnement. Il oblige les industries chimiques à fournir les données de sûreté sanitaire et environnementale sur toutes les substances qu’elles produisent, utilisent ou mettent sur le marché, et permet à chaque pays membre d’entamer une procédure de restriction s’il estime qu’un produit est susceptible de provoquer un risque sanitaire à l’échelle communautaire.

Le règlement prévoit ainsi le recensement des substances chimiques, notamment classées cancérigènes, mutagènes, ou toxiques pour la reproduction, selon un calendrier progressif qui s’étend, en fonction des tonnages, jusqu’en 2018. Une première phase d’enregistrement s’est achevée le 30 novembre 2010, et a permis l’enregistrement de 3 400 substances chimiques. Cette phase concernait les substances chimiques les plus dangereuses ainsi que celles produites ou importées en Europe pour plus de 1000 tonnes. Elle est suivie d’une deuxième phase, dont l’échéance est prévue le 31 mai 2013, et vise les substances chimiques produites ou importées en Europe entre 100 et 1000 tonnes par an.

Dans ce cadre, les utilisateurs de peintures, colles, solvants, vernis, huiles essentielles, produits de nettoyage, textiles, meubles, équipements informatiques ou composés électroniques doivent déclarer leur usage à leurs fournisseurs avant le 31 mai 2012. Les utilisateurs revendant des produits chimiques doivent également demander à leurs clients professionnels les usages qu’ils en font afin de faire remonter ces informations à leurs fournisseurs en amont.

Pour aider les entreprises à remplir leurs obligations, le ministère rappelle la mise en place, depuis 2007, d’un service national d’assistance réglementaire gratuit permettant de poser ses questions en ligne ou par téléphone. Cette mission d’assistance réglementaire a été confiée à l’INERIS (Institut National de l’Environnement Industriel et des Risques) (www.ineris.fr).

Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement

 

À lire aussi :

L’essentiel de Reach (février) 2/2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L’essentiel de Reach (février) 2/2

 

Deux nouvelles demandes de classification et d’étiquetage harmonisés

(14/02/2012)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de deux nouvelles substances :

  • 2-ethylhexyl 10-ethyl-4,4-dimethyl-7-oxo-8-oxa-3,5-dithia-4-stannatetradecanoate/10-éthyl-4,4-diméthyl-7-oxo-8-oxa-3,5-dithia-4-stannatétradecanoate de 2-éthylhexyle (N° CAS:57583-35-4 et N° CE:260-829-0)
  • dimethyltin dichloride / dichlorure de diméthyletain (N° CAS : 753-73-1 et N° CE : 212-039-2)

Les commentaires sont à soumettre avant le 30 mars 2012.

http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

L’ECHA met en place des sessions d’échange avec les futurs demandeurs d’autorisation

L’ECHA a publié une nouvelle page web présentant la création de sessions d’échange avec les futurs demandeurs d’autorisation. Ces sessions personnalisées sont conçues pour offrir aux demandeurs la possibilité de poser des questions liées à leurs cas spécifiques et se dérouleront au plus tard six mois avant la soumission de leur demande.

Les entreprises souhaitant profiter de ces séances d’échange doivent le notifier à l’ECHA via un formulaire en ligne sécurisé. Plus d’informations sur :

http://echa.europa.eu/fr/applying-for-authorisation/pre-submission-information-sessions

8 nouvelles substances soumises à autorisation

(15/02/2012)

La Commission européenne, via un règlement publié le 15 février, a ajouté huit nouvelles entrées à l’annexe XIV du règlement REACH qui liste les substances soumises à autorisation. Les 8 substances ajoutées au 6 déjà inscrites sont : le phtalate de diisobutyle (DIBP), le trioxyde de diarsenic, le pentaoxyde de diarsenic, le chromate de plomb, le jaune de sulfochromate de plomb, le rouge de chromate, de molybdate et de sulfate de plomb, le phosphate de tris(2-chloroéthyle) (TCEP) et le 2,4-dinitrotoluène (2,4-DNT).

Les substances inscrites à l’Annexe XIV ne pourront plus être mises sur le marché ou utilisées sans qu’une autorisation ait été octroyée pour cet usage spécifique, au-delà de la date d’expiration indiquée dans l’Annexe XIV pour chaque substance. L’objectif est de s’assurer que les risques résultant de substances extrêmement préoccupantes sont valablement maîtrisés et que ces substances seront progressivement remplacées par des alternatives économiquement et techniquement viables.

Règlement du 14/02/2012 :

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:041:0001:0004:FR:PDF

Page internet du site de l’ECHA sur l’autorisation :

http://echa.europa.eu/web/guest/addressing-chemicals-of-concern/authorisation

Les nanoparticules devront être déclarées à compter de 2013

(17/02/2012)

La loi Grenelle 2 avait prévu le principe de la déclaration des nanoparticules. Deux décrets du 17 février, parus le 19 février au Journal officiel, viennent mettre en œuvre cette obligation légale. A compter du 1er janvier 2013, les fabricants, importateurs et distributeurs de substances à l’état nanoparticulaire seront tenus de les déclarer. Le dispositif réglementaire doit encore être complété par arrêté interministériel.

Loi grenelle 2 :

http://www.legifrance.gouv.fr/affichTexte.do;jsessionid=04497CC7BC0A3CA880612FD9638F753F.tpdjo06v_2?cidTexte=JORFTEXT000022470434&dateTexte=&oldAction=rechJO&categorie

Décret du 17/02/2012 relatif à la déclaration annuelle des substances à l’état nanoparticulaire pris en application de l’article L. 523-4 du code de l’environnement.

Décret du 17/02/2012 relatif à la désignation des organismes mentionnés à l’article L. 523-3 du code de l’environnement :

http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000025377280&dateTexte=&categorieLien=id

L’ECHA encourage les déclarants à veiller à leur taille de l’entreprise est correctement déclarée

(21/02/2012)

Les déclarants peuvent éviter de payer des frais d’administration si, avant le début du processus de vérification des PME, ils déclarent volontairement une erreur dans leur taille d’entreprise. Plus d’information sur la page de l’ECHA dédiée aux PME :

http://echa.europa.eu/support/small-and-medium-sized-enterprises-smes

L’ECHA prévoit de mettre à jour ses orientations pour l’enregistrement des substances sous forme nanométrique

(22/02/2012)

L’ECHA prépare une mise à jour des guides relatifs aux exigences et à l’évaluation de la sécurité chimique, en y incluant des éléments relatifs aux substances sous forme nanométrique.

http://echa.europa.eu/web/guest/view-article/-/journal_content/d2809a13-f2e7-4ce9-9815-c5c7f3f02009

La Commission européenne a mis en ligne une page spécifique aux nanomatériaux / nanotechnologies.

http://ec.europa.eu/environment/chemicals/nanotech/

Avis aux entreprises qui envisagent d’importer, d’exporter ou d’utiliser en 2013 des substances appauvrissant la couche d’ozone

(23/02/2012)

Un avis aux entreprises ayant l’intention d’importer ou d’exporter des substances réglementées appauvrissant la couche d’ozone vers l’Union européenne ou à partir de celle-ci en 2013 et aux entreprises ayant l’intention de demander pour 2013 un quota pour de telles substances destinées à des utilisations en laboratoire et à des fins d’analyse a été publié le 23 février au Journal officiel de l’Union Européenne.

Toute entreprise souhaitant importer ou exporter des substances réglementées en 2013 et qui n’a pas sollicité une licence d’importation ou d’exportation les années précédentes est tenue de le notifier à la Commission européenne avant le 16 mai 2012, à l’aide d’un formulaire d’enregistrement dédié. Les entreprises qui sont enregistrées dans la base de données ODS principale en tant qu’importateur ou exportateur doivent compléter et présenter le formulaire de déclaration correspondant. Les formulaires seront disponibles à partir du 16 mai et devront être adressés à la Commission avant le 30 juin 2012.

La présentation d’une déclaration ne confère en soi aucun droit à procéder à une importation, à une exportation ou, dans le cas de substances réglementées destinées à des utilisations en laboratoire et à des fins d’analyse, à une production, précise toutefois la Commission. Avant toute importation, exportation ou production en 2013, les entreprises doivent avoir présenté la déclaration correspondante et doivent solliciter l’octroi d’une licence, au moyen du formulaire disponible en ligne dans la base de données ODS principale.

http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2012:053:0018:0019:FR:PDF

Base de données de l’ECHA

(24/02/2012)

La base de données de diffusion de l’ECHA contient 4 278 substances uniques avec des informations issues des 25 248 dossiers d’enregistrement REACH.

http://echa.europa.eu/information-on-chemicals/registered-substances

L’ECHA publie le rapport d’évaluation2011

(27/02/2012)

La principale conclusion du rapport est qu’une grande partie des dossiers d’enregistrement examinés soulèvent des problèmes de qualité ou de conformité à des degrés différents. L’ECHA encourage donc fortement les déclarants à mettre à jour leurs dossiers de façon proactive, en tenant compte des recommandations du rapport.

http://echa.europa.eu/en/web/guest/view-article/-/journal_content/1329122a-fc48-4bcb-b811-4f59309217b6

Nouvelle consultation publique sur treize substances potentielles extrêmement préoccupantes (SVHC)

(28/02/2012)

L’ECHA a publié de nouvelles propositions afin d’identifier treize nouvelles substances comme substances extrêmement préoccupantes (SVHC). Les parties intéressées sont invités à se joindre à la consultation publique en postant leurs commentaires sur le site de l’ECHA. La consultation publique sera ouverte pendant 45 jours et se terminera le 12 Avril 2012.

Toutes les substances concernées par cette nouvelle consultation sont classées comme cancérogènes, mutagènes ou toxiques pour la reproduction et semblent répondre à l’article 57 du règlement REACH Les substances concernées sont :

  • 1,2-bis(2-methoxyethoxy)ethane (TEGDME; triglyme) (N° CAS : 112-49-2 et N° CE : 203-977-3)
  • 1,2-dimethoxyethane (EGDME) (N° CAS : 110-71-4 et N° CE : 203-794-9)
  • alcool 4,4′-bis(diméthylamino)-4 »-(méthylamino)tritylique (N° CAS : 561-41-1 et N° CE : 209-218-2)
  • 4,4′-bis(dimethylamino)benzophenone (Cétone Michler) (N° CAS : 90-94-8 et N° CE : 202-027-5)
  • chlorure de [4-[4,4′-bis(diméthylamino)benzhydrylidène]cyclohexa-2,5-diène-1-ylidène]diméthylammonium (Basic Violet 3) (N° CAS : 548-62-9 et N° CE : 208-953-6)
  • chlorure de [4-[[4-anilino-1-naphtyl][4-(diméthylamino)phényl]méthylène]cyclohexa-2,5-diène-1-ylidène]diméthylammonium (Basic Blue 26) (N° CAS : 2580-56-5 et N° CE : 219-943-6)
  • trioxyde de dibore (N° CAS : 1303-86-2 et N° CE : 215-125-8)
  • Formamide (N° CAS : 75-12-7 et N° CE : 200-842-0)
  • lead(II) bis(methanesulfonate) (N° CAS : 17570-76-2 et N° CE : 401-750-5)
  • N,N,N’,N’-tetramethyl-4,4′-methylenedianiline (Base Michler) (N° CAS : 101-61-1 et N° CE : 202-959-2)
  • 1,3,5-tris(oxiranylmethyl)-1,3,5-triazine-2,4,6(1H,3H,5H)-trione (N° CAS : 2451-62-9 et N° CE : 219-514-3)
  • α,α-bis[4-(dimethylamino)phenyl]-4-(phenylamino)naphthalene-1-methanol (solvant Blue 3) (N° CAS : 6786-83-0 et N° CE : 229-851-8)
  • β-TGIC (1,3,5-tris[(2S and 2R)-2,3-epoxypropyl]-1,3,5-triazine-2,4,6-(1H,3H,5H)-trione) (N° CAS : 59653-74-6 et N° CE : 423-400-0)

http://echa.europa.eu/web/guest/proposals-to-identify-substances-of-very-high-concern

2 nouvelles demandes de classification et d’étiquetage harmonisés

(28/02/2012)

L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de deux nouvelles substances :

  • 5-ethoxy-3-trichloromethyl-1,2,4-thiadiazole (N° CAS : 2593-15-9 et N° CE : 219-991-8)
  • Mandipropamid (N° CAS : 374726-62-2)

Les commentaires sont à soumettre avant le 13 avril 2012.

http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

Evaluation des substances dans le cadre de REACH : la première liste de substances publiées

(29/02/2012)

Le CoRAP (Community Rolling Action Plan) contient 90 substances que les États membres devront évaluer le cadre du processus d’évaluation des substances (règlement REACH). Ces substances seront évaluées en 2012, 2013 et 2014. En 2012, la France devra évaluer le tétrachlorure de carbone, le 1,3-diphenylguanidine, l’octocrilene,

La liste des substances à évaluer pour 2012, 2013 et 2014 est disponible sur :

http://echa.europa.eu/documents/10162/17221/corap_2012_en.pdf

Poste à pourvoir à l’ECHA

L’ECHA a publié quatre nouvelles offres d’emploi depuis le 14 février. Elles peuvent être consultées à l’adresse http://echa.europa.eu/about-us/jobs/open-positions. Les dates limite d’envoi des candidatures sont fixées au 20, 26 et 27 mars 2012.

Document relatif à la maitrise du risque chimique

Le ministère MEDDTL a publié un document relatif à la maîtrise du risque chimique (règlement REACH). Celui-ci est disponible sur le lien suivant : http://www.developpement-durable.gouv.fr/IMG/pdf/brochure_REACH.pdf.

Par Céline Nectoux, ingénieur environnement CNRI

Les dernières NEWS REACH :

Et aussi :