Le plus petit moteur électrique au monde : une seule et unique molécule

Alors que le précédent record du monde était de 200 nanomètres, une équipe de scientifiques de l’université américaine de Tufts, près de Boston (Massachusetts), a mis au point un moteur électrique mesurant à peine 1 nanomètre de diamètre, et constitué d’une molécule unique. Cette molécule de butyle sulfure de méthyle, placée sur une lamelle de cuivre, entre en rotation sur elle-même à raison de 120 tours par seconde (7200 trs/min), dans un sens comme dans l’autre, lorsqu’elle est alimentée en électricité.

Première démonstration de propulsion électrique d’un moteur moléculaire

« Il y a eu des progrès significatifs dans la construction des moteurs moléculaires alimentés par la lumière et par des réactions chimiques, mais c’est la première fois que la propulsion électrique des moteurs moléculaires a été démontrée, et cela malgré quelques propositions théoriques », explique le Professeur Charles Sykes, professeur agrégé de chimie à l’université Tufts et principal auteur de l’article publié dans Nature Nanotechnology. « Nous avons été capables de montrer que l’on est à même de fournir de l’électricité à une molécule unique et de lui faire faire quelque chose qui n’est pas simplement le fruit du hasard. »

Fonctionnement à très basse température

Pour suivre plus aisément les mouvements de ce moteur moléculaire, l’équipe de scientifiques a travaillé à très basse température, et a ainsi pu analyser ce qu’il se passait lorsque la molécule de butyle sulfure de méthyle, placée sur la surface conductrice en cuivre, était stimulée électriquement par la pointe métallique d’un microscope à balayage à effet tunnel (utilisant les électrons plutôt que la lumière pour « voir » les molécules). La liaison soufre-cuivre de la molécule a servi d’axe de rotation, autour duquel les atomes de carbone de la molécule ont été libres de tourner. Les applications dans le domaine médical – par exemple, le possible développement de sondes miniatures – comme dans le domaine de l’ingénierie ou des technologies – conception d’engrenages miniatures – pourraient être nombreuses.

Difficultés à températures plus élevées

Le moteur moléculaire serait par contre plus difficile à contrôler à des températures plus élevées que celles de l’étude américaine, car la molécule tourne alors beaucoup plus vite, la rendant plus difficilement contrôlable, ce qui freine bien évidemment l’utilisation de cette découverte pour le moment. Le groupe Sykes expliquait déjà le principe de cette découverte potentielle dans une vidéo postée il y a tout juste un an, et que voici (en anglais) :

Par Rahman Moonzur

Revue du Web #7 : les vidéos de la semaine

Cette semaine :

  • des hologrammes représentant des agents d’accueil investissent l’aéroport de Paris-Orly ;
  • un « jetpack » (rappelez-vous James Bond) en pleine action, emmène un mannequin à plus de 1 500 mètres d’altitude et déploie un parachute pour la phase d’atterrissage ;
  • quelques vidéos au ralenti d’objets les plus divers en mouvement, permettant de voir ce qui est invisible à l’oeil nu ;
  • une vidéo impressionnante d’un robot capable de jongler avec cinq balles en même temps ;
  • un robot laveur de vitres dont la technique de déplacement a été inspirée par celle des geckos ;
  • une moto dont la transformation mérite le coup d’oeil ;
  • et enfin le gadget inutile de la semaine (puisqu’il serait a priori un « fake »), un ordinateur de bureau vraiment minuscule.

Les hologrammes investissent l’aéroport de Paris-Orly :

L’aéroport de Paris-Orly a mis en place la semaine dernière, en salle d’embarquement, des hologrammes représentant des agents d’accueil. Après les aéroports britanniques de Manchester et de Luton (Londres), c’est désormais au tour de Paris de se lancer dans l’aventure. Ayant pour mission l’accompagnement et l’information des passagers, les hologrammes représentent trois agents ayant accepté de prêter leur image. Leurs silhouettes ont été réalisées sur mesure, donnant ainsi une saisissante impression de réalisme. L’enregistrement réalisé est projeté sur un support en plexiglas, dont l’arrière est recouvert d’un film rétro-réfléchissant qui permet de capter la lumière et de restituer une image d’assez bonne qualité. La présence de ce support le distingue toutefois d’un véritable hologramme :

(Crédit : BFM TV)

Du nouveau pour les « jetpacks » :

Un jetpack (« réacteur dorsal » en français) est un équipement portable, ressemblant à un (gros) sac à dos et permettant de décoller et de voler pendant un laps de temps très réduit. Les jetpacks existent sous plusieurs formes, comme le « Jetlev », déjà commercialisé, qui fonctionne à l’eau et dont l’autonomie est d’environ deux heures, ou bien le Martin Jetpack développé par les Américains de Martin Airways.

Le Martin Jetpack ressemble à un exosquelette, pesant 113 kilos à vide. Il possède un moteur construit sur mesure fonctionnant à l’essence et entrainant deux gros réacteurs qui lui permettent de voler à une vitesse maximale de 101 kilomètres par heure sur une distance de 50 kilomètres. L’un des problèmes majeurs des jetpacks est la gestion d’une éventuelle avarie technique qui mènerait inévitablement à un accident entrainant de lourdes conséquences. Les ingénieurs de chez Martin Airways ont donc décidé d’installer un parachute balistique (utilisant un explosif pour se déployer de manière extrêmement rapide) et de tester l’ensemble en envoyant un mannequin à près de 1 500 mètres d’altitude. La commande d’ouverture du parachute est déclenchée depuis un hélicoptère par ondes radio. Le Jetpack a subi quelques dégâts à l’atterrissage, dégâts qui, selon les responsables du projet, auraient certainement pu être évités si un être humain avait été à bord à la place du mannequin.

Voici la vidéo de présentation du décollage, du vol et de l’atterrissage presque sans encombres du Martin Jetpack, ainsi qu’une vidéo extraite du film Opération Tonnerre, film de la franchise James Bond ayant popularisé cet engin et permettant à Sean Connery de prendre la fuite face à ses agresseurs :

Voir l’invisible : des vidéos d’objets au ralenti

Les vidéos au ralenti d’objets en mouvement ont ceci de particulier qu’elles dévoilent des aspects totalement nouveaux du mouvement en question, permettant de voir ce qui n’est normalement pas visible. Voici quelques-unes de ces vidéos en slow-motion : la déformation d’une cymbale (recouverte de gouttelettes d’eau) lorsqu’elle subit le coup de baguette d’un batteur, un chien mouillé se secouant pour s’essorer (1 000 images par seconde) ainsi qu’un pot de mayonnaise contenant plusieurs pétards (2 000 images par seconde) :

Le robot jongleur :

La revue du Web continue avec la vidéo d’un robot capable de jongler avec cinq balles en même temps. Le jonglage avec cinq balles est l’opération la plus difficile à contrôler car elle nécessite la gestion des cinq axes simultanément. Une caméra à haute vitesse est placée en face du jongleur afin de détecter les mouvements de chaque balle, puis un calcul est réalisé pour déterminer l’endroit exact où la balle sera rattrapée. Bien que la vitesse de la caméra soit suffisament grande pour supporter le mouvement des balles en temps réel et permettre le calcul, un filtre de Kalman – filtre à réponse impulsionnelle infinie estimant les états d’un système dynamique en se basant sur des mesures incomplètes – a aussi été utilisé. Les performances des moteurs ont été optimisées pour réaliser l’action de jonglage par l’équipe de chercheurs tchèques responsables de la conception du robot :

Gecko, le robot laveur de vitres :

L’université de Zhejiang, en Chine, a mis au point un robot laveur de vitres dont les mouvements et la méthode de déplacement sont plus ou moins inspirés par le petit lézard bien connu. Réussir à faire grimper un robot sur une surface lisse verticale n’était pas de la plus grande simplicité, tout comme le fait de ne pas alourdir son mode d’alimentation à cause de la taille et du poids modestes du robot. Les ingénieurs de l’université chinoise sont parvenus à déjouer ces difficultés en faisant appel à un ingénieux système de pression d’eau comme moteur de l’ascension et des déplacements du robot, laissant entrevoir de futures applications prometteuses :

Une moto dont la transformation mérite le coup d’œil :

Voici une vidéo présentant le développement (accéléré) d’une moto que l’on peut qualifier de véritable « Transformer ». « Uno », troisième du nom, passe du stade de prototype à celui de moto disponible sur le marché, à un prix s’échelonnant de 5 000 à 7 500 dollars. Sa particularité réside dans sa capacité à passer d’un véhicule de type « Segway » à une véritable moto en parfait état de fonctionnement, autorisant le placement de la roue avant entre les deux roues arrière, permettant ainsi un gain de place conséquent. En position « moto », la roue avant se déploie et les deux roues arrière se rejoignent, comme vous pouvez le voir dans la vidéo qui suit :

Un ordinateur de bureau vraiment minuscule :

La revue du Web#7 se termine sur une vidéo qui laisse perplexe : il s’agit d’un ordinateur de bureau d’une petitesse folle, semblant fonctionner sous Windows Vista. Des doutes sur l’authenticité de la vidéo laissent toutefois penser à un « fake » : à titre d’exemple, les câbles semblent bien trop fins pour pouvoir héberger suffisamment de fils, sachant que pour qu’un clavier USB puisse fonctionner correctement, il lui faut au moins quatre fils (la masse GND, l’alimentation VBUS et les fils de données D+ et D-). Sans évidemment parler de la miniaturisation d’un système entier capable de faire tourner Windows Vista sans encombres… À vous de juger !

Par Rahman Moonzur

 

Eolien terrestre : nouvelle réglementation, nouvelles contraintes ?

La nouvelle réglementation relative aux éoliennes terrestres a été publiée au Journal Officiel du 27 août 2011. Celle-ci s’appuie sur un décret de nomenclature, deux arrêtés ministériels sur les prescriptions générales, ainsi qu’un décret propre aux garanties financières. La liste des décrets relatifs à cette réglementation fait transparaître la volonté du gouvernement de mieux encadrer les projets concernant l’éolien terrestre. En voici la liste :

  • Décret n° 2011-984 du 23 août 2011 modifiant la nomenclature des installations classées. Inscription des éoliennes terrestres au régime des installations classées pour la protection de l’environnement (ICPE).
  • Décret n° 2011-985 du 23 août 2011 pris pour l’application de l’article L. 553-3 du code de l’environnement.
  • Arrêté du 26 août 2011 relatif aux installations de production d’électricité utilisant l’énergie mécanique du vent au sein d’une installation soumise à déclaration au titre de la rubrique 2980 de la législation des installations classées pour la protection de l’environnement et ses annexes.
  • Arrêté du 26 août 2011 relatif aux installations de production d’électricité utilisant l’énergie mécanique du vent au sein d’une installation soumise à autorisation au titre de la rubrique 2980 de la législation des installations classées pour la protection de l’environnement.
  • Arrêté du 26 août 2011 relatif à la remise en état et à la constitution des garanties financières pour les installations de production d’électricité utilisant l’énergie mécanique du vent.
  • Circulaire du 29 août 2011 relative aux conséquences et orientations du classement des éoliennes dans le régime des installations classées.

Quelques précisions concernant les « régimes » évoqués ci-dessus :

Installation terrestre de production d’électricité à partir de l’énergie mécanique du vent et regroupant un ou plusieurs aérogénérateurs :

  1. Comprenant au moins un aérogénérateur dont le mât à une hauteur supérieure ou égale à 50 m = AUTORISATION
  2. Comprenant uniquement des aérogénérateurs dont le mât à une hauteur inférieure à 50 m et au moins un aérogénérateur dont le mât a une hauteur maximale supérieure ou égale à 12 m et pour une puissance totale installée :
  • Supérieure ou égale à 20 MW = AUTORISATION
  • Inférieure à 20 MW = DECLARATION

Les professionnels de l’éolien terrestre ont vite réagi, suite à la publication de la nouvelle réglementation, pour dénoncer de nouvelles mesures qui entravent l’activité plus qu’elles ne l’encadrent.
Extraits : « Le Syndicat des énergies renouvelables et sa branche éolienne, France énergie éolienne ont pris connaissance du communiqué de presse publié, vendredi 26 août, à la parution des décrets encadrant l’entrée des éoliennes dans la législation des Installations Classées pour la Protection de l’Environnement (ICPE), par le Ministère de l’Ecologie, de Développement durable, des Transports et du Logement.

Les professionnels rappellent, qu’au moment de la discussion de la loi Grenelle 2, ils s’étaient opposés au classement ICPE des éoliennes, dont la vocation est de produire une électricité propre et sans émission de déchet ou polluants.
Après le vote de la loi, où il a été décidé de classer les éoliennes dans la législation ICPE, les acteurs de la filière ont  travaillé durant de longs mois avec l’administration pour définir des règles acceptables permettant de poursuivre le développement du parc éolien français, qui doit, comme le rappelle le Ministère de l’Ecologie, atteindre 19 000 MW en 2020 contre 6 000 MW aujourd’hui.

La réglementation ICPE qui vient d’être publiée, ne se substitue pas mais s’ajoute à l’empilement des procédures auxquelles la filière éolienne est déjà soumise : tous les deux ans, de nouvelles obligations sont imposées aux parcs éoliens : 2003, permis de construire avec étude d’impact et enquête publique ; 2005, création des Zones de Développement de l’Eolien, dispositif inédit du droit français ; 2009, création du volet éolien des schémas régionaux ; enfin, 2010, classement ICPE.
L’empilement de ces procédures a conduit à des délais de mise en œuvre des parcs qui peuvent atteindre  jusqu’à 8 ans, contre 4,5 ans dans le reste de l’Europe.

Le Ministère assure que le nouveau cadre  réglementaire « permettra de réduire les délais d’instruction à un an pour la grande majorité des projets » et de leur épargner « des procédures de plus en plus longues et des contentieux accrus au niveau local ».

Les professionnels voudraient croire aux effets de ce nouveau dispositif, mais ils craignent, au contraire, que ce énième changement contraigne encore davantage le développement des projets : tout d’abord parce que la réglementation ICPE ouvre une nouvelle possibilité de déposer un recours contre un projet, ce qui retardera encore davantage la construction des parcs, alors que la filière souhaite que l’Etat prenne des mesures pour limiter les recours abusifs. Ensuite, parce qu’en se superposant à ceux existants,  ce nouveau dispositif va encore alourdir les contraintes qui pèsent sur les développeurs éoliens. « Il faut faire le tri et supprimer les procédures redondantes. C’est la condition d’un développement harmonieux et ambitieux de la filière », estiment Jean-Louis BAL et Nicolas WOLFF, respectivement Président du SER et de la FEE ».

Par P.T

Fiches pratiques Techniques de l’Ingénieiur : Exploiter une ICPE

 

A lire également :

Taxe sodas : Coca-Cola suspend des investissements en France

C’est la première décision concrète de Coca-Cola après l’annonce le 24 août par le Premier ministre François Fillon de la création d’une taxe sur les boissons à sucres ajoutés pour lutter contre l’obésité dans le cadre d’un vaste programme d’austérité. Un investissement de 17 millions d’euros, portant sur une nouvelle ligne de production de canettes, devait être annoncé le 19 septembre, à l’occasion de la célébration des 40 ans de l’usine des Pennes-Mirabeau. « Celui-ci n’est pas annulé mais il doit être réévalué dans le contexte d’incertitude créé par la taxe », annonce le groupe dans un communiqué.

Coca-Cola attend de voir comment se déroule le vote au Parlement, a précisé à l’AFP une porte-parole. La taxe doit être discutée dans les semaines à venir dans le cadre du projet de loi de financement de la Sécurité sociale.

Par ailleurs, la venue de John Brock, président de Coca-Cola Enterprises, pour les 40 ans du site est annulée. « Nous entendons ainsi protester symboliquement contre une taxe qui sanctionne notre entreprise et stigmatise nos produits », explique Coca-Cola qui « réaffirme son opposition vigoureuse à toute forme de stigmatisation des boissons sucrées et à leur assimilation à d’autres catégories de produits tels que le tabac« .

La taxe doit entrer en vigueur début 2012 et devrait rapporter 120 millions d’euros à l’État. Elle devrait renchérir le prix de la canette d’un centime d’euro en moyenne, selon les industriels du secteur.

Implanté en France dans l’entre-deux-guerres, le groupe américain emploie 3 000 salariés répartis sur cinq sites de production en France. Le site des Bouches-du-Rhône, le deuxième en terme de production, compte 203 employés et trois lignes de production. Il a fait l’objet de 45 millions d’euros d’investissements depuis cinq ans, selon le communiqué.

(Source et crédit photo : AFP)

Des vêtements intelligents encore plus performants ?

Une équipe de chercheurs de l’université d’Ohio State rapporte dans un article publié dans le journal IEEE Antennas and Wireless Propagation Letters la conception d’une nouvelle antenne dont le rayon d’action serait jusqu’à quatre fois plus élevé que les antennes habituelles équipant certains vêtements et uniformes, ceux de l’armée en première ligne. C’est dans le but d’améliorer la fiabilité des systèmes de communication et leur mobilité que les chercheurs se sont penchés sur la question, considérant les contraintes d’encombrement et de poids qu’ils se sont imposées.

L’idée d’embarquer des systèmes de communication dans les vêtements n’étant pas nouvelle, l’équipe de chercheurs s’est servie des nombreux travaux effectués sur le sujet comme base de leur recherche, en y adjoignant un système de contrôle permettant à plusieurs antennes de travailler conjointement au sein du même vêtement ou uniforme. Ils ont alors abouti à un système pouvant envoyer et recevoir des signaux dans toutes les directions et ne nécessitant pas le transport d’une antenne extérieure supplémentaire. « D’une certaine façon, nous avons fait ce qui a déjà été fait pour les téléphones portables », affirme l’un des chercheurs, John Volakis.

Lorsqu’une antenne est en contact avec la peau, le corps a plutôt tendance à absorber les signaux (rappelez-vous les problèmes avec l’iPhone 4). L’orientation du corps peut donc être primordiale, mais les chercheurs ont contourné le problème en entourant le corps de plusieurs de ces antennes, le système de contrôle choisissant alors l’antenne ayant la meilleure performance à l’instant t. Un prototype a été créé à base de laiton et d’un film plastique extensible, sur une veste standard, le système de contrôle se trouvant sur une ceinture. Les résultats ont été plus que probants, tant pour la portée du signal que pour sa multidirectionnalité.

La conception de l’antenne s’est faite en collaboration avec la société Applied EM Incorporated, basée en Virginie, et le prix en dehors de toute production industrielle devrait avoisiner les 200 dollars par personne et pièce de vêtement ou uniforme. Les chercheurs et Applied EM voient l’avenir en dehors d’une utilisation militaire, et posent à présent les bases d’une possible adaptation de cette technologie au civil. Les personnes âgées ou certaines personnes handicapées, par exemple, pourraient bénéficier de ce type de vêtements intelligents, leur permettant de communiquer en cas de difficultés ou d’urgences, sans être stigmatisés par un appareillage plus visible.

Par Rahman Moonzur

 

À lire aussi :

Lancement d’un projet sur la sécurité des robots assistants

Wysips : des films solaires sur les smartphones

Les objets communicants, aujourd’hui et demain

Rayonnements optiques : êtes-vous en règle ?

Le décret n° 2010-750 du 2 juillet 2010 relatif à la protection des travailleurs contre les risques dûs aux rayonnements optiques artificiels modifie le code du travail et fixe les principes de prévention à mettre en œuvre. Les conséquences pour les employeurs et les salariés sont donc multiples :

  • Evaluation des risques en se référant à des valeurs limites d’exposition ;
  • Mise en œuvre de mesures de prévention :

o  Autres procédés de travail n’exposant pas aux rayonnements optiques artificiels ou entraînant une exposition moindre ;

o  Choix d’équipements de travail appropriés émettant le moins de rayonnements artificiels possible ;

o  Limitation de la durée et de l’intensité des expositions ;

o  Conception, aménagement des lieux et postes de travail ;

o  Moyens techniques pour réduire l’exposition aux rayonnements en agissant sur leur émission, leur propagation, leur réflexion, tels qu’écrans et capotages ;

  • Information et formation des salariés exposés aux risques et aux mesures de prévention à prendre ;
  • Assurance d’une surveillance médicale et d’un suivi des travailleurs exposés.

Techniques de l’Ingénieur vous propose 2 jours de formation sécurité laser pour appliquer ces nouvelles directives et adapter les méthodes de travail en conséquence.

Vos prochaines dates : 18-19 octobre 2011 et 14-15 décembre 2011.

 

À lire aussi :

Sécurité laser : une attitude écologique

Le laser à fibre s’impose en micro-usinage

3S Photonics lance des pompes laser vertes

Les matériaux multiferroïques au service du stockage de données

Une équipe de chercheurs du Helmholtz-Zentrum Berlin (HZB), en collaboration avec des collègues scientifiques français et anglais, ont mis au point un matériau à température ambiante dont les propriétés sont très prisées, car il s’agit d’un matériau multiferroïque. Leurs recherches se sont concentrées sur le titanate de baryum (BaTiO3), un oxyde de baryum et de titane très utilisé sous forme de céramique pour ses propriétés piézoélectriques et diélectriques.

Un matériau multiferroïque est un matériau qui est à la fois ferroélectrique c’est-à-dire possédant une polarisation spontanée, et ferromagnétique, possédant un magnétisme spontané. Il peut aussi « souffrir » d’une troisième qualité, la ferroélasticité. Le défi du couplage entre magnétisme et ferroélectricité est un enjeu de taille, car il peut devenir extrêmement intéressant d’utiliser les deux propriétés du matériau, l’induction de l’aimantation par un champ électrique ou à contrario la polarisation par un champ magnétique. La difficulté de combiner ces deux propriétés rend les matériaux multiferroïques relativement rares.

Le BaTiO3 semble prometteur pour le stockage de données, comme l’annonce leur publication dans le journal « Nature Materials ». « L’idée est d’appliquer un voltage au matériau ferroélectrique pour inverser la polarisation ferroélectrique, affectant la magnétisation du matériau. Vous pouvez l’utiliser par exemple pour écrire des octets d’informations dans la mémoire en appliquant simplement un voltage, ce qui revient bien moins cher en terme d’énergie que d’appliquer des champs magnétiques » explique Sergio Valencia, co-responsable du groupe de recherches. Pouvoir le faire à température ambiante plutôt qu’à des températures très basses est une avancée significative, rendant la technologie pratique et plus abordable.

Mais le titanate de baryum n’est pas multiferroïque à température ambiante. La multiferroïcité a été induite par l’équipe de chercheurs en le mettant en contact le BaTiO3 avec des matériaux ferroélectriques naturels comme le fer et le cobalt. Le matériau final est donc composé d’un film épais de quatre atomes de BaTiO3 coiffé d’un film de fer et de cobalt, d’une épaisseur de dix atomes. « Ces épaisseurs minimes sont nécessaires pour l’application de tels matériaux à des dispositifs constamment miniaturisés » conclut Sergio Valencia.

Par Moonzur Rahman

« La tribologie existe depuis toujours »

Techniques de l’Ingénieur : Depuis quand la tribologie existe-t-elle ?

La tribologie existe depuis toujours. À l’âge de pierre, l’homme des cavernes frottait déjà des silex pour se fabriquer des outils et faire du feu. Le terme « tribologie », date lui, de 1966. Il a été proposé par Peter Jost, actuellement président de l’ITC (International Tribology Council) et construit à partir de deux termes grecs : « tribos » qui signifie « frottement », et « logos » qui signifie « lois».  Mais en réalité, le mot semble avoir déjà été évoqué par Leonard de Vinci dans l’un de ses carnets récemment découvert. De Vinci dessinait des schémas de mécanisme et aurait constaté qu’il pouvait y avoir des résistances mécaniques, des frottements.

Quelles sont les causes de détérioration les plus fréquentes des matériaux en tribologie ?

L’usure, dont il existe plusieurs familles : l’usure par adhésion, lorsqu’il y a collage et arrachement des matériaux ; l’usure par abrasion, lorsqu’il y a une particule intrusive qui s’introduit entre les matériaux et qui va enlever de la matière ; l’usure par érosion, où des particules viennent agresser les surfaces ; l’usure par fatigue, dont l’action répétée de contraintes à la surface va fatiguer le matériau et provoquer une émission de particules ou la rupture des composants ; et l’usure par tribocorrosion où la corrosion s’ajoute à l’usure par exemple.

René Gras est docteur ès sciences physiques de l’Université Pierre-et-Marie-Curie Paris-VI. Nommé professeur des Universités, il a dirigé le Groupe Tribologie de l’Institut Supérieur de Mécanique de Paris (SUPMECA) à Saint-Ouen où il est actuellement professeur émérite. Ses domaines de recherche portent sur la tribologie en environnement sévère et l’analyse des systèmes tribologiques.

Comment mesure-t-on l’usure d’un matériau ?

Par la perte de dimensions du matériau, la perte de masse, ou la perte de matière.

À quelles disciplines scientifiques la tribologie fait-elle appel ?

À la mécanique des solides et des fluides, à la connaissance des matériaux, à la physique, à la chimie, car il y a beaucoup d’actions physico-chimiques en surface.

Dans quels secteurs industriels la tribologie se révèle-t-elle utile ?

Dans tous les domaines d’activité, dès que des solides ou des fluides sont mis en contact. On en trouve aussi bien en mécanique qu’en transport, qu’en biomécanique (usure des dents, des articulations)…

Quelles solutions existent pour remédier aux phénomènes d’usure et de frottement ?

Les solutions les plus classiques consistent à éviter ou limiter le contact des matériaux en introduisant un lubrifiant entre les surfaces, il s’agit alors de lubrification hydrodynamique, hydrostatique, élastohydrodynamique… D’autres solutions consistent à utiliser des matériaux résistants aux différents types d’usure. On joue sur la structure des matériaux, leurs caractéristiques mécaniques et physico-chimiques pour limiter l’usure. Troisième solution : on introduit des matériaux à structure spécifique entre les solides. On peut, par exemple, utiliser des lubrifiants de type solide, certains composés lamellaires (graphite, bisulfure de molybdène…), qui abaissent les frottements et limitent l’usure. On peut aussi, dans le cas d’engins de travaux publics ou de matériels agricoles, mettre en œuvre des techniques de rechargements avec des métaux durs pour limiter l’abrasion des outils par les particules dures contenues dans le sol.

 

 

Participez à la formation Techniques de l’ingénieur Tribologie : diagnostic et solutions techniques

La liquéfaction, alternative à la crémation et à l’inhumation

C’est dans une maison funéraire de la ville américaine de Saint-Petersbourg, en Floride, que l’entreprise britannique, Resomation Limited, a installé son tout premier dispositif permettant la liquéfaction d’un corps, présentée comme une alternative écologique à l’inhumation et à la crémation. L’hydrolyse alcaline, base concrète du procédé, permettrait de produire trois fois moins de gaz à effet de serre que la crémation, en utilisant seulement 1/7e de l’énergie et en rendant possible la séparation complète des plombages et autres broches, pour une élimination en bonne et due forme.

La liquéfaction fonctionne par la dissolution du corps dans de l’eau alcaline et chauffée : le corps est entièrement immergé dans une solution aqueuse d’hydroxyde de potassium, à une pression légèrement supérieure à 10 bars, et portée à 180°C pendant un temps variant de deux heures et demi à trois heures. Les tissus humains sont complètement dissous, et le liquide ainsi obtenu est évacué par… le système des égouts municipaux.

D’après Sandy Sullivan, biochimiste et fondateur de Resomation Limited, les tests préliminaires auraient prouvé que les effluents seraient « stériles » et qu’ « ils ne contiendraient pas de trace d’ADN, ni ne poseraient de risque environnemental ». Il souligne aussi que le mercure provenant des amalgames dentaires, vaporisé lors d’une crémation, serait responsable de près de 16 % des émissions de mercure en suspension dans l’atmosphère, obligeant les crématoriums à réagir et à installer un système de filtration du mercure pour en réduire les émissions. La liquéfaction permet de récupérer aisément ces plombages, et de s’en débarrasser de manière écologique.

Une fois le corps dissous, il ne reste que les os (séparés des broches, amalgames dentaires et autres) qui se voient alors retirés de l’appareil et broyés par un « cremulator », la même machine qui est utilisée pour pulvériser les os et fragments après une crémation.

Bien que l’hydrolyse alcaline ait déjà été utilisée pour se débarrasser de certains cadavres médicaux ou d’animaux de ferme, l’installation de ce dispositif en Floride a nécessité l’approbation de l’État de Floride, levant les derniers freins légaux à l’arrivée de Resomation Limited, tout comme dans (seulement) un septième des États américains. L’État du Queensland, en Australie, s’est déjà servi de cette méthode l’année dernière, de même que l’État d’Ohio plus tôt cette année, dix-neuf corps ayant pu être liquéfiés avant que la Cour de l’état rende le procédé non conforme à la loi.

Si les verrous législatifs se lèvent petit à petit, Sandy Sullivan fait pression sur les autorités de son pays pour pouvoir faire de l’hydrolyse alcaline une réalité au Royaume-Uni. Celui-ci espère pouvoir y vendre son dispositif, qu’il pense être moins onéreux que la crémation, notamment en raison de la charge supplémentaire que représente les systèmes de filtration du mercure. L’installation américaine devrait fonctionner dans quelques semaines. Voici une courte illustration vidéo du processus :

 

 

Par Rahman Moonzur

Pourquoi faut-il sauver les abeilles ?

Le trouble des abeilles, les téléphones portables en cause

Une étude réalisée par le biologiste Daniel Favre a démontré après plus de 83 expériences près des ruches que le signal des téléphones cellulaires trouble le comportement des abeilles. Tous les résultats obtenus, sous la forme d’audiogrammes et des spectrogrammes de ces différents sons, ont démontré que les radiations des téléphones mobiles ont un impact direct sur le comportement des abeilles.

Des téléphones mobiles ont été positionnés à proximité immédiate des abeilles et les sons produits par les abeilles ont été enregistrés et analysés. Les ondes électromagnétiques provenant des téléphones mobiles agissent négativement sur le comportement des abeilles induisant des signaux d’alarme émis par les abeilles ouvrières. Les sons émis par les abeilles ouvrières annoncent généralement la préparation à l’essaimage, les téléphones occasionnent de grandes perturbations d’une colonie d’abeilles.
La pollution électromagnétique serait l’une des causes de l’effondrement de la population d’abeilles dans le monde, avec de graves implications sur notre écosystème.

La disparition des colonies d’abeilles se répand dans de nombreux pays européens depuis plusieurs années. L’Europe va s’appuyer sur l’expertise et les moyens de l’Agence de Sécurité sanitaire de l’Alimentation, de l’Environnement et du Travail (ANSES) pour rechercher des solutions. D’après les autorités, les causes seraient multiples, resteraient difficiles à identifier, la communauté scientifique ne parviendrait pas à quantifier le problème. Les données chiffrées, fiables, pérennes en termes de suivi épidémiologique à la fois des populations et des problèmes sanitaires manquent, mais les facteurs à l’origine d’une surmortalité des abeilles sont identifiés et multiples : maladies, parasites, intoxications par les pesticides, conditions climatiques, pollution de l’air, de l’eau et du sol.

Le laboratoire de l’Agence nationale de Sécurité sanitaire de l’Alimentation, de l’Environnement et du Travail (ANSES), à Sofia-Antipolis, a été nommé laboratoire de référence par la Commission européenne. Ses scientifiques seront chargés de missions nombreuses et variées. Analyser les causes d’intoxication des colonies d’abeilles, améliorer et développer de nouveaux outils diagnostiques, identifier les maladies…

Les abeilles, le maillon indispensable des écosystèmes.

Quatre-vingts pour cent des espèces végétales dépendent directement de la pollinisation par les insectes. Comme agent pollinisateur, l’abeille domestique contribue pour une part importante à cet équilibre. En ville, une même espèce de plante est souvent fort éloignée, il est donc indispensable qu’un insecte pollinisateur puisse transporter le pollen d’une fleur mâle vers la fleur femelle d’une même espèce. Les insectes pollinisateurs, en butinant nos nombreuses espèces de plantes à fleurs, favorisent le développement en quantité et en qualité des fruits et des graines produits par nos plantes et nos arbres. La conservation d’un équilibre entre les insectes pollinisateurs est également primordiale. Toutes les graines et tous les fruits sont essentiels pour perpétuer les espèces végétales, ainsi que pour nourrir de nombreuses variétés d’insectes, d’oiseaux et de mammifères. Apis Bruoc Sella favorise également la conservation de nos espèces locales domestiques ou sauvages, telles que l’abeille noire, les abeilles sauvages, les bourdons, les syrphes, etc. La bonne santé des abeilles est essentielle, car elles sont les sentinelles de l’environnement. Tout ce qui peut agresser l’abeille peut également poser de graves problèmes à d’autres pollinisateurs. Les abeilles contribuent à la pollinisation des végétaux, ce qui impacte positivement l’environnement. Elles participent à près de 80 % de la pollinisation des espèces végétales et sont donc le maillon indispensable à la survie, à l’évolution et à la reproduction des plantes. Les productions agricoles et la filière du miel sont également des filières agricoles non négligeables.

Le rôle des abeilles est de butiner les fleurs et de ramener le pollen à la ruche pour ensuite en faire du nectar, du miel et de la cire. Les vents, les abeilles et d’autres insectes assurent la pollinisation des fleurs. La pollinisation : c’est le processus de reproduction des fleurs. Cette reproduction se fait par le transport du pollen (poudre jaune produit par les étamines) vers le carpelle (organe femelle de la fleur). La biodiversité est assurée par le maintien de tous les éléments de la chaîne alimentaire. S’il fallait donner une valeur monétaire à ce service écologique, il serait estimé à 153 milliards d’euros (source : http://www.alarmproject.net/alarm/), pratiquement 10 % de la valeur de la production agricole mondiale destinée à la consommation humaine.

Nous avons été sensibilisés au rôle des abeilles dans l’écosystème. En effet, elles favorisent la pollinisation des plantes sauvages et cultivées et elles sont sensibles aux traitements phytosanitaires. Depuis quelques années le sort des abeilles est devenu inquiétant : leur taux de surmortalité atteint 30 à 35 %, taux anormalement élevé qui atteint dans certains cas 50 % de pertes hivernales. Sur le banc des accusés : multiplication des substances chimiques dans l’environnement, présence de parasites, effets désastreux des monocultures, ravages du frelon asiatique, impact du changement climatique…

Les substances chimiques :

Les raisons de l’extinction des abeilles et autres insectes sont multiples : La multiplication des substances chimiques et des pesticides dans l’environnement en est une. Mais les abeilles meurent aussi à cause du traitement des semences : Le traitement de semence utilisé pour le maïs est le Gaucho. Pour le tournesol c’est le régent. Lorsque l’abeille butine une fleur traitée, elle meurt avant d’avoir pu retourner à la ruche.

Le frelon asiatique :

D’autres facteurs affectent les abeilles : le frelon asiatique, introduit accidentellement en France dans les années 2000, envahit et détruit les ruches d’abeilles… sans aucune réaction des responsables politiques pourtant alertés de cette menace grandissante. Les abeilles sont confrontées depuis quelques années à un nouveau prédateur venu d’Asie, qui colonise peu à peu le territoire. Le frelon asiatique, importé accidentellement de Chine, se dissémine rapidement en France. Dix frelons suffisent à anéantir une ruche en l’espace de quelques jours, en capturant les abeilles ou en restant présents près du rucher, stressant la colonie et en perturbant le fonctionnement. Ainsi en Gironde, 150 à 200 ruches ont probablement été détruites par l’action du frelon en 2006. Cet insecte menace également d’autres espèces de butineurs et met en danger l’Homme par ses piqûres et son comportement agressif.

L’ampleur de l’invasion est telle le qu’il semble difficile de l’éradiquer, malgré le développement de techniques de piégeage et de destruction des nids. Il est aujourd’hui urgent que le frelon asiatique soit classé dans la liste des espèces nuisibles, afin que les départements bénéficient de réels moyens d’action et qu’un réseau de vigilance soit mis en place via une campagne nationale d’information.

Les effets désastreux des monocultures :

Malgré l’effondrement alarmant du nombre d’abeilles, le ministre de l’Agriculture a réautorisé en décembre 2008 le Cruiser, un insecticide de traitement des semences de maïs, mortel pour les abeilles et hautement toxique pour les oiseaux et l’environnement, fabriqué par la firme Syngenta, l’un des leaders mondiaux sur le marché des pesticides. Cette seconde autorisation qui courait jusqu’au 15 mai 2009, juste après les semis de maïs, a été reconduite pour 2010 puis 2011. Pourtant, nos voisins allemands, italiens et slovènes ont suspendu l’homologation de ce produit suite aux mortalités catastrophiques des abeilles au printemps 2008. En autorisant à nouveau le Cruiser, le ministère de l’Agriculture paraît privilégier les intérêts des firmes agrochimiques. Sur la seule foi des industriels, l’Agence française de sécurité sanitaire des aliments a émis un avis favorable tout aussi complaisant que surprenant. Schizophrène, l’État mobilise par ailleurs des fonds pour le soutien de la filière apicole !

L’abeille contribue à la reproduction de 80 % des espèces de plantes à fleurs : c’est donc une alliée indispensable dans le maintien de l’équilibre des écosystèmes et de notre agriculture. Or, 30 à 40 % des colonies ont été décimées en moins de 10 ans en Europe. Scientifiques et apidologues s’accordent à dire que les 5 000 pesticides commercialisés ont une part de responsabilité importante dans ces disparitions. De plus, à cause d’une baisse considérable de la biodiversité dans les cultures qui attirent en temps normal les abeilles, celles-ci se sont mises progressivement à visiter d’autres cultures, comme les céréales et les vignes, très gourmandes en pesticides. Mais d’autres facteurs représentent également des menaces. Les colonies sont affectées par des parasites comme le varroa, un acarien maîtrisé par les apiculteurs mais pour lequel les médicaments disponibles sont réduits, ou par des bactéries et des virus.

Pire, butinant jusqu’à plusieurs kilomètres de leurs ruches, les abeilles pourraient être malgré elles responsables de la propagation des OGM, tout en étant intoxiquées par des plantes génétiquement modifiées qui produisent leur propre insecticide.
Plus généralement, c’est l’ensemble de la biodiversité des insectes pollinisateurs qui est menacé. C’est un cercle vicieux : moins de plantes à fleurs réduit la diversité de pollinisateurs, ce qui accentue encore la diminution des espèces végétales. La monoculture intensive sur des centaines d’hectares, la raréfaction des fleurs des champs et l’entretien chimique des bords de route concourent à l’escalade menant à une extinction de masse du vivant. Enfin, un changement climatique entraînant des périodes de sécheresse et des hivers plus doux affaiblirait les abeilles.
Développer des moyens alternatifs aux pesticides, revenir à une agriculture en lien avec les territoires, s’éloigner des pratiques de remembrement et de monoculture, qui attirent davantage les subventions que les abeilles : les responsables publics doivent prendre la vraie mesure de l’enjeu et respecter les engagements du Grenelle de l’environnement, qui se cantonnent pour l’instant à de grands discours.

En Chine, dans la province du Sichuan, des producteurs en sont réduits depuis quelques années à fertiliser les fleurs de poirier à la main, les pollinisateurs et les plantes à pollen de la région ayant été détruits par une utilisation incontrôlée de produits chimiques.
Pollution par les pesticides.

Il est urgent de mener une expertise indépendante, pluraliste et contradictoire

Alors que les apidologues sont unanimes sur le rôle primordial des pesticides dans l’érosion des ruches, les différentes études menées par l’Agence française de sécurité sanitaire des aliments brouillent les pistes en mettant en avant une multitude de facteurs environnementaux.

L’AFSSA est la seule entité de l’État, présentée comme agence « indépendante », qui produise des études sur les causes de mortalité des abeilles. Or, à y regarder de plus près, son conseil d’administration regroupe les diverses composantes du lobby des pesticides : le directeur de l’Union des producteurs de pesticides, le président de l’Association générale des producteurs de maïs, le président des Chambres d’agriculture et un représentant de l’agro-industrie. Or ces firmes ont-elles l’indépendance requise pour analyser et éventuellement mettre en cause les pesticides ?

Dans sa dernière expertise sur ce sujet, l’AFSSA n’a même pas pris en compte les études établissant les effets des pesticides Gaucho et Régent sur l’abeille ! Pour éviter toute mise en cause ultérieure, la directrice de cette Agence n’a pourtant pas hésité à rappeler, que « I’AFSSA ne s’est jamais prononcée sur les risques environnementaux, lesquels ne relèvent pas de sa mission ».

Le laboratoire de l’Agence nationale de Sécurité sanitaire de l’Alimentation, de l’Environnement et du Travail (ANSES), à Sofia-Antipolis, a été nommé laboratoire de référence par la Commission européenne. Ses scientifiques seront chargés de missions nombreuses et variées. Analyser les causes d’intoxication des colonies d’abeilles, améliorer et développer de nouveaux outils diagnostiques, identifier les maladies… Il est urgent d’agir.

 

Source : Picbleu

A lire également :

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur

 

 

 

Découverte d’un acteur inattendu dans la vaccination : notre propre ADN

En effet, il apparaît que, lorsqu’un vaccin contenant de l’alun est injecté, le contact avec l’alun pousse certaines cellules du corps à relâcher leur propre ADN. La présence de cet ADN à l’extérieur des cellules, un endroit où il ne se retrouve pas en conditions normales, agit alors comme un stimulant du système immunitaire et favorise fortement la réponse au vaccin.

L’alun, un sel d’aluminium, est actuellement l’adjuvant de loin le plus largement utilisé. Développé au milieu du 20e siècle, l’alun a largement démontré son efficacité et la bonne sûreté de son utilisation. C’est pourquoi on le retrouve dans de nombreux vaccins. Des dizaines de millions de doses d’alun sont ainsi administrées chaque année, et chaque personne dans nos sociétés occidentales a probablement reçu de l’alun au moins une fois dans sa vie. Pourtant, l’alun a été développé de manière relativement empirique ; la façon dont il aide le système immunitaire à répondre aux vaccins n’était pas bien comprise jusqu’aujourd’hui.

Cette découverte par des chercheurs belges et japonais permet ainsi de mieux comprendre la façon dont fonctionnent les vaccins actuels, et devrait aider à la création de nouveaux adjuvants pour les vaccins du futur. Les mécanismes de réponse à l’ADN mis en évidence dans cette étude permettent notamment d’envisager à terme le développement de nouveaux adjuvants à l’action extrêmement ciblée et efficace.

Pourquoi des adjuvants dans les vaccins ?

Les vaccins constituent l’une des armes les plus efficaces de la médecine moderne pour prévenir l’apparition de maladies infectieuses graves telles que la poliomyélite, l’hépatite B, la diphtérie ou encore le tétanos. La vaccination a notamment permis l’éradication totale de véritables fléaux, tels que la variole, responsable de dizaines de millions de morts. L’espoir est aujourd’hui grand de pouvoir créer des vaccins contre d’autres grandes plaies de l’humanité telles que la malaria, le virus du SIDA, voire certains types de cancer. Ces avancées nécessitent d’importants progrès, notamment dans la compréhension fine des mécanismes de la vaccination.

Un vaccin est une préparation contenant une forme tuée ou atténuée, certains composants ou un substitut synthétique d’un agent infectieux (virus, bactérie) responsable de maladie. Le vaccin, en le stimulant,  » prépare  » notre système immunitaire à se défendre contre un agent infectieux donné. Il nous confère ainsi une protection contre la maladie que ce dernier pourrait causer. Certaines préparations d’agents infectieux, notamment parce qu’elles ne stimulent pas suffisamment par elles-mêmes le système immunitaire, se voient complétées par un adjuvant. Un adjuvant vaccinal est une substance capable d’augmenter la réponse immunitaire induite par un vaccin. L’alun, un sel d’aluminium, est actuellement l’adjuvant le plus utilisé.

Les chercheurs publient cette semaine leurs résultats dans la revue Nature Medicine.

Source : bulletins électroniques

 

A lire également : Un nanomatériau pour lutter plus efficacement contre la grippe

Résultats probants pour les communications optiques en espace libre

Imaginons quatre personnes dans une pièce, avec leur ordinateur portable. Chacune peut  visionner un film en haute définition, grâce aux « communications optiques en espace libre » (COEL), qui utilisent la lumière non seulement pour éclairer un espace, mais aussi comme vecteur de données, base d’un réseau local sans fil (WLAN) optique. Ce sont des DEL standard qui, après quelques modifications mineures, permettent ce transfert de données vers n’importe quel appareil, sans perte de qualité, de manière sûre et rapide.

Un groupe de scientifiques de l’Institut de télécommunications Heinrich Hertz de Berlin, qui fait partie des fameux Instituts Fraunhofer, a développé une nouvelle technologie de transfert pour les données vidéos, dans le champ d’étude du projet européen OMEGA, le rendant plus tangible encore. Les résultats, présentés à Rennes, sont probants : les DEL sont capables de transmettre des données à 100 mégaoctets par seconde (Mo/s), sans aucune déperdition, par le biais d’un plafonnier éclairant une dizaine de mètres carrés. Les récepteurs peuvent se trouver n’importe où dans le rayon d’action du plafonnier, et sont à même de recevoir chacun une vidéo haute définition, simultanément.

La technologie, développée en partenariat avec Siemens et les laboratoires France Télécom Orange, permet à l’aide d’un modulateur (le composant additionnel) sur les DEL (ici de lumière blanche) de transmettre l’information sous forme de 0 et de 1 en éteignant et rallumant les DEL de manière ultra-rapide, rendant ainsi la modulation imperceptible à l’œil nu, tout en fournissant l’éclairage de la pièce. Une simple photodiode sert de capteur à l’ordinateur portable, l’information est alors décodée et traduite en impulsions électriques.

Un inconvénient majeur subsiste :  si quelque chose vient se placer entre la lumière et la photodiode, le transfert échouera. Toutefois, les chercheurs rappellent que cette technologie n’est pas censée remplacer un WLAN habituel, mais peut servir en sus ou bien de manière alternative dans des lieux où les ondes radios ne sont pas les bienvenues ou impossibles, sans nécessiter de nouvel équipement ou de nouveaux câbles, comme par exemple au sein d’un hôpital, ou encore dans un avion. Les chercheurs travaillent en ce moment même sur des transmissions de 800 Mo/s, par le biais de DEL de lumières blanche, rouge, bleue et verte.

Par Rahman Moonzur

 

À lire aussi :

Améliorer la luminosité des LED

Un composé thermo-conducteur remplace l’aluminium dans des DEL

Un réseau de capteurs indépendant énergiquement dans les avions

La maintenance d’un avion est une activité onéreuse et chronophage tant une inspection se doit d’être minutieuse. Il serait évidemment plus simple si un avion pouvait être à même de signaler les parties de l’appareil où cette maintenance est nécessaire. C’est fort de ce constat que l’université de Technologie de Vienne et EADS Allemagne ont uni leurs forces dans le but de développer un réseau de capteurs prenant place au sein même de l’appareil, et tout à fait indépendant pour ce qui est de son alimentation. Chaque capteur serait alimenté par un générateur thermoélectrique relié à un mini réservoir d’eau stockant l’énergie thermique. L’électricité est alors simplement produite par la différence de température entre l’air glacial à haute altitude et l’air à l’intérieur de l’appareil.

La moindre fissure, la moindre entaille sur le revêtement d’un appareil est relativement difficile à repérer sur une surface composite carbone, alors qu’avec un réseau de capteurs adaptés et directement connectés à l’appareil, le contrôle pourrait être immédiat et continu. L’alimentation de ce genre de réseau de capteurs pouvant poser problème (relier et brancher des centaines de capteurs à l’intérieur de l’appareil s’avère compliqué et extrêmement coûteux), les chercheurs en sont donc venus assez naturellement à penser à utiliser l’énergie thermoélectrique.

Ce système utiliserait non seulement la différence de température entre l’extérieur de l’appareil à haute altitude et l’intérieur, utilisant le gradient de température, mais aussi inversement lors de l’atterrissage, lorsque l’extérieur de l’avion se trouve être plus chaud que l’intérieur. Conçu pour tenir dans le creux de la main, le système pourrait s’intégrer facilement au corps de n’importe quel avion et s’adapter aux demandes d’énergies ou à d’autres applications. Cette nouvelle technologie ne faciliterait pas seulement la maintenance, mais pourrait aussi améliorer le confort des passagers.

Par Rahman Moonzur

Comment façonner des structures supraconductrices à l’envi

Dans un article paru dans le journal Nature Materials, un groupe de scientifiques du Centre de Nanotechnologie de Londres (LCN) et du département de physique de l’université romaine de Sapienza rapporte avoir découvert un moyen innovant de façonner des structures supraconductrices à l’aide de rayons X, les supraconducteurs pouvant conduire de l’électricité sans aucune résistance. Et donc sans aucune perte.

Le groupe a démontré pouvoir manipuler une zone de supraconductivité à haute température dans un matériau combinant oxygène, cuivre et lanthane, de la famille des terres rares. Les rayons X provoquent dans le matériau un réarrangement à petite échelle des atomes d’oxygène, causant la supraconductivité à haute température. Il suffit alors de se servir du faisceau de rayons X comme d’un crayon pour dessiner des formes à deux dimensions. Les dimensions des supraconducteurs peuvent être encore plus petites que la largeur d’un cheveu humain.

À l’aide d’un traitement à base de chaleur, les scientifiques sont à même d’effacer ces structures, qu’ils ont les moyens de créer ou d’effacer avec une grande précision, sans l’aide des produits chimiques habituellement utilisés. Cette faculté de réarrangement de la structure d’un matériau prend toute son ampleur dans l’application plus large des composés métal-oxygène, allant des piles à combustibles aux catalyseurs.

La découverte d’une « technique pouvant produire des supraconducteurs en une étape et sans traitement chimique ouvre de nombreuses et excitantes possibilités, en particulier dans la réécriture de circuits logiques supraconducteurs », explique le professeur Aeppli, directeur du centre londonien de nanotechnologie. « Nous sommes à deux pas d’une véritable révolution conceptuelle » ajoute-t-il.

Par Rahman Moonzur

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : Les nanomatériaux : propriétés et applications

 

Une exoplanète en diamant ?

En se penchant sur les données récoltées par les radiotélescopes anglais et australiens de ces dernières années, une équipe de chercheurs internationaux a réussi à mettre le doigt sur une anomalie pour le moins intéressante : le signal radio du pulsar milliseconde PSR J1719-1438, sorte d’étoile à neutrons dont la période de rotation est entre une et dix millisecondes, se trouve être modulé de manière périodique, signe qu’un astre est en orbite autour de celui-ci.

Se situant à près de 4 000 années-lumière de la Terre, dans la constellation du Serpent, l’exoplanète est distante de seulement 600 000 kilomètres du pulsar milliseconde (d’une masse équivalente au soleil) autour duquel elle gravite. Les forces de marées (autrement dit « l’accélération gravitationnelle ») aurait normalement dû la réduire en poussière si sa masse (à peu près équivalente à celle de Jupiter) et sa taille (un diamètre un peu en dessous des 60 000 kilomètres) avaient été légèrement supérieures.

Se basant sur ses observations, l’équipe d’astronomes tend vers une hypothèse étonnante : étant en présence d’une exoplanète à la densité très élevée, et étant donné que son cœur est essentiellement constitué de carbone (l’oxygène se fait de plus en plus rare en avançant vers le noyau), ce carbone pourrait bien se trouver sous forme cristallisée, se rapprochant donc… du diamant.

Il reste difficile à dire s’il s’agit bien de diamant à proprement à parler, comme le rappelle le professeur Ben Stappers, de l’université de Manchester, et le mystère demeure toujours sur l’aspect que peut bien avoir ce « diamant stellaire ».

Par Rahman Moonzur

 

À lire aussi :

Des diamants dans le manteau de la Terre

Vers la production industrielle de nanodiamants fluorescents

De l’eau sous forme liquide sur Mars ?

EPR Flamanville : des malfaçons dans le gros oeuvre relevées par l’ASN

Selon l’hebdomadaire satirique, le « gendarme du nucléaire » a adressé à EDF, l’exploitant, « entre octobre 2010 et août 2011, quatre lettres au vitriol qui mettent en cause la qualité de plusieurs constructions vitales pour la sécurité du futur réacteur EPR », dont la construction est assurée par Bouygues.

Les inspecteurs de l’ASN ont relevé des trous dans des piliers en béton ou des défauts dans les parois de piscines destinées à recevoir le combustible nucléaire irradié, affirme le journal.

« Les travaux béton visés par les lettres de l’ASN citées dans cet article sont encore en cours et n’ont même pas été réceptionnés par EDF », a précisé le ministère chargé de l’Industrie, de l’Énergie et de l’Économie numérique. Les observations de l’ASN seront bien entendu prises en compte dans le cadre de ce chantier en cours », a-t-il réagi dans un bref communiqué.

L’ASN, contactée par l’AFP, a confirmé l’envoi à EDF de « quatre courriers, dont deux sont des « lettres de suite » disponibles sur le site internet de l’ASN, les deux autres étant des courriers d’échanges techniques » consécutifs aux inspections régulières menées sur le site.

L’autorité précise, dans son dernier courrier en date du 10 août, que certaines des malfaçons constatées sont de nature à « porter préjudice à la qualité finale des structures », selon des termes rapportés par l’hebdomadaire et confirmés par l’ASN.

« Les trous dans le béton, les nids de cailloux (zone manquant de ciment) au sens large, c’est une problématique courante du génie civil. EDF, en tant qu’exploitant, se doit de les identifier et de les réparer », souligne Simon Huffeteau, chef de la division de Caen à l’ASN.

« Les réparations sont évidemment obligatoires », ajoute-t-il.

EDF n’a pas souhaité faire de commentaire.

La semaine dernière, l’ASN avait indiqué avoir constaté des « écarts » et « faiblesses » lors d’une inspection du site de construction du réacteur EPR et demandé à EDF de « faire des efforts importants pour démontrer la qualité de la construction ».

La mise en service de l’EPR de Flamanville (Manche), le premier réacteur nucléaire de troisième génération, n’est plus attendue que pour 2016, avec deux ans de retard sur la date initiale, avait annoncé EDF fin juillet.

(Source et crédit photo : AFP)

 

À lire aussi :

EPR de Flamanville : des « écarts » selon l’ASN

La sûreté nucléaire en France, au centre des débats

Un audit va être réalisé sur le parc nucléaire français

Une mini-centrale nucléaire sous-marine en 2017 ?

Nucléaire : il n’y a pas de risques de prolifération avec les réacteurs actuels

L’éco-conception sans concession

La nécessité du développement durable

Partout à travers le monde, chaque génération espère que la suivante aura une vie meilleure, plus facile et plus confortable. Au cours du dernier siècle, les privilèges réservés aux nantis se sont démocratisés au point que beaucoup sont aujourd’hui des nécessités du quotidien, y compris dans les pays émergents : conduire une voiture, parcourir le monde en avion, posséder un ordinateur, se connecter partout à Internet, se servir d’un téléphone portable…  La planète ne pourra pourtant pas soutenir éternellement une croissance aussi exponentielle. Des alertes naturelles nous ont déjà sensibilisés aux problèmes liés à la surconsommation, et de nombreux scientifiques s’évertuent à démontrer combien nos comportements mettent la planète, et l’espèce humaine, en danger.

Les sources d’énergies fossiles se tarissent rapidement alors que dans le même temps les émissions que dégagent ces combustibles nuisent à l’environnement et à son évolution naturelle. Nous stockons d’énormes quantités de déchets en espérant que la Terre s’en accommode avec le temps. Nous sommes majoritairement conscients que de telles pratiques ne peuvent plus durer, et si de plus en plus d’individus se mobilisent pour faire changer les choses, beaucoup ne sont pourtant pas prêts à sacrifier leur confort personnel.

Une réticence à revenir sur les acquis du progrès

On pourrait aujourd’hui rouler dans des voitures plus écologiques, c’est un fait. Mais qui dans le monde accepterait d’en payer le prix additionnel ? Surtout pour des performances inférieures, des véhicules plus lents et beaucoup moins nerveux. En théorie, tout le monde est favorable aux immeubles plus écologiques, mais dans la pratique, sommes-nous prêts à tolérer des températures plus basses en hiver et plus chaudes en été ? En définitive, l’opinion se dit prête à passer aux énergies renouvelables, mais à condition que l’énergie s’en trouve moins chère et que sa disponibilité soit garantie. Bel idéal ! Mais pensons-nous réellement le concrétiser sans faire de concession individuelle ?

Il est clair que les approches et technologies traditionnelles ne permettront pas d’atteindre de tels objectifs de développement durable. De vraies ruptures technologiques sont nécessaires, dans trois domaines principaux :

  • Meilleure gestion de l’énergie : Les combustibles fossiles restent une source d’énergie importante, mais elle pourrait être utilisée de façon plus sélective et plus efficace, tout en développant l’exploitation des sources d’énergies renouvelables. Les secteurs comme les transports, la construction et la fabrication industrielle doivent évoluer pour consommer moins d’énergie.
  • Réduction de la pollution : Nos modes de vie libèrent dans l’environnement d’énormes quantités de substances, très difficiles à absorber et à recycler sans impact direct sur la planète.
  • Cycle de vie des produits : Une fois arrivés en fin de vie, les produits deviennent rapidement des déchets. Et le raccourcissement du cycle de vie des produits impacte directement la quantité des déchets.

Les nouvelles technologies de simulation, appliquées à la transformation des matériaux recyclés en de nouveaux produits, à l’amélioration des moteurs et à l’exploitation efficace d’énergies nouvelles et existantes s’avèrent très utiles et financièrement avantageuses.

Expérimentations virtuelles, tests virtuels et prototypes virtuels

S’il est de bon ton aujourd’hui de préférer les procédés et les produits durables, il apparait de plus en plus évident que l’éco-conception deviendra incontournable à l’avenir, imposée à la fois par la législation et par les pressions du marché en faveur de solutions plus éco-responsables. Des précurseurs et de grands groupes industriels se préparent déjà à cette évolution inéluctable en commençant à concevoir des solutions durables.

Mais l’enjeu est de taille : fabriquer des produits respectueux de l’environnement nécessitera assurément des innovations majeures, avec tout ce que cela  suppose comme impacts sur le coût et la résilience. Innovation rime souvent avec expérimentations intensives et efforts d’optimisation. Les solutions réellement révolutionnaires nécessitent des tests intenses et systématiques pour s’assurer de leur bon comportement tout au long du cycle de vie. Or les processus de test et d’expérimentation requièrent souvent de lourds investissements, en temps et en argent, et peuvent être  compliqués à gérer. Dans un contexte ultra concurrentiel, les entreprises qui s’en sortent le mieux sont celles qui optent pour la « virtualisation ».

De nombreux rapports et études suggèrent que l’on pourrait faire davantage d’expérimentations virtuelles que d’essais physiques, pour un coût moindre. Les équipes d’ingénieurs peuvent en effet ajuster différents paramètres et identifier la meilleure combinaison en vue d’une conception durable, d’un coût minimal et de performances maximales. Les entreprises leaders  testent systématiquement des prototypes virtuels en leur faisant subir les conditions susceptibles d’être rencontrées durant leur cycle de vie afin d’acquérir la certitude que ces produits innovant satisferont les utilisateurs. Leurs efforts sont facilités par l’augmentation exponentielle de la puissance de calcul associée à des solutions de simulation hautes performances : on estime que le nombre ou la complexité des tests virtuels sont amenés à doubler tous les 18 mois, sans impacter les coûts ni des délais de commercialisation !

Conception robuste et optimisation

La notion de développement durable ajoute à la conception une nouvelle dimension, souvent difficile à appréhender avec les technologies standards. Pour concevoir des produits écologiques et intelligents ayant un haut niveau d’intégrité et de qualité, il faut étudier un nombre croissant de paramètres portant notamment sur les dimensions, les matériaux et les conditions de fonctionnement, afin d’apporter un maximum de flexibilité aux ingénieurs qui doivent répondre à un grand nombre de contraintes. Une conception robuste suppose d’identifier les paramètres influents et d’évaluer la sensibilité de ces paramètres aux différentes conditions de fonctionnement.

L’utilisation d’outils avancés comme la simulation numérique permet la combinaison d’études paramétriques et d’analyse de sensibilité impliquant désormais de très nombreux paramètres (robust design and optimisation), augurant d’une toute nouvelle ère de l’éco-conception.

La simulation au service de l’ingénierie : une technologie écologique et rentable
La simulation a démontré sa capacité à permettre le développement de produits innovants pour un coût raisonnable. La même technologie peut très bien s’appliquer à la conception de produits et procédés plus écologiques. Les entreprises pionnières, soucieuses que les produits qu’elles fabriquent soient à l’avenir plus propres et plus rentables, ont déjà commencé à adapter leurs procédés de conception et adoptent très largement les technologies de simulation pour faire du défi écologique une opportunité commerciale majeure.

Par Thierry Marchal

A lire également :

Découvrez les formations Techniques de l’Ingénieur :

REACH : les news du mois d’août (2/2)

Cinq nouvelles demandes de classification et d’étiquetage harmonisés

(29/07/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de :

  • Amidosulfuron (3-(4,6-dimethoxypyrimidin-2-yl)-1-((N-methyl-N-methylsulfonylamino) sulfonyl)urea) (N° CAS : 68424-43-1 et N° CE : 270-302-7)
  • Triadimenol (α-tert-butyl-β-(4-chlorophénoxy)-1H-1,2,4-triazole-1-éthanol) (N° CAS : 55219-65-3 et N° CE : 259-537-6)
  • Acrolein (acrylaldéhyde) (N° CAS : 107-02-8  et N° CE : 203-453-4)
  • 3-Iodo-2-propynylbutylcarbamate (butylcarbamate de 3-iodo-2-propynyle)(N° CAS : 55406-53-6 et N° CE : 259-627-5)
  • Tebufenpyrad (N° CAS : 119168-77-3)

Les commentaires sont à soumettre avant le 12 septembre 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Atelier sur REACH & CLP le 19 octobre à Bruxelles

Un atelier sur REACH et le CLP est organisé le 19 octobre prochain à Bruxelles par Chemical Watch, en collaboration avec l’ECHA. L’objectif de cet atelier est d’apporter des réponses précises et techniques sur la mise en conformité REACH et CLP. Un panel d’experts composés de l’ECHA, du CEFIC, de Chemical Watch, d’EcoMundo, répondra aux questions d’une centaine de participants. La seconde édition de cet événement se tiendra à Bruxelles, le 19 octobre 2011. De nombreux sujets liés à la mise en application de REACH seront traités, tels que l’interprétation de l’article 33 de REACH, les problématiques liées au recours à un intermédiaire ou encore comment et quand user de son droit de recours.
Retrouvez toutes les informations sur : http://chemicalwatch.com/REACH-enforcement

Conférence organisée par l’ECHA le 23 septembre 2011

Derniers jours pour s’inscrire …
L’ECHA organise, le 23 septembre prochain, une conférence sur l’enregistrement dans le cadre de REACH : Retour d’expérience de 2010 et piste d’amélioration pour 2013. Les inscriptions doivent se faire avant le 9 septembre 2011 (login : chemical – mot de passe : regulation).

Nouvelle version de l’outil CHESAR pour l’évaluation et le rapport de la sécurité chimique rapport sur la sécurité chimique

(05/08/2011)
L’ouitl Chesar est conçu pour aider les entreprises à mener leurs évaluations de la sécurité chimique (CSA) et à préparer leurs rapports de sécurité chimique (CSR). L’outil développé par l’ECHA est un plug-in pour IUCLID 5. La version 1.2 de Chesar peut maintenant être téléchargée sur le site Chesar.
http://chesar.echa.europa.eu/
http://echa.europa.eu/news/na/201108/na_11_32_chesar_20110805_en.asp

Entreprises ayant enregistré des substances sans prendre part à un Forum (SIEF)

(10/08/2011)
L’ECHA a remarqué que certains enregistrements de substances avaient vraisemblablement été soumis par des entreprises sans qu’aucune participation à un FEIS (forum d’échange d’informations sur les substances) n’ait eu lieu. Les déclarants qui se trouvent dans cette situation sont vivement encouragés à vérifier que leur enregistrement est conforme aux obligations de partage des données et de soumission conjointe. Les déclarants peuvent contacter le service d’assistance de l’ECHA afin d’obtenir les coordonnées des déclarants ayant enregistré la même substance.
Plus d’informations sur :
http://echa.europa.eu/news/na/201108/na_11_33_same_substance_registrants_20110810.asp
http://echa.europa.eu/doc/press/na_11_33/na_11_33_same_substance_registrants_20110810_fr.pdf

Mise à jour de la liste des substances enregistrées

(10/08/2011)
La base de données de l’ECHA contenant des informations sur les substances enregistrées contient 4260 enregistrements. 3809 substances phase-in publiables sont répertoriées sur un total de 5012 substances phase-in enregistrées.
Retrouvez toutes les informations sur :
http://apps.echa.europa.eu/registered/registered-sub.aspx

Informations pour éviter les essais inutiles sur les animaux – 26 nouvelles substances concernées

(16/08/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • acides gras de lanoline (N° CAS : 68424-43-1 et N° CE : 270-302-7)
  • Amides, C22 (insaturé)
  • Amides, C18 (insaturé) : tests proposés avec erucamide ((Z)-docos-13-enamide) (N° CAS 112-84-5)
  • Amides, C16-C18 (pair), N,N’-ethylenebis (N° CE : 931-299-4)
  • Amides, C8-18 (pair) et C18 (instauré), N-(2-hydroxypropyl)
  • Amides, C16-C18 (pair) : tests proposés avec erucamide ((Z)-docos-13-enamide) (CAS 112-84-5)
  • Tricyclodécanediméthanol (N° CAS : 26896-48-0 et N° CE : 248-096-5)
  • hydrocarbures en C12-30 riches en oléfines, sous-produit de polymérisation de l’éthylène (tests proposés avec l’oct-1-ène (N° CAS 111-66-0)) (N° CAS : 68911-05-7 et N° CE : 272-762-4)
  • Alcènes, C15-18 (tests proposés avec l’oct-1-ène (N° CAS 111-66-0)) (N° CAS : 93762-80-2 et N° CE : 297-797-2)
  • Alcènes, C16-18 (tests proposés avec l’oct-1-ène (N° CAS 111-66-0)) (N° CE : 900-050-1)
  • Amines, N-suif-triméthylènediamines, propoxylés (tests proposés avec le propanol-2, [[[(amino-3 propyl)amino]-3 propyl]imino]-1,1′ bis-, dérivés N-alkyles de suif (N° CE : 307-276-4) (N° CE : 614-637-2)
  • propanol-2, [[[(amino-3 propyl)amino]-3 propyl]imino]-1,1′ bis-, dérivés N-alkyles de suif (N° CAS : 97592-79-5 et N° CE : 307-276-4)
  • Produits de réaction du 1H-Imidazole-1-ethanol, 4,5-dihydro-, dérivés alkyle de 2-(C7-C17 impairs, C17-insaturé) et de l’hydroxyde de sodium et l’acide chloroacétique
  • Asphalte (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 8052-42-4 et N° CE : 232-490-9)
  • bitume oxydé (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 64742-93-4 et N° CE : 265-196-4)
  • résidus sous vide (pétrole), craquage thermique (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 92062-05-0 et N° CE : 295-518-9)
  • résidus (pétrole), hydrogénation de résidu de distillation (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 100684-39-7 et N° CE : 309-712-9)
  • résidus (pétrole), hydrogénation de résidu de distillation sous vide (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 100684-40-0 et N° CE : 309-713-4)
  • résidus sous vide (pétrole) (tests proposés avec des condensats de fumée provenant du bitume) (N° CAS : 64741-56-6 et N° CE : 265-057-8)
  • Produit de réaction de distillats du pétrole traités à l’acide naphténique lourd et de l’oxyde de calcium
  • Réaction en masse du poly(oxy-1,2-diyl), ?-[2-[(2-hydroxyethyl)amino]-2-oxoethyl]-?-hydroxy-, mono-C13-15-alkyl éthers (impairs, ramifiés et linéaires)-alkyléthers, de l’acétamide, 2-(C13-15 (impaires, ramifié et linéaire)-alkyloxy)-N-(2-hydroxyéthyl) – et des alcools, C13-15 ramifiés et linéaires (N° CE : 628-863-4)
  • Produit de condensation de la N-C12-C18-alkylpropane-1,3-diamine, de la N-(3-aminopropyl)-N’-C12-C18-alkylpropane-1,3-diamine et de l’acide formique (N° CE : 641-088-6)
  • cendres volantes, ciment Portland (N° CAS : 68475-76-3 et N° CE : 270-659-9)
  • combustibles diesels (tests proposés avec une large gamme de gasoil – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 68334-30-5 et N° CE : 269-822-7)
  • fuel-oil, n°4 (tests proposés avec une large gamme de gasoil – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 68476-31-3 et N° CE : 270-673-5)
  • hexyl 2-(1-(diethylaminohydroxyphenyl)methanoyl)benzoate (N° CAS : 302776-68-7 et N° CE : 443-860-6)

Les informations sur ces substances sont à soumettre pour le 30 septembre 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Trois nouvelles demandes de classification et d’étiquetage harmonisés

(17/08/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de :

  • Cycloxydim (N° CAS : 101205-02-1 et N° CE : 405-230-9)
  • Fenoxycarb ([2-(4-phénoxyphénoxy)éthyl]carbamate d’éthyle) (N° CAS : 72490-01-8 et N° CE : 276-696-7)
  • 2,5-dichlorobenzoate de méthyle (N° CAS : 2905-69-3  et N° CE : 220-815-7)

Les commentaires sont à soumettre avant le 1er octobre 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Guide sur le règlement CLP

(18/08/2011)
Le guide sur l’étiquetage et l’emballage conformément au règlement (CE) n° 1272/2008 est paru en 22 langues. Retrouvez la version française sur :
http://guidance.echa.europa.eu/docs/guidance_document/clp_labelling_fr.pdf

Plug-in TCC disponible en version 5.3.1

(19/08/2011)
Le plug-in du contrôle de complétude (TCC) est disponible en version 5.3.1 depuis le 19 août. Il offre désormais la possibilité de contrôler l’ensemble des données concernant les substances et les dossiers pour les notifications de demande au moyen d’un contrôle d’identité de substance (SID). Cet outil a été conçu pour aider les entreprises à identifier les champs dans IUCLID qui devraient être remplis ou faire l’objet d’une attention particulière.
Plus d’information sur :
http://echa.europa.eu/doc/press/na_11_34/na_11_34_tcc_update_20110819_fr.pdf
Plug-in téléchargeable sur :
http://iuclid.echa.europa.eu/index.php?fuseaction=home.news&type=public&id=52

Tableau de synthèse sur les FDS et les dispositions transitoires

(26/08/2011)
L’INERIS, helpdesk français pour les règlements REACH et CLP, a mis en ligne un tableau de synthèse sur les FDS et les dispositions transitoires.
http://www.ineris.fr/reach-admin/file_upload/File/pdf/Actu/FDS_phase_transitoire%282%29.pdf

Consultation publique sur 20 potentielles substances SVHC (Substances of very high concern)

(26/08/2011)
L’ECHA a lancé une consultation publique sur les projets de recommandation de 20 substances à inclure à la liste des substances SVHC (substances extrêmement préoccupantes et potentiellement candidates pour l’autorisation). Les substances concernées sont cancérigènes et/ou toxiques pour la reproduction :

  • dipicrate de plomb (N° CAS : 6477-64-1 et N° CE : 229-335-2)
  • 2,4,6-trinitro-m-phénylenate de plomb (N° CAS : 15245-44-0 et N° CE : 239-290-0)
  • diazoture de plomb (N° CAS : 13424-46-9 et N° CE : 236-542-1)
  • phénolphtaleine (N° CAS : 77-09-8 et N° CE : 201-004-7
  • 4,4′-méthylènebis[2-chloroaniline] (MOCA) (N° CAS : 101-14-4 et N° CE : 202-918-9
  • N,N-dimethylacétamide (DMAC) (N° CAS : 127-19-5 et N° CE : 204-826-4)
  • diarsénate de triplomb (N° CAS : 3687-31-8 et N° CE : 222-979-5)
  • arsénate de calcium (N° CAS : 7778-44-1 et N° CE : 231-904-5)
  • acide arsenique (N° CAS : 7778-39-4 et N° CE : 231-901-9)
  • oxyde de bis(2-méthoxyéthyle (N° CAS : 111-96-6 et N° CE : 203-924-4)
  • 1,2-dichloroéthane (N° CAS : 107-06-2 et N° CE : 203-458-1)
  • 4-(1,1,3,3-tétraméthylbutyl)phénol (N° CAS : 140-66-9 et N° CE : 205-426-2)
  • o-anisidine (N° CAS : 90-04-0 et N° CE : 201-963-1)
  • phtalate de bis(2-méthoxyéthyle) (N° CAS : 117-82-8 et N° CE : 204-212-6)
  • Formaldéhyde, produits de réaction oligomère avec l’aniline (MDA technique) (N° CAS : 25214-70-4 et N° CE : 500-036-1)
  • Fibres céramiques réfractaires en aluminosilicate de zircone (Zr-RCF)
  • Fibres céramiques réfractaires en aluminosilicate (RCF)
  • octahydroxychromate de pentazinc (N° CAS : 49663-84-5 et N° CE : 256-418-0)
  • hydroxyoctaoxodizincatedichromate(1-) de potassium (N° CAS : 11103-86-9 et N° CE : 234-329-8)
  • tris(chromate) de dichrome (N° CAS : 24613-89-6 et N° CE : 246-356-2)

Les commentaires sont à soumettre jusqu’au 13 octobre 2011.
53 Substances sont d’ores et déjà présentes sur la liste candidate.
http://echa.europa.eu/consultations/authorisation/svhc/svhc_prev_cons_en.asp

Newsletter de l’ECHA

(29/08/2011)
La 4è newsletter de l’ECHA vient de paraître.
http://echa.europa.eu/doc/press/newsletter/echa_newsletter_2011_4.pdf

Trois nouvelles demandes de classification et d’étiquetage harmonisés

(30/08/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage de :

  • Acide benzoïque (N° CAS : 65-85-0 et N° CE : 200-618-2)
  • Thixatrol MAX (produits de réaction du N,N’-ethane-1,2-diylbis(hexanamide, du 12-hydroxy-N-[2-[(1-oxyhexyl)amino]ethyl]octadecanamide et du N,N’-ethane-1,2-diylbis(12-hydroxyoctadecanamide) (N° CE : 432-430-3)
  • Tralkoxydim (N° CAS : 87820-88-0)

Les commentaires sont à soumettre avant le 14 octobre 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Exemples de scénarios d’exposition

(31/08/2011)
L’ECHA vient de publier deux exemples de scénarios d’exposition : le premier concerne l’usage professionnel d’une substance dans les revêtements de sol ; le second, l’utilisation par le consommateur d’une substance dans les produits de nettoyage.
Retrouvez ces deux exemples sur :
http://echa.europa.eu/news/na/201108/na_11_36_example_scenarios_20110831_en.asp

Nouveau chapitre dans le guide relatif aux informations requises et évaluation de sécurité chimique

(31/08/2011)
L’ECHA a publié un nouveau chapitre dans le guide relatif aux informations requises et évaluation de sécurité chimique : chapitre B8 – Etendue de l’évaluation de l’exposition.
Ce nouveau chapitre a pour but d’aider les déclarants à déterminer l’étendue de l’évaluation de l’exposition sur la base des résultats de l’évaluation des dangers pour leur substance. Des éléments sur la façon d’évaluer l’exposition et sur la caractérisation des risques sont déjà contenus dans d’autres chapitres du guide relatif aux informations requises et évaluation de sécurité chimique.
http://echa.europa.eu/news/na/201108/na_11_35_scope_exp_assessment_20110831_en.asp
Le guide est téléchargeable à l’adresse :
http://guidance.echa.europa.eu/docs/guidance_document/information_requirements_part_b_en.pdf?vers=31_08_11

Le règlement REACH bientôt révisé

Cinq ans après son adoption, la Commission s’apprête à revoir le règlement controversé REACH qui oblige les fabricants de produits chimiques à prouver que leurs produits ne sont pas dangereux pour les consommateurs. La négociation du règlement REACH, finalement adopté en 2006, a donné lieu à l’un des plus grands bras de fer entre lobbies de l’histoire de l’UE. Cinq ans plus tard, la Commission européenne s’apprête à revoir cette législation controversée, qui visait à protéger les consommateurs et l’environnement des effets nocifs des produits chimiques toxiques.
Plus d’information sur : http://www.euractiv.fr/reglement-reach-bientot-revise-article

Prochaine échéance pour l’autorisation : février 2013

La première annexe XIV listant les substances soumises à autorisation a été publiée en février 2011. Pour 2 de celles-ci, le musc-xylène (N°CE 201-329-4) et le MDA (N°CE 202-974-4), les premières demandes d’autorisation devront être déposées avant le 21 février 2013.
Informations complémentaires sur le site du helpdesk : http://www.ineris.fr/reach-info/
Pour les contacter : du lundi au vendredi de 9h00 à 12h00 au 0820 20 18 16.

Par Céline Nectoux, ingénieur environnement CNRI

Les dernières NEWS REACH :

Et aussi :

 

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

 

 

News Environnement / Sécurité / Energie de août

Calcul du risque dans les investissements publics

Le Centre d’analyse stratégique vient de publier le rapport et la note de synthèse : Le calcul du risque dans les investissements publics. Toute décision comporte une part d’incertitude et implique une prise de risque, au niveau individuel comme au niveau collectif. La prévention et la gestion des risques sont ainsi depuis quelques années des thèmes majeurs du débat public, notamment au regard de la mise en oeuvre effective et raisonnée du principe de précaution.

De nombreuses questions se posent : comment définir un risque acceptable ou une prévention optimale ? Comment organiser la société pour gérer efficacement les risques ? Quel est dans ce contexte le rôle de l’État ? Elles sont déterminantes dans les évaluations des projets d’investissement (agriculture, santé, transport, énergie, environnement…). Pendant un peu plus d’un an, une commission d’experts s’est réunie au Centre d’analyse stratégique sous la présidence de Christian Gollier, directeur de la Toulouse School of Economics (TSE), afin de définir un cadre économique opérationnel pour intégrer le risque dans les évaluations.

Le rapport préconise cinq recommandations pour l’optimisation des décisions publiques face aux risques :

  • Intégrer systématiquement les risques dans l’évaluation économique des projets d’investissement en cherchant à les identifier, à les qualifier puis à les quantifier.
  • Utiliser, dans les calculs, des démarches probabilistes et raisonner sur l’espérance des gains et des coûts engendrés par le projet.
  • Introduire une prime de risque dans les calculs lorsque les fondamentaux du projet sont fortement corrélés à l’activité économique.
  • Lancer une révision du taux d’actualisation sans risque destinée à le rendre compatible avec la valeur de la prime de risque utilisée dans le calcul.
  • Mieux valoriser les projets qui favorisent la flexibilité dans les situations d’incertitude.

Le calcul socioéconomique est un outil incontournable pour éclairer la décision publique. Il reste insuffisamment pratiqué en France, contrairement à ce qui s’observe dans d’autres pays et contrairement aux exigences d’évaluation qui se renforcent dans tous les domaines de la sphère publique. L’intégration du risque dans le calcul économique représente une amélioration considérable du calcul économique traditionnel. L’analyse ainsi enrichie, plus pertinente au regard du principe de précaution, constitue une réponse aux préoccupations de développement durable dans un cadre raisonné.

Moteurs au gaz naturel : quels lubrifiants ?

Mobil SHC Pegasus, dernière génération des huiles pour moteurs fonctionnant au gaz naturel, propose des avantages significatifs aux exploitants dans les secteurs de l’énergie, de la compression des gaz et de l’exploitation des serres. Les objectifs fixés lors de son lancement, il y a maintenant 12 mois, ont été largement dépassés. Certains exploitants ont acquis une expérience qui leur permet d’adopter des périodicités de vidange bien supérieures à celles initialement prévues.

 
Les clients américains et européens ont bénéficié de l’introduction de Mobil SHC Pegasus pour une gamme de moteurs développés par les plus grands constructeurs (OEM) : notamment Jenbacher, Caterpillar et Waukesha. En France, Dalkia, leader européen des services auprès des collectivités locales et des entreprises dans le secteur de l’énergie, a mesuré le niveau de performances de Mobil SHC Pegasus 30, en termes de gain d’efficacité de production électrique obtenu, sur un moteur Caterpillar G3516. Les mesures ont mis en évidence un gain de l’ordre de 1,5 %  avec Mobil SHC Pegasus 30 sur une période de deux mois, comparé à une huile standard pour moteurs fonctionnant au gaz naturel.
 
“Depuis le lancement de Mobil SHC Pegasus, les équipes de Mobil Lubrifiants Industriels travaillent en étroite collaboration avec leurs clients ainsi qu’avec les principaux constructeurs européens et américains dans le but d’évaluer sur le terrain le niveau de performances de Mobil SHC Pegasus,” nous confie Kathleen Tellier, qui travaille dans l’organisation « Products Research and Technology, ExxonMobil Research and Engineering », une division d’ExxonMobil Corporation. “Les résultats à ce jour sont exceptionnels et nous procédons actuellement à des essais complémentaires, en laboratoire et sur le terrain, dans le but de mettre à jour de nouveaux atouts économiques tels qu’une extension de la durée de vie des filtres. Cela permettrait aux exploitants d’augmenter les périodicités d’entretien et de franchir ainsi un palier supplémentaire dans l’exploitation des moteurs.”
 
Enogex, l’une des plus importantes compagnies de transport de gaz naturel, ainsi que des sociétés de service américaines, ont étudié la possibilité d’augmenter les périodicités de vidange en se basant sur la durée de vie de Mobil SHC Pegasus. Ainsi, Enogex a démonté un moteur Caterpillar G3516 après l’avoir fait tourner pendant plus de 16 000 heures sans vidange avec Mobil SHC Pegasus 30. Les différents composants (pistons, chemises, paliers,…) ont été trouvés en excellent état de propreté, ainsi qu’avec  un niveau d’usure très faible. Une amélioration d’efficacité de l’ordre de 1,5 % a aussi été mise en évidence.
Ces résultats montrent que l’huile Mobil SHC Pegasus permet d’augmenter les intervalles de vidange de quatre à huit fois comparées aux huiles standard pour moteurs à gaz, et permet des économies de carburant de l’ordre de 1,5 %*.
 
D’autres clients en Allemagne, aux Pays-Bas et aux Etats-Unis ont aussi remarqué qu’utiliser Mobil SHC Pegasus permettait d’augmenter le rendement énergétique et d’accroître les périodicités de vidange sur des moteurs Jenbacher J412 et Waukesha P9390GL. Ces avantages, en plus des économies réalisées sur le traitement des huiles usées et sur l’augmentation de la durée de vie des organes lubrifiés, permettent aussi de contribuer à améliorer durablement la compétitivité des entreprises exploitant des moteurs qui fonctionnent au gaz naturel.

Nominations : Philippe RABUT Directeur Général Adjoint d’AFNOR Certification

Le 1er juillet, Philippe RABUT a pris ses fonctions en tant que Directeur Général Adjoint d’AFNOR Certification auprès de la directrice générale Florence Méaux. Il succède à Jacques Beslin qui a fait valoir ses droits à la retraite. Né en 1966, Philippe RABUT, diplômé de l’Ecole Supérieure de Commerce de Toulouse, a débuté sa carrière dans le groupe PSA en 1990. Il y occupe différentes responsabilités au sein de la direction des activités de financement et de la direction des achats. Il intègre en 1997 Dekra Industrial (ex Norisko), l’une des principales sociétés d’inspection industrielle et de bâtiments en France. Il y prend successivement les fonctions de directeur grands comptes (1997) et directeur commercial et marketing (2000).

En 2002, il prend la direction générale de la filiale dédiée au diagnostic immobilier et est nommé au directoire du groupe. Depuis 2006, il est plus particulièrement en charge du développement et de la stratégie. Par ailleurs, de 2004 à 2009, il préside également la Fédération Professionnelle du Diagnostic Immobilier (FIDI).

Les économies d’eau : un vrai enjeu

A l’heure où les avis de sécheresse se multiplient, et avec eux les restrictions d’eau, les équipements Eco-Techniques sont plus que jamais essentiels. En effet, les régulateurs de jet et autres douchettes hydro-économes permettent de vraies économies : la consommation peut être réduite jusqu’à 50% dans le respect des normes HQE !

Une économie peut en cacher une autre… ou plus ! L’aqualogie, c’est cette science, développée par Eco-Techniques, qui s’attache à limiter notre consommation d’eau sans nuire à notre confort. Une science qui permet de vraies économies pour cette précieuse ressource… mais pas seulement elle ! Car économiser l’eau, c’est également économiser l’énergie en général. L’énergie nécessaire pour chauffer l’eau d’abord : en limitant la quantité d’eau nécessaire pour une douche ou pour un usage domestique, on limite automatiquement l’énergie dépensée pour l’amener à température confortable ou efficace, et ce jour après jour ; sans oublier l’économie de CO2, cerise sur le gâteau. Et abaisser la consommation d‘eau, c’est aussi limiter la quantité d’eau usée à traiter ce qui, là aussi, peut entraîner de substantielles économies pour la société et pour la planète dans son ensemble !

Ainsi, aujourd’hui, adopter les équipements Eco-Techniques pour limiter le débit des douches et robinets n’est plus seulement un geste économique mais bien une attitude citoyenne au sens large. Attitude partagée d’ailleurs par de plus en plus de particuliers mais aussi de col lectivités locales, campings, hôtels…

Plus d’inforamtions : www.eco-techniques.fr

Nouveaux polymères à hautes performances pour le secteur de l’énergie

Victrex Polymer Solutions complète son portefeuille de produits avec les tubes VICTREX® Pipes™. Ces tubes extrudés en polyétheréthercétone (PEEK) répondent aux exigences de qualité et de sécurité les plus élevées, ainsi qu’à la demande croissante du marché des tubes et conduites à hautes performances. La nouvelle gamme VICTREX Pipes de tubes à parois minces extrudés en polymère VICTREX® PEEK™ se distingue plus particulièrement par leur performance technique dans des conditions d’utilisation extrêmes, à hautes températures, sous haute pression ou encore en contact avec des milieux agressifs et corrosifs.

Ils se caractérisent en outre par leur faible densité. Ils répondent aux exigences de l’industrie pétrolière et gazière, de l’aéronautique et de l’aérospatiale, de l’électronique et de bien d’autres secteurs d’activités. Dans de nombreuses industries, des directives strictes s’appliquent à la sélection des matériaux. Le PEEK est sans halogène, il se distingue par son caractère difficilement inflammable, ainsi que ses émissions faibles et non toxiques de fumée. C’est pour cela que ces tubes sont aussi particulièrement bien adaptés au secteur aéronautique. Grâce à leur légèreté, les applications en VICTREX PEEK offrent une alternative de choix aux composants métalliques.

Les tubes VICTREX Pipes sont actuellement disponibles dans une gamme de différentes dimensions, allant de 6 mm (0,24″) de diamètre extérieur à 200 mm (8″) avec des épaisseurs de paroi correspondantes de 0,8 mm (0,03″) à 5 mm (0,2″). Ils peuvent être livrés sous forme de produit standard ou à des diamètres inférieurs en bobines d’une longueur maximum de 3 000 mètres. Les tubes PEEK peuvent être raccordés à l’aide de raccords et par collage ou soudage avec d’autres matériaux. Ces tubes peuvent également être marqués au laser.
Pour faciliter le montage et garantir la résistance aux conditions ambiantes, la sélection du bon matériau est d’une importance capitale. Les conduites doivent être opérationnelles le plus longtemps possible. Cela ne vaut pas seulement pour les industries pétrolières et gazières où les tubes PEEK peuvent remplacer les alliages anticorrosion (CRA) dans les tuyaux métalliques. « Du fait de la corrosion des tuyaux, les entreprises pétrolières et gazières perdent énormément d’argent, » indique James Simmonite, Business Leader Pipes, Victrex Polymer Solutions. La corrosion des matériaux conventionnels du revêtement intérieur est due à l’acide sulfhydrique (H2S), au méthane, au dioxyde de carbone, à l’eau salée et au pétrole brut. En outre, les tuyaux sont souvent soumis à des températures de service supérieures à 140 °C. Dans ces différents cas, les tubes VICTREX Pipes peuvent être utilisés en toute sécurité comme revêtement intérieur ou gaine de protection. Ils représentent une possibilité d’optimisation économique de ces applications et de bien d’autres encore.
« Les nombreux tests que nous avons effectués ont montré que les tubes VICTREX Pipes présentent une très bonne résistance chimique à l’H2S à haute température. Par ailleurs, au bout de 2 000 heures d’exposition à de la vapeur d’eau à 200 °C, la performance du matériau reste quasiment inchangée, » ajoute M. Simmonite.

Victrex Polymer Solutions possède ses propres installations d’extrusion en Grande-Bretagne, servant exclusivement à la fabrication de tubes en polymère VICTREX PEEK. La chaîne de livraison entièrement intégrée de Victrex, allant des matières premières aux produits finis, garantit une qualité de produit et une disponibilité de livraison optimales. Les tubes VICTREX Pipes sont la dernière innovation de l’entreprise et viennent en compléter le portefeuille de produits. « Le lancement de cette gamme sur le marché est l’aboutissement de six ans de recherche et de développement intensifs. Durant cette période, nous avons réalisé de nombreuses analyses de marché et discuté avec nombre de nos clients. Nos tubes à hautes performances représentent une solution idéale dans de nombreux domaines d’application. Outre son utilisation dans les industries pétrolière et gazière, le produit répond aux exigences les plus poussées d’autres secteurs d’activités, » résume M. Simmonite. Partout où sont utilisées des conduites avec un revêtement, devant résister à la corrosion, l’abrasion et la perméabilité à hautes températures, les VICTREX Pipes constituent une véritable option. Il en va ainsi pour toutes les industries possibles, telles que l’aéronautique et l’aérospatiale, ou encore l’électronique. « Victrex jouit d’une réputation exceptionnelle en termes d’identification des tendances de développement. En outre, l’équipe Victrex se sent toujours stimulée par de nouveaux défis. Notre objectif est de développer des solutions durables. Notre matière première, le VICTREX PEEK, présente ici des propriétés de matériaux décisives permettant à diverses branches d’activités de fabriquer des composants individuels à des coûts avantageux. C’est pourquoi nos nouveaux VICTREX Pipes répondent si bien aux attentes de nos clients, » ajoute M. Simmonite.

Plus d’informations :  www.victrexpipes.com

Création d’un centre des technologies vertes

Le Président sud-coréen, Lee Myung-bak, a annoncé début juin la création d’un centre de recherche international chargé de développer un ensemble de technologies vertes en coopération avec des instituts de recherche coréens et étrangers. L’ouverture de ce centre fait partie de l’ensemble de mesures annoncées par le Président dans son plan de croissance verte datant de 2008.

Sous l’égide du Global Green Growth Institute, le centre de recherche pour les technologies vertes devrait ouvrir ses portes d’ici la fin de l’année. Il rejoindra, avec les instituts étrangers partenaires le projet de « science business belt » (cf. BE Corée 55 [1]). Il concentrera ses recherches sur les énergies et notamment leur regroupement (« smart power grid »), l’eau et les technologies relatives à la protection de l’environnement. Le centre sera également un lieu de formation et un lieu de conseil en particulier vers les pays en voie de développement.

Le Président Lee est convaincu que sa stratégie de croissance verte permettra à la Corée de développer de nouveaux moteurs de croissance importants et permettre également au pays de réduire ses émissions de gaz à effet de serre, actuellement très importantes. La Corée a également pour objectif de devenir un leader mondial en matière de technologies vertes et ambitionne de devenir l’hôte d’un futur  » Green Growth Summit  » qui serait l’équivalent  » vert  » du forum mondial économique.

Source : http://www.bulletins-electroniques.com/actualites/67186.htm

Un nouveau matériau de stockage de l’énergie

Des chercheurs sud-coréens ont annoncé début juin avoir mis au point un nouveau matériau de stockage de l’énergie. Ce « super condensateur », mis au point par l’équipe du professeur Choi Jung-wook du Korea Advanced Institute of Science and Technology (KAIST), affiche une capacité de stockage deux fois supérieure à un condensateur classique. De plus, celle-ci est restée constante après plus de 230.000 charges et décharges. Cette technologie, utilisant de l’azote et du graphène, pourrait accélérer le développement des nouvelles générations de voitures électriques, mais également des  » smart power grids « .

Selon l’équipe du chercheur, la capacité de stockage de l’énergie du condensateur a pu être grandement améliorée grâce à l’introduction d’atomes d’azote dans un squelette de graphène. Le fait d’injecter des impuretés dans un condensateur extrêmement pur permet de faire évoluer ses propriétés électriques.

Le graphène possède intrinsèquement des propriétés extraordinaires : il peut transporter les électrons bien plus rapidement que le silicium, il est deux fois plus résistant que le diamant, 100 fois plus conducteur que le cuivre et possède une densité de stockage d’énergie très élevée. L’introduction d’azote dans le graphène a permis de multiplier sa capacité de stockage.

Le professeur Choi explique les avantages multiples que pourraient avoir ce condensateur, et bien évidement l’amélioration des voitures électriques, mais également l’utilisation dans les réseaux de distribution électrique, ou encore dans les vêtements puisque le graphène présente l’avantage d’être flexible.

Source : http://www.bulletins-electroniques.com/actualites/67180.htm

La Corée va construire des « drones » marins

La Corée du Sud prévoit de développer des navires sans pilote à des fins de recherche et de surveillance. Le gouvernement a ainsi décidé d’attribuer plus de 15 millions d’euros sur cinq ans pour mener à terme ce projet. Le Ministère des transports et des affaires maritimes a indiqué que le KORDI (Korea Ocean Research & Development Institute) serait en charge de ce projet.

Jusqu’en 2013, une majeure partie du budget de recherche sera employée à la mise au point des technologies de navigation autonomes et de contrôle à distance. Passé cette date, le projet entrera en phase de test, puis de commercialisation. A travers ce projet, la Corée pourra intégrer des technologies qu’elle maîtrise parfaitement, notamment informatique et construction navale.

Les futurs navires autonomes pourront se déplacer à une vitesse maximum de 90 kilomètres/heure et seront bien évidemment capable d’éviter les obstacles afin de se fondre dans le trafic maritime classique. Leurs missions premières seront, dans un premier temps, la recherche sur les milieux marins et la surveillance permanente de la pêche illégale.

Le marché mondial des navires « drones » devrait croître fortement dans les 20 prochaines années pour atteindre une valeur de près de 10 milliards d’euros.

Source : http://www.bulletins-electroniques.com/actualites/67185.htm

 

Par S.B

LES BILANS :

News Informatique / Electronique / Télécoms de août

Dossiers, e-mails, médias sociaux et contenus Cloud enfin sur une seule interface

AVG Technologies annonce le lancement de MultiMi, une façon révolutionnaire de rester connecté et de gérer sa vie digitale.
MultiMi constitue un unique point d’entrée pour accéder à tous les dossiers PC, comptes e-mail, plateformes de médias sociaux (y compris Facebook, LinkedIn et Twitter) et aux contenus de services cloud (YouTube, Flickr, services cloud et Google Docs). Via un tableau de bord intuitif, MultiMi™ permet de rester en contact et rend la navigation, le partage et les échanges en ligne très simple et ce où que l’on se situe.
Disponible en version béta et gratuit, MultiMi est téléchargeable sous Windows dès aujourd’hui. MultiMi™ est un centre de commande personnalisable et intuitif s’appuyant sur AVG LinkScanner® pour garantir aux utilisateurs une réelle tranquillité d’esprit et organiser leurs données personnelles selon leurs souhaits tout en protégeant leurs communications en ligne.
J.R. Smith, Président Directeur Général d’AVG Technologies, déclare, « sachant que le temps passé en ligne ne cesse d’augmenter et que la tendance observée cojnsiste à utiliser et à s’investir sur plusieurs plateformes, AVG est constamment à la recherche de moyens de simplifier, améliorer et sécuriser la vie en ligne.  AVG est ravi de proposer MultiMi™; un outil de pointe intuitif permettant à chacun de gérer facilement et de façon ludique sa vie en ligne ».
De plus en plus, chacun a plusieurs adresses mail, comptes sur Facebook, Twitter, LinkedIn, services de partage de photos et messageries instantanées. Contrôler ces différents services peut s’avérer déroutant et consommateur de temps. MultiMi redonne aux utilisateurs le contrôle sur ces services : ludique, il permet d’être plus productif et efficace.
Véritable centre de commande, MultiMi offre une vue d’ensemble en temps réel de ce qui se passe, permettant aux utilisateurs de garder le contrôle sans perdre de temps. De la visualisation d’une présentation PowerPoint à la vérification du fil Facebook, MultiMi permet de regarder, surveiller et combiner le flux des communications, pour le travail comme pour les loisirs.
A titre d’exemple, il est possible d’inclure un tweet dans un e-mail tout en mettant à jour son profil Facebook, ou mettre sur Flickr ou Picasa des photos venant d’un mail.  MultiMi combines différents canaux en continu.

Kaspersky Lab facilite le travail de la presse avec un nouveau portail dédié

Kaspersky Lab Newsroom Europe fournit aux journalistes européens les plus récentes informations sur la société – Faites part de vos commentaires pour éventuellement gagner un PC portable MEDION

Rueil-Malmaison, le 19 juillet 2011 – Kaspersky Lab, éditeur reconnu de solutions de sécurité informatique, lance sa nouvelle salle de presse en ligne, Kaspersky Lab Newsroom Europe (http://newsroom.kaspersky.eu/), destinée à l’ensemble des journalistes européens qui y trouveront les derniers communiqués, articles et dossiers de presse.

Soucieux de développer ses relations avec les médias européens, Kaspersky Lab a mis en place un portail destiné à répondre aux multiples demandes de la presse, facilitant ainsi la recherche d’informations sur l’entreprise et ses produits, ses évènements et résultats, mais qui contient également des contenus éditoriaux, des images, des vidéos et des fichiers audio, ainsi que les contacts RP et les coordonnées de l’entreprise sur les réseaux sociaux. Cet espace conçu pour faciliter l’accès des journalistes à ces informations, sera un élément précieux dans le cadre des relations presse.

Toutes les données seront disponibles au fil de leur publication, constituant ainsi un flux continu d’informations. En outre, la mise en ligne des blogs d’analystes et des biographies des collaborateurs de la société favorise la communication et renforce les relations avec la presse.

Le portail donne également accès aux médias sociaux où Kaspersky Lab est présent (Facebook, Twitter, YouTube…). Il inclut des liens vers les autres sites Web de la société (Securelist.com, Secureview.com, threatpost.com) où les journalistes trouveront un large éventail de contenu via les différents canaux disponibles.

Les journalistes ont la possibilité de sélectionner leur langue de prédilection sur le portail. Celui-ci se distingue par son excellente facilité d’utilisation et d’accès et constitue une véritable mine d’informations, d’une source faisant autorité, qui répondra aux attentes des médias ayant soif de connaissances et de contenus concernant Kaspersky Lab.

« Nous sommes heureux de lancer ce tout nouveau portail destiné à nos contacts presse à travers toute l’Europe », commente Elke Woessner, directeur communication de Kaspersky Lab Europe. « Nous nous réjouissons à la perspective de faciliter aux journalistes l’accès à des informations essentielles, toutes regroupées en un seul et même endroit. En mettant ce vaste portail d’informations à leur disposition, nous entendons nourrir et développer nos relations avec les médias aux côtés desquels nous travaillons dans le cadre de notre communication ».

La médaille d’or de la finale d’Imagine Cup pour « Brainergy » de l’équipe Geekologic d’ingésup

Le projet « Brainergy » de l’équipe Geekologic d’ingésup remporte la médaille d’or dans la catégorie Game Design mobile lors de la finale internationale de l’Imagine Cup qui s’est déroulée du 8 au 13 juillet 2011 aux Etats-Unis. À New-York, l’équipe Geekologic, composée de 3 étudiants ingésup toulousains et d’un étudiant de Supinfogame à Valenciennes, a passé avec succès la première phase de sélection devant le jury. Sélectionné parmi les 3 projets qui ont pu se présenter une nouvelle fois devant une importante assemblée de connaisseurs, le jeu Brainergy a convaincu le jury international composé d’experts en Game Design.

Les 125 équipes présélectionnées ont pu présenter leur projet avant la cérémonie qui a eu lieu le 13 juillet au Lincoln Center. Chaque équipe disposait d’un stand afin de faire un maximum de démonstrations avant la clôture du concours ; Brainergy a eu le plaisir de recevoir la visite d’un grand nom du jeu vidéo : Tetsuya Mizuguchi (grand créateur de jeux vidéos et notamment du célèbre jeu Child of Eden d’Ubisoft). À l’issue de cette cérémonie, l’équipe Geekologic a reçu le premier prix avec à la clé la somme de 8000 Dollars, des téléphones Mobile Windows 7 et des stages d’apprentissage chez Microsoft en Californie en septembre prochain. Une vraie révélation pour l’école qui concrétise sa première participation au concours par une victoire bien méritée après avoir déjà remporté la médaille d’or de la Finale française en mai dernier ainsi que deux médailles de bronze ! Et pour parfaire à cette ambiance multiculturelle, Microsoft a choisi comme marraine de cette 9ème édition, Eva Longoria, qui a remis le Prix du Public et partagé sa confiance en « un monde où la technologie nous aide à répondre aux enjeux les plus cruciaux de notre société ».

Bainergy est un puzzle game : à chaque niveau, le joueur doit capter des énergies à l’état naturel pour les transformer en énergie électrique. Pour répondre à la problématique du concours, l’équipe s’est penchée sur la gestion des énergies renouvelables en demandant au joueur de manipuler des particules pour venir à bout de la pollution. Pour soutenir l’équipe, des aménagements (logistiques et organisationnels) par la direction du Campus ont grandement aidé les étudiants tout au long des 7 mois de travail dans la mise en place de ce projet. Et grâce à Pohlm Studio, société spécialisée dans la conception et le développement de jeux vidéo, le jeu Brainergy sera commercialisé d’ici la fin de l’année.

La Nouvelle Solution FortiClient Est Dotée d’un Logiciel Tout-en-Un Offrant un Accès Sécurisé à Distance pour Répondre aux Exigences Réglementaires et de Conformité

Sophia Antipolis, 12 Juillet 2011 – Fortinet – l’un des principaux acteurs du marché de la sécurité réseau et le leader mondial des systèmes unifiés de sécurité UTM (Unified Threat Management) – annonce aujourd’hui le lancement de FortiClient, un agent logiciel pour terminaux qui permet aux organisations de mettre en place des pratiques commerciales nécessitant une connectivité d’accès à distance sécurisée pour ses employés mobiles, fournisseurs et partenaires. En tant que solution de sécurité d’accès à distance tout-en-un, FortiClient améliore la sécurité de l’entreprise, aide les organisations à répondre aux exigences réglementaires et juridiques, ainsi qu’à appliquer les politiques de conformité pour empêcher les appareils non-autorisés d’accéder au réseau d’entreprise.
FortiClient est important à la stratégie produit de Fortinet, offrant une solution de sécurité flexible et étendue, du périmètre au cœur du réseau, avec des services managés centralisés.
La conception ultra-modulaire de la solution FortiClient comprend des fonctions essentielles d’encryption de données, d’authentification, de contrôle d’accès des terminaux et d’optimisation WAN dans un seul et même agent endpoint, facile à utiliser et léger à supporter.  Pour plus de flexibilité, les administrateurs de sécurité peuvent choisir parmi plusieurs méthodes d’implémentation pour sécuriser les  privilèges d’accès à distance des différentes catégories d’utilisateurs. Cela offre aux organisations la liberté de soit exploiter toute la suite des fonctionnalités de l’agent, soit choisir des fonctions spécifiques basées sur des besoins individuels de connectivité d’accès à distance. Par exemple, les administrateurs de sécurité peuvent vouloir implémenter l’encryption du  trafic IPsec pour les employés à temps plein et l’encryption SSL pour les fournisseurs et partenaires.
Fortinet a conçu FortiClient pour plus de flexibilité en termes de déploiement, et permet à un logiciel tiers de coexister sur les terminaux. Les clients n’ont pas à retirer leurs applications anti-malwares actuelles pour déployer FortiClient.

Simplifier la Sécurité des Terminaux Fonctionnant conjointement avec les appliances de sécurité consolidées FortiGate de Fortinet, le FortiClient se focalise sur quatre fonctionnalités clés, toutes à partir d’un seul agent, pour supporter les différents besoins de sécurité d’accès à distance de ses clients :

  • VPN IPsec et SSL pour l’encryption des données. Un simple assistant de configuration est fourni pour créer des politiques VPN de client-à-site pour des accès à distance. Le SSL-VPN en mode tunnel et le tunneling partagé offrent la liberté de se connecter à distance en utilisant un accès Web.
  • Authentification à deux facteurs pour la vérification d’identité.  FortiClient supporte totalement Local, RADIUS, LDAP, SecurID (via le Proxy RADIUS), FortiToken, ainsi que les options d’authentification par email et SMS.
  • Le Contrôle des Terminaux empêche les appareils non conformes d’accéder au réseau, permettant aux entreprises d’appliquer leurs politiques de sécurité au périmètre du réseau.
  • L’optimisation WAN réduit la consommation de la bande passante, accélère les performances réseau, diminue le temps de téléchargement et améliore l’efficacité du HTTP, FTP, CIFS, MAPI et du trafic général TCP.

Fortinet est le seul acteur capable de consolider ce large éventail de fonctionnalités de sécurité d’accès à distance dans un seul et même agent logiciel, offrant aux clients des options de déploiement inégalées, selon les besoins, avec une licence tout compris. Pour rivaliser les fonctionnalités du FortiClient, les offres concurrentes nécessitent des appliances supplémentaires, de nouveaux accords de licences et/ou de nouvelles consoles de gestion.  Et dans certains cas, les fournisseurs concurrents ne supportent pas les fonctionnalités spécifiques de sécurité des terminaux proposés par  FortiClient. “FortiClient est un élément vital de notre stratégie de sécurité de bout-en-bout pour les clients Grands Comptes et PME.” déclare Michael Xie, fondateur, Directeur Technique et Vice-Président de l’Ingénierie chez Fortinet. “En consolidant un tel ensemble de fonctionnalités de sécurité dans un agent logiciel simple à déployer, tous nos clients, petits et grands, peuvent désormais mettre en place, à travers un système de sécurité unique, le bon type de connexion d’accès à distance en fonction du type d’utilisateur. Ainsi, les meilleures pratiques commerciales nécessitant un accès à distance sécurisé peuvent être facilement et  rentablement implémentées, ce qui a pour effet de réduire le TCO de l’entreprise.”
Fortinet annonce également le lancement de FortiManager 4.0MR3 et FortiAnalyzer 4.0MR3, une mise à jour du système d’exploitation qui apporte des améliorations en matière d’utilisation et de gestion du workflow , ainsi que le support amélioré pour IPv6. FortiManager fournit une gestion, configuration et mise a jour des règles centralisées pour les appliances FortiGate, FortiWiFi et FortiMail. FortiAnalyzer offre des fonctions de gestion de sécurité avancées telles que l’archivage des dossiers en quarantaine, la corrélation des événements, les évaluations des vulnérabilités, l’analyse du trafic et l’archivage des emails, l’accès Web/Internet, la messagerie instantanée et le contenu des transferts de fichiers.

hybris et Sorriso Technologies lancent la première offre combinée d’e-commerce et d’e-facturation pour les entreprises télécoms

Hybris, leader sur le marché des logiciels de commerce et de communication multicanal, annonce aujourd’hui la signature d’un partenariat avec Sorriso Technologies (www.sorrisotech.com), principal éditeur de logiciel d’assistance client online, capable de fournir une solution entièrement intégrée d’e-commerce, de facturation électronique et service d’aide au client (eCare) pour les fournisseurs de services de télécommunication. Cette offre unique permet aux entreprises télécom de déployer un portail client en ligne simple, flexible et optimisé qui répond à tous les aspects du cycle de vie du client comprenant les nouveaux achats du client, une adresse de facturation, un service en ligne, la gestion de compte et l’augmentation des revenus par client.

Une première dans son genre, le portail client télécom hybris/Sorriso apporte simplicité et cohérence dans un secteur déjà complexe et fragmenté dans lequel la plupart des vendeurs en télécommunications étaient contraints d’intégrer seuls différentes solutions. L’offre combinée d’hybris et de Sorriso a été spécifiquement conçue pour être à la fois simple à déployer et rentable pour n’importe quel fournisseur de télécommunications. Elle sera particulièrement bénéfique pour les petites et moyennes entreprises de télécommunications en leur permettant de déployer un portail client qui peut rivaliser avec des concurrents plus importants, à un prix abordable.
L’implémentation de cette solution intégrée permet de fidéliser le client et d’améliorer la valeur du client. En combinant e-commerce, facturation électronique et service d’aide au client (eCare) en une seule offre, hybris et Sorriso peuvent tirer profit des informations de facturation et des réponses en ligne des clients en décidant  quelles offres proposées et à quel moment stratégique faire cette offre en interagissant avec chaque client. La solution permet de personnaliser un produit ou un service en ligne, offrant des opportunités attrayantes et perspicaces qui permettent aux clients d’optimiser leurs dépenses et d’acheter des solutions complémentaires. Que les clients se connectent à Internet ou via leurs iPhones, ils en font la même expérience qui combine des offres entièrement personnalisées avec un accès direct à leurs factures électroniques et à un service d’aide au client (eCare).

Concernant ce nouveau partenariat, Ariel Lüdi, PDG d’hybris, explique : « En 2010, il était devenu évident que les fournisseurs de télécommunications avaient un véritable besoin d’un moteur de recherche e-commerce et d’une solution de facturation électronique. Dans la plupart des portails clients, l’e-commerce et la facturation électronique/service client étaient des silos indépendants entraînant une expérience client confuse qui empêche d’avoir un marketing intensif et des opportunités promotionnelles. En combinant notre solution à celle de Sorriso, nous avons réduit cet écart, permettant une plus grande variété d’offres innovatrices. Par exemple, la solution peut analyser les échantillons d’appel des clients et leur offrir un package plus approprié à leurs besoins quand ils utilisent un mobile ou un autre produit. Ces clients sont alors guidés à travers la même expérience en ligne où ils choisissent et approvisionnent le nouveau plan et ils sont ensuite dirigés directement vers la boutique en ligne pour choisir leurs nouveaux téléphones et accessoires ».

John Kowalonek, PDG de Sorriso Technologies, déclare : « La solution hybris/Sorriso apporte une valeur supplémentaire une fois le client connecté. Un client peut naviguer sur le site e-commerce d’un opérateur, trouver un produit qui lui plaît, l’acheter et être automatiquement redirigé à travers le processus d’enregistrement vers la facturation électronique et le service d’aide au client (eCare). Quelle autre meilleure manière de commencer une relation de service en ligne que de se rencontrer avant ? La facturation électronique et le service d’aide au client (eCare) fournissent la meilleure solution et le meilleur service client n’importe quand, et où que l’on soit et sont également reconnues pour réduire les coûts des centres d’appel et de facturation pour les entreprises télécoms. Notre partenariat avec hybris permet aux sociétés de télécom de tirer profit du rendez-vous mensuel de facturation en ligne du client pour améliorer les revenus et la fidélité.

hybris apporte à ce partenariat sa suite multi canal qui a été primée, une plate forme d’exécution de commerce multi canal entièrement intégrée, qui aide les petites, moyennes et grandes entreprises à unifier leur stratégie de commerce à travers tous les canaux, comprenant Internet, les magasins, les centres d’appel, les catalogues, les téléphones mobiles et les médias sociaux. Sorriso, de son côté, apporte sa suite de solution Persona e-Care™, un ensemble de présentation de facture électronique, de paiement, de libre-service et d’applications marketing pour l’e-facturation, pour fournir le meilleur service client online sur Internet, smartphones et serveur vocal interactif (IVR).

Zoom sur l’Autriche

Programme COMET
Centre de compétences SCCH : l’ingénierie des logiciels comme coeur de métier

Le Centre K1 du programme national d’excellence COMET, SCCH (Software Competence Center Hagenberg) est spécialisé dans l’ingénierie des logiciels. Il compte environ 65 employés et une petite trentaine d’entreprises partenaires (parmi lesquelles Siemens ou Fujitsu), ce qui en fait l’un des plus grands centres de recherche indépendants en Autriche dans le domaine des logiciels.

Ce centre a été fondé en 1999 par cinq instituts de l’Université Johannes-Kepler de Linz. Il est localisé dans le parc industriel de Hagenberg (Software Park Hagenberg), qui regroupe 8 institutions de recherche, 40 entreprises, 1000 employés et 1300 étudiants à proximité de Linz (Land de Haute-Autriche). Des contacts ont été établis avec des partenaires scientifiques (universités, instituts de recherche) non seulement en Autriche, mais aussi en Allemagne, aux Pays-Bas, en Italie, en République Tchèque et aux Etats-Unis.

Le rôle de SCCH peut se résumer par les points suivants : il s’agit d’une installation de recherche tournée vers les applications pratiques, qui peut fournir ses services de recherche à des PME ou apporter un regard neuf aux départements de R&D des grandes entreprises. SCCH joue le rôle de contact entre l’industrie et la recherche et permet à ses entreprises partenaires de bénéficier de technologies avancées au travers de collaborations nationales et internationales.

Les activités de SCCH se répartissent en quatre domaines clés complémentaires :

  • « Process and Quality Engineering » : il s’agit d’identifier, d’améliorer et de valider des logiciels ainsi que des concepts, des procédés, des méthodes d’ingénierie dans l’optique de développer des logiciels de haute qualité en optimisant l’investissement économique.
  • « Models, Architecture and Tools » : cette activité vise à améliorer et à évaluer différentes approches de création de logiciels – plus spécifiquement la création d’outils et de langages adaptés à un domaine précis (robotique, contrôle de machines, contrôle de procédés…).
  • « Data Analysis Systems » : l’accent est ici mis sur le développement de concepts et technologies élaborés pour l’intégration de l’information et des procédés.
  • « Knowledge-Based Vision Systems » : le but est d’extraire des données de haut niveau à partir de données visuelles afin de pouvoir analyser et suivre le déplacement d’objets et d’inspecter et analyser des surfaces et des structures tridimensionnelles.

Durant l’exercice fiscal 2009/2010, SCCH a mené 28 projets dans le cadre du programme COMET et 51 projets en-dehors de ce cadre (ce sont alors des projets européens, des projets financés par les agences nationales de la recherche appliquée (FFG) ou fondamentale (FWF) ou encore des projets binationaux). Une différence est faite entre deux types de projets : les projets stratégiques, tournés vers les besoins à long terme, et les projets orientés vers les applications industrielles, en partenariat avec des entreprises.

Le 8 juin 2011 s’est tenue au Software Park de Hagenberg une rencontre sur le thème Cloud Computing, en collaboration avec IBM. Le même soir, la soirée d’inauguration du nouveau laboratoire Christian-Doppler de l’Université de Linz (Christian-Doppler-Labor für Client-Centric-Cloud-Computing) a eu lieu.

Exemples de projets :

Le centre SCCH a développé de fortes compétences dans le domaine médical. Ainsi, les scientifiques du centre ont développé un logiciel qui permet de comparer des séquences d’images tridimensionnelles obtenues par tomographie à résonance magnétique. Ce logiciel aide les médecins à diagnostiquer des changements et des anomalies dans le mouvement du coeur, sur des cas de maladies cardiaques.

Dans le domaine de l’ingénierie des logiciels, les études montrent que 75 à 95 % des coûts totaux concernant les grands systèmes informatiques sont dus à la maintenance et aux développements additionnels. Un autre exemple de projet mené à SCCH permet de prédire les effets de modifications dans ces logiciels.

Enfin, le projet collaboratif international CancerMotysis porte sur la prévention des cancers de l’estomac.

En savoir plus : http://www.bulletins-electroniques.com/actualites/67009.htm

Ordinateur quantique : un correcteur d’erreurs itératif – un registre quantique de 14 bits

Une équipe de recherche basée à l’Institut de Physique Expérimentale de l’Université d’Innsbruck et à l’IQOQI (Institute for Quantum Optics and Quantum Information, un institut de l’Académie des Sciences autrichienne) a réussi à démontrer expérimentalement la faisabilité d’une étape cruciale dans le développement d’un ordinateur quantique : la correction itérative d’erreurs. La même équipe a également réussi à intriquer 14 bits quantiques (ou qubits), ce qui constitue un record mondial.

Pour tout système traitant des données, il existe des sources d’erreurs potentielles (réseau défectueux pour la transmission de données numériques par exemple). Des méthodes pour l’informatique classique ont ainsi été développées afin d’identifier et de corriger automatiquement les différentes erreurs produites au cours de la manipulation des données. Or les systèmes quantiques sont, de par leur nature même, encore plus sensibles aux perturbations que les systèmes classiques ; la correction d’erreurs pour un tel système demande donc un algorithme particulièrement performant. Le groupe de recherche mené par le physicien autrichien Rainer Blatt a démontré la faisabilité de la réalisation pratique d’un tel algorithme.

Contrairement à ce qui se fait pour un système classique, il n’est pas possible de copier l’information quantique – et par conséquent de comparer plusieurs fois les données pour détecter les éventuelles erreurs. Il est ainsi nécessaire de recourir à l’intrication, un phénomène quantique dans lequel l’état quantique de deux objets spatialement séparés se décrit globalement : deux particules intriquées forment en réalité un système unique, même si elles sont loin l’une de l’autre.

En pratique, les physiciens de l’équipe ont stocké trois ions calcium – dont l’un représente le qubit de référence, les deux autres représentent chacun un qubit auxiliaire – dans un piège ionique. La première étape consiste à intriquer le qubit de référence avec les deux autres, ce qui transfère l’information quantique sur les trois particules. Ensuite, un algorithme quantique mis au point par les chercheurs vérifie s’il y a une erreur, détermine laquelle s’il y en a une et la corrige. Après la correction, les deux ions auxiliaires sont soumis à un faisceau laser qui, en changeant leur état quantique, permet de les réinitialiser : c’est cet ajout expérimental qui permet de corriger les erreurs de façon répétitive.

Ce groupe de recherche est en pointe dans le domaine de l’informatique quantique. Il y a trois ans, il avait par exemple déjà présenté une porte quantique dont les sorties sont correctes plus de 99 fois sur 100.

Le groupe est également détenteur d’un nouveau record depuis peu : celui de la taille d’un registre quantique. L’équipe a en effet pu réaliser l’intrication contrôlée de 14 qubits. Le précédent record, 8 qubits, datait de 2005 et était détenu… par la même équipe. Les 14 qubits -des ions calcium, encore- ont été confinés dans un piège ionique et manipulés à l’aide de lasers.

Les physiciens ont constaté que le taux de désintégration des atomes n’est pas linéairement proportionnel au nombre de qubits, mais proportionnel au carré du nombre de qubits. Cela signifie que la sensibilité d’un système quantique augmente significativement lorsque le nombre de particules intriquées augmente. Ce phénomène est connu sous le nom de superdécohérence et a rarement été observé jusqu’à présent.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66998.htm

La plus petite imprimante 3D au monde est autrichienne 

Une équipe de l’Université Technologique de Vienne a mis au point une imprimante 3D particulièrement compacte -plus ou moins de la taille d’une brique de lait- et capable de sculpter de façon détaillée de petits objets. Cette avancée se place dans l’optique de faire des imprimantes 3D un objet du quotidien. Cette imprimante fonctionne sur le même principe que toutes les imprimantes 3D, qui existent depuis de nombreuses années déjà : un objet tridimensionnel est crée en déposant ou en solidifiant de la matière, fine couche après fine couche, pour finalement obtenir l’objet désiré. Il existe plusieurs variantes de ce principe.

Dans ce cas précis, une petite cuve est remplie de résine synthétique. Cette résine a la particularité de se solidifier en réaction à l’exposition à une lumière intense. Ainsi, la résine est soumise à un éclairage puissant par diodes électroluminescentes, couche après couche. Cette méthode de production (appelée « additive manufacturing production » en anglais) a en particulier l’avantage d’autoriser la création d’objets dotés de structures internes complexes, ce qui est délicat voire impossible à envisager dans le cas d’une production plus traditionnelle utilisant des techniques de moulage. L’épaisseur de chaque couche de résine produite par cette imprimante -épaisseur qui détermine la résolution « verticale » de l’objet imprimé- est d’un vingtième de millimètre, ce qui permet d’envisager la création d’objets de haute précision : pièces d’instrumentations médicales, bijoux ou encore pièces de rechanges.

L’impression 3D, ou stéréolithographie, possède de nombreuses applications : production industrielle, visualisation de projets ou encore études de design. Mais cette technique est encore inaccessibles aux particuliers, en raison notamment d’un coût élevé. Le prototype développé à l’Université Technologique de Vienne a l’avantage d’être compact, de peser moins de 1,5 kg et de valoir environ 1200 Euros – en sachant que la production de masse ferait encore baisser les coûts de production. C’est le système de refroidissement qui occupe le plus d’espace, l’éclairage par diodes permettant d’optimiser la taille de l’imprimante par rapport à un éclairage classique.

La démocratisation de ce type d’imprimantes pourrait ouvrir la voie à l’exploitation commerciale d’objets fabriqués sur mesure à domicile, par exemple d’après des plans téléchargeables sur l’Internet.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66997.htm

Un nouveau décret modifie la nomenclature des ICPE

Le décret n° 2011-842 du 15 juillet 2011 (NOR : DEVP1102171D, JORF n°0164 du 17 juillet 2011 page 12327) a modifié la nomenclature des installations classées et particulièrement les dispositions suivantes : les art. Annexe (3) à l’article R511-9 (V) et art.  Annexe (4) à l’article R511-9 (V) du Code de l’environnement .

La nomenclature ICPE est l’outil de gestion des ICPE qui permet d’identifier les obligations réglementaires en matière d’exploitation de certaines installations considérées comme pouvant présenter un danger ou un inconvénient. La nomenclature est composée des rubriques qui répertorient :

  • les substances et préparations dangereuses ;
  • les activités susceptibles d’avoir un effet néfaste sur l’environnement et la santé.

La nomenclature se présente sous forme d’une liste ou d’un tableau composé de quatre ou cinq colonnes :

1ère colonne : numéro de la rubrique

Chaque rubrique est identifiée par un numéro à quatre chiffres dont les deux premiers caractérisent la famille de substance ou d’activité (ex : 11XX substances toxiques, 22XX agroalimentaire…).

Les rubriques sont réparties en trois grandes catégories :

  • les rubriques inférieures à 1000 : rubriques restantes de la nomenclature de 1953 ;
  • les rubriques de la série des 1000 : substances potentiellement dangereuses (rubriques 1000 à 1820) ;
  • les rubriques de la série des 2000 : activités potentiellement dangereuses ou sources de nuisances (rubrique 2101 à 2550).

2ème colonne : désignation de la rubrique (substance ou activité)

3ème colonne : régimes de classement

Chaque rubrique est associée à des seuils pour lesquels est défini un régime de classement. Il peut exister plusieurs seuils pour une même rubrique, ou un seul.

4ème colonne : rayon d’affichage de l’enquête publique pour les installations soumises à autorisation (A) et autorisation avec servitude (AS)

Il s’agit du rayon d’affichage minimum autour de l’installation à respecter pour l’enquête publique, en kilomètres. Ce rayon d’affichage permet de déterminer le périmètre d’affichage de l’enquête publique qui comprend l’ensemble des communes concernées par les risques et inconvénients dont l’établissement peut être la source.

Dans certains documents, une 5ème colonne apparaît. Il s’agit en fait de la correspondance avec l’ancienne nomenclature à 3 chiffres. La nomenclature, une liste codée par des numéros de 1 à 418, était alphabétique à sa création. Elle l’est restée jusqu’en 1992 et certains sites ont encore des documents faisant mention de ces anciennes rubriques.

Pour télécharger la nomenclature : cliquez ici

Pour aller plus loin : consultez les Fiches Pratiques Exploiter une ICPE

Participez à la formation Techniques de l’Ingénieur ICPE : piloter et suivre l’évolution de ses installations classées

 

 

Une croisière dans l’espace low-cost dès 2013 ?

Le tourisme spatial, pour le moment uniquement assuré par l’Agence Spatiale Fédérale Russe (une dizaine de jours dans la Station Spatiale Internationale, pour la bagatelle d’une vingtaine de millions de dollars) est en passe de connaître de nombreux développements « low-cost ». José Mariano López-Urdiales, entrepreneur espagnol, fondateur de « zero2infinity » et ancien ingénieur chez Boeing et de l’Agence Spatiale Européenne, se lance dans le marché des vols suborbitaux, se plaçant comme concurrent entre autres de l’Anglais Virgin Galactic, avec son ballon « Bloon ».

La capsule pressurisée sera transportée par un ballon géant d’hélium, de plus de 120 mètres de diamètre, qui devrait offrir un vol de près de deux heures à 36 kilomètres d’altitude, un voyage dans « l’espace proche » comme se plait à l’appeler López-Urdiales, altitude selon lui suffisante pour apprécier la vue, à savoir un espace assez sombre et une courbe de notre planète suffisamment prononcée. Le voyage devrait durer près de six heures, incluant les deux heures de croisière. Le décollage se fera d’Espagne et de nuit, pour que les quatre heureux passagers et les deux pilotes puissent profiter du lever de soleil au-dessus de la courbe de notre planète.

Des informations en temps réel (notamment l’altitude) seront affichées directement sur les vitres de la capsule. Le retour sur Terre sera assuré par le dégonflement progressif du ballon, qui finira par se détacher de la capsule contenant les passagers, déployant un parachute géant. Des airbags sont déployés tout autour de la capsule, qui est alors guidée pour la phase d’atterrissage. Les parachutes peuvent ne pas sembler idéaux à première vue pour un retour sur Terre de ce type, mais les progrès réalisés ces dernières années semblent plus qu’encourageants. L’expérience coutera pas moins de110 000 euros aux premiers passagers, dont le départ serait prévu entre 2013 et 2015.

M.R

Facebook renforce le contrôle des membres sur leurs données

« Notre intention est de faciliter la publication et de pouvoir vous proposer une solution plus simple et plus intéressante à utiliser », a indiqué Chris Cox, responsable produit à Facebook, sur le blog du réseau social. Cette évolution du site communautaire, régulièrement critiqué sur la protection apportée aux données de ses membres, intervient près de deux mois après le lancement par Google de son propre réseau social, Google+. Le groupe Internet avait alors insisté sur la possibilité de personnaliser sur son service les réglages de confidentialité.

Le principal changement annoncé mardi par Facebook consiste à permettre aux membres de contrôler les critères de partage de leurs messages, photos ou statuts, non plus en devant se rendre sur la page de paramètres de confidentialité mais directement grâce à de nouvelles icônes placées dans un menu déroulant près du contenu à diffuser. Les adeptes du réseau social pourront aussi autoriser ou non l’apparition sur leur profil de photographies sur lesquelles ils ont été identifiés par d’autres utilisateurs. Jusqu’à présent, les clichés mis en ligne par des « amis » pouvaient s’afficher automatiquement sur le profil des internautes. Les utilisateurs seront par ailleurs autorisés à modifier après coup quelles sont les personnes ayant accès à leurs messages. Facebook permettra de plus à ses utilisateurs de visualiser plus facilement la façon dont leur profil apparaît pour d’autres personnes.

Le site annonce par ailleurs un « changement de terminologie » : le terme « tout le monde », utilisé pour indiquer que les informations mises en ligne sur le réseau selon ce critère sont accessibles par tous les internautes, doit être remplacé par « public ». « Ces changements vont entrer en vigueur dans les prochains jours », a souligné Chris Cox.

(Source et crédit photo : AFP)

 

À lire aussi :

Google + ou Facebook – ?

Facebook : un canal d’e-commerce viable ?

700 millions de profils Facebook, et moi et moi et moi…

Le Smart Grid va-t-il remplacer Facebook ?

La fracture numérique existe : elle est dans les usages

 

Participez à la formation Techniques de l’Ingénieur : Utilisation des réseaux sociaux pour l’open innovation

Nouvelle méthode de détection des substances dangereuses

Chaque année, la police saisit des tonnes de substances pyrotechniques qui sont, en principe,  destinées à la fabrication de feux d’artifices mais qui, entre de mauvaises mains, peuvent servir à l’élaboration d’engins explosifs. Alors que la situation est particulièrement sensible au Pays basque espagnol, une équipe de chercheurs de l’université espagnole UPV EHU a mis au point une nouvelle méthode afin de déterminer la composition chimique de substances liquides suspectées d’être explosives et saisies par la police, telles que du méthanol ou de l’acide borique.

Jusqu’ici, de nombreux moyens ont été alloués à la recherche concernant la détection d’explosifs tels que le TNT, mais trop peu pour des substances dont la dangerosité est considérée comme moindre. L’équipe de chercheurs, menée par Kepa Castro, aurait trouvé un moyen relativement simple en combinant quatre techniques communément utilisées en laboratoire.

D’une part, la composition de la substance est obtenue à l’aide de deux spectroscopies (spectroscopie Raman et infrarouge) communément utilisées dans les aéroports ou par la douane.

D’autre part, une analyse dispersive en énergie (à l’aide d’une spectrométrie de fluorescence X (SFX)) combinée avec les images d’un microscope électronique à balayage (MEB) permettent de déterminer quels éléments sont présents dans les échantillons. Les tests effectués sur cinq échantillons de liquides saisis par la police, (quatre échantillons contenant des substances explosives) se sont avérés concluants. L’équipe a ainsi découvert sans problème des alcools tels que l’isopropanol ou le méthanol, couramment utilisés dans la conception des feux d’artifice. L’acide borique a également été dépisté avec succès (il a récemment été ajouté à la liste des substances dites « préoccupantes » (SVHC) dans le cadre de la réglementation REACH du parlement européen). Quant au cinquième échantillon, il ne contenait, pour sa part… qu’un produit retardateur de flammes.

Par Rahman Moonzur

 

 

Pour aller plus loin :

Consultez les Fiches Pratiques Exploiter une ICPE

Téléchargez la nomenclature ICPE ici

Participez à la formation Techniques de l’Ingénieur : RÉGLEMENTATION RISQUE CHIMIQUE

Revue du Web #6 : les vidéos de la semaine

Cette semaine, deux fois plus de vidéos, vacances obligent :

  • une méthode radicale pour rendre un CD illisible à l’aide d’un courant électrique ;
  • un mini-robot calquant ses mouvements sur un insecte flottant sur l’eau ;
  • différents cubes de gélatine se déformant au contact d’une surface solide ;
  • l’introduction d’un aimant dans un tuyau de cuivre ;
  • la chorégraphie effectuée par plusieurs pendules de masses identiques mais de longueurs différentes ;
  • le retour en vidéo des fameux quadricoptères ;
  • une imprimante 3D en plein désert du Sahara sous forme de gadget happening d’un artiste ;
  • et pour conclure, la vidéo étrange de la semaine, celle d’une tortue dont la patte manquante a été remplacée par… une roue de chaise de bureau.

(en bonus, une photo d’une étoile filante prise à partir de la Station Spatiale Internationale)

Méthode radicale : rendre un CD illisible grâce à l’électricité

Pour commencer, voici deux vidéos montrant une technique bien particulière censée rendre inutilisable un disque compact. À l’aide de deux bobines Tesla et d’un petit moteur permettant de faire tourner le disque, les auteurs de ces deux vidéos espèrent détruire complètement les données contenues sur le CD, de manière, il est vrai, fort impressionnante.

On y voit deux CD perdant petit à petit la fine couche d’aluminium recouvrant le plastique, donnant ainsi l’impression que les données s’en sont allées en même temps que la fine couche de métal. Il reste toutefois à prouver que le disque ne soit pas du tout endommagé par l’expérience. La couche d’aluminium, sert simplement de couche réfléchissante et ne contient pas les données stockées sur le CD. Les données, sous forme de creux et de bosse dont le passage de l’un à l’autre est interprété de manière binaire, se trouvent bel et bien sur la partie plastique du CD. Cette technique permet de rendre le disque illisible temporairement, car il « suffit » a priori de remettre une couche réfléchissante, apposée généralement sous forme liquide, ou bien plus artisanalement.

Il ne serait donc pas exact de dire que le CD est détruit, bien qu’il ne soit pas aisé de récupérer les données. Peut-être est-ce une option intéressante pour un recyclage plus « aisé » des compact disques ?

Voici les deux vidéos :

 

Un micro-robot insecte flottant à la surface de l’eau :

Voici une vidéo d’un micro-robot flottant à la surface de l’eau, dont les mouvements et le fonctionnement  sont calqués sur ceux d’un insecte appelé « gerridé », souvent appelé à tort « araignée d’eau » en raison d’une ressemblance primaire. Les scientifiques chinois à l’origine du développement de ce robot se sont inspirés de la manière dont les gerridés utilisent la tension superficielle de l’eau pour se maintenir en surface, et se déplacer à l’aide de leurs deux paires de pattes postérieures. Ces robots pourraient bien être très utiles, entre autres, dans le domaine de l’espionnage. Vous pouvez consulter l’article qui lui est dédié ici pour plus de détails :

De la gélatine en mouvement et en slow-motion :

Voici une vidéo au ralenti de cubes de gélatine, s’avérant être en fait de la gelée de cerises. La vidéo a été prise à exactement 6 200 images par seconde. Les déformations subies par ces cubes au moment où ils atteignent la surface solide sont littéralement fascinantes, tout comme la manière dont l’énergie se propage. Voici la vidéo, pour le moins hypnotique :

Un aimant dans un tuyau de cuivre :

Que se passe-t-il lorsqu’on introduit un aimant dans un tuyau de cuivre ? La question peut paraître saugrenue, toutefois certains se la sont posée, et sont passés des paroles à l’acte. Voici deux vidéos illustrant la réponse : on y voit que l’aimant chute, mais sa chute est ralentie. Concrètement, la chute de l’aimant dans le tuyau de cuivre induit des courants de Foucault, créant un champ magnétique de polarité inverse à celui de l’aimant, freinant ainsi la chute. C’est donc le mouvement qui nourrit son propre freinage : le mouvement stoppé impliquerait la fin du champ magnétique et donc… la chute de l’aimant.

 

Chorégraphie de pendules pesants :

La vidéo suivante montre quinze pendules, de masses identiques mais de longueurs différentes dont le mouvement est initié au même moment. La chorégraphie obtenue est tout à fait fascinante, résultant des différentes périodes de chacun des pendules (évidemment liés à la longueur de chacun). Ils semblent même être en phase, à de courts instants.

Le retour des quadricoptères :

Nous vous présentions dans la revue du Web #5 les fameux quadricoptères développés par l’université américaine de Pennsylvanie, dans le cadre de travaux de recherche sur les collaborations entre robots. Capables de voler à travers des cerceaux en mouvement, et ce en étant totalement autonomes, de construire une structure de manière collaborative, de voler en formation groupée (et de réagir face à des avaries), ils sont désormais capables de se poser sur une plateforme d’atterrissage mobile formée par des robots « terrestres » autonomes, devant choisir individuellement le rôle qu’ils doivent jouer, mis à part un robot dit « leader ». La suite dans cette vidéo très impressionnante :

Une imprimante 3D en plein désert :

« Solar Sinter », invention de Markus Kayser, est intéressante à plusieurs titres. Cette machine, fonctionnant uniquement grâce à l’énergie solaire, est une sorte d’imprimante 3D, se servant du sable comme matière première pour créer des structures tridimensionnelles en verre. Des capteurs solaires, se trouvant au-dessus de l’imprimante 3D, jouent le rôle d’une loupe géante, concentrant l’énergie solaire en des points précis, couche par couche, reproduisant en verre une structure 3D identique à la structure numérique initiale. La vidéo du résultat est bluffante :

(Markus Kayser – Solar Sinter Project from Markus Kayser on Vimeo)

Gamera, la tortue aux trois pattes et… une roue de chaise de bureau :

Pour clore cette revue du Web #6, voici l’histoire de Gamera, une tortue africaine de 12 ans. Alors que la chirurgie autorise aujourd’hui des prouesses incroyables, telle que la rotationplastie vue dans la revue du Web #1, ou encore ce chien dont les pattes ont toutes été remplacées par des prothèses dans la revue du Web #5, certaines réalisations plus prosaïques rendent toutefois de fiers services.

Après avoir constaté que la vie de Gamera était menacée par une blessure d’origine inconnue à la patte avant gauche, les vétérinaires de l’université de Washington State ont dû faire preuve de créativité pour lui sauver la vie, tout en la rendant le moins handicapée possible. La solution de la roue de chaise de bureau s’est alors rapidement imposée. Voici une vidéo où vous pouvez voir Gamera en bonne santé, se déplacer et brouter l’herbe du jardin de l’université :

En bonus : une photo d’une étoile filante vue de la Station Spatiale Internationale (SSI)

La photo a été prise par Ronald J. Garan Junior, astronaute américain, durant la pluie d’étoiles filantes du 15 août dernier, pour le compte de la NASA.

 

Par Rahman Moonzur

 

EPR de Flamanville : des « écarts » selon l’ASN

Dans son édition à paraître mercredi, le Canard Enchaîné fait état d’une « inspection explosive ». À l’issue de « l’inspection de revue » permettant un examen approfondi, effectuée entre le 1er mars et le 13 mai, Jean-Luc Lachaume, directeur général adjoint de l’ASN, fait état de « treize constats d’écart », dans une lettre adressée à la direction d’EDF.

« Au vu des écarts et faiblesses constatés au cours de cette inspection de revue, l’ASN estime qu’EDF devra faire des efforts importants pour démontrer la qualité finale de Flamanville 3 », dit Jean-Luc Lachaume, selon cette missive publiée sur le site de l’ASN.

Les « principales faiblesses relevées par les inspecteurs » portent sur des filtres de la piscine de réserve d’alimentation en eau borée en cas de situation accidentelle, sur des limitateurs de débit (venturis DN500) du système d’alimentation des générateurs de vapeur et sur des accumulateurs du système d’injection de sécurité (RIS) en cas de perte du système de refroidissement.

Sur ces systèmes, « l’ASN a demandé à EDF qu’aucune action irréversible ne soit engagée avant que la qualité de la fabrication de ces matériels n’ait été démontrée », a déclaré à l’AFP Thomas Houdré, directeur des centrales nucléaires au sein de l’ASN. « EDF ne peut pas monter ces systèmes-là sur le chantier de Flamanville avant d’avoir apporté l’ensemble des garanties que la qualité était assurée », a-t-il ajouté.

Sans avoir jusqu’à présent répondu complètement à la « lettre de suite » de l’ASN, EDF a déjà « apporté des réponses partielles » notamment en « démontrant la qualité » de la réalisation des accumulateurs RIS, a précisé M. Houdré.

Sollicité par l’AFP, EDF, maître d’ouvrage, a évoqué des échanges « réguliers » avec l’ASN et dit qu’il avait en partie répondu à l’autorité le mois dernier « sur certains points clés » de la lettre et s’apprêtait à compléter sa réponse d’ « ici la fin de semaine ». « L’EPR est un chantier particulièrement contrôlé par l’ASN. Les échanges entre l’ASN et EDF sont réguliers », a déclaré une porte-parole du premier producteur d’électricité mondial.

Mise en service prévue en 2016

Annoncé en juillet, le retard de deux ans supplémentaires pour la mise en service de l’EPR de Flamanville – désormais prévue en 2016 – est dû à la conjonction des audits décidés après la catastrophe de Fukushima, de deux accidents mortels sur le chantier et du mauvais temps qui a ralenti la construction cet hiver, a expliqué cette porte-parole. La lettre de l’ASN n’a joué aucun rôle dans ces retards, a-t-elle affirmé.

Sollicité par l’AFP, le ministère de l’Industrie a déclaré : « cet article du Canard Enchaîné ne contient aucune information nouvelle. Il reprend un extrait de la lettre de l’ASN du 24 juin, publiée depuis un mois et demi sur son site Internet ».

Le ministre de l’Industrie Eric Besson rappelle « qu’en toute hypothèse, l’installation définitive des matériels ne pourra être autorisée qu’une fois que leur qualité de fabrication aura été intégralement validée par l’ASN ».

Le mois dernier, EDF avait revu en nette hausse la facture de son premier EPR, dont il estime désormais le coût à 6 milliards d’euros, près du double des estimations initiales, qui prévoyaient également une mise en service dès 2012.

Le groupe Bouygues, chargé du gros oeuvre à Flamanville, n’a pas souhaité faire de commentaire. Sollicité, Areva n’a pas donné suite.

 

(Source et crédit photo : AFP)

 

A lire également :

La sûreté nucléaire en France, au centre des débats

Un audit va être réalisé sur le parc nucléaire français

Une mini-centrale nucléaire sous-marine en 2017 ?

Nucléaire : il n’y a pas de risques de prolifération avec les réacteurs actuels

Les premières cigarettes « anti-incendie » arrivent en Europe

Ces cigarettes, baptisées « lip » (pour « lower ignition propensity » ou propension inflammable réduite), sont déjà vendues au Canada, en Australie et dans certains États américains.

Ces cigarettes comportent désormais sur leur longueur deux ou trois anneaux où le papier dispose de moins de micro-perforations. Lorsque la combustion arrive à la hauteur de ces anneaux, le tabac est moins oxygéné, ce qui facilite l’extinction de la cigarette si le consommateur ne fume pas activement (par exemple, s’il oublie sa cigarette allumée sur le rebord d’une table), a expliqué à l’AFP Eric Sensi, directeur des affaires corporate d’Imperial Tobacco France. Ces anneaux permettent d’ « arrêter la combustion », agissent comme « des barrières », a-t-on précisé chez le fabricant des marques Gauloise, JPS ou Fortuna.

Les cigarettes équipées de ce dispositif répondent à une norme voulue par la Commission européenne en 2008 pour limiter les incendies accidentels. Selon cette norme, la responsabilité juridique d’un fabricant pourra être engagée s’il est établi qu’une de ses cigarettes, non conforme, a été à l’origine d’un incendie.

Selon le Comité National Contre le Tabagisme (CNCT), citant les derniers chiffres officiels, les incendies causés par des cigarettes ont fait 295 morts et 728 blessés graves en 2008. Environ 30 % des incendies mortels sont dus aux cigarettes. « Ces incendies surviennent généralement parce que les personnes se sont endormies alors que leur cigarette continuait à se consumer », assure le CNCT.

Le papier change, pas le goût

Ces incendies coûtent en outre 1,3 milliard d’euros par an à la collectivité, ce qui est supérieur de 160 % au coût engendré par les vols et de 30 % à celui résultant des dégâts des eaux, selon l’association anti-tabac. Le CNCT souligne toutefois qu’il est « impossible de fabriquer des cigarettes absolument sans danger », et que les cigarettes munies du nouveau dispositif « ne suppriment pas les risques pour la santé ».

Selon les fabricants, joints par l’AFP, le goût des cigarettes, leur texture ne changent pas. « Pour 90% de notre portefeuille de marques, il n’y a aucun changement de composition, a assuré M. Sensi. Pour certaines, il a fallu faire quelques modifications, mais nous avons pris grand soin de ne pas affecter le goût ». « Les taux de goudron, de nicotine et monoxyde de carbone restent règlementaires », a-t-il affirmé.

Pourtant, en France, la Confédération des buralistes assure avoir eu des remarques de consommateurs qui « s’en rendent compte et posent des questions ». Certains jugeant leur cigarette habituelle « différente ».

La Confédération regrette que ce changement n’ait pas été accompagné de campagnes de communication, ne serait-ce que pour aider les buralistes à répondre aux questions de leurs clients.

Les fabricants ont jusqu’au 17 novembre 2011 pour modifier toutes les cigarettes qu’ils livrent.

Certains, comme Imperial Tobacco France, ont déjà commencé à fournir des « lip » aux buralistes afin qu’ils puissent avoir épuisé leur stock de cigarettes « non lip » le 17 novembre. Les marques ayant le taux de rotation le plus faible sont les premières concernées.

Ces nouvelles cigarettes coûtent plus cher à produire car il faut « modifier le processus de fabrication », reconnaissent les cigarettiers, mais aucun ne souhaite préciser le montant du surcoût et tous assurent qu’en France, il ne sera pas répercuté aux consommateurs, au moins dans l’immédiat.

 

(Source et crédit photo : AFP)

 

Le Roundup de Monsanto est-il toxique ?

Le Roundup et son principe actif, le glyphosate, sont de nouveau au centre d’une controverse. Dans un rapport édité par Earth Open Source (EOS), une petite organisation non gouvernementale (ONG) britannique, une dizaine de chercheurs mettent en cause les autorités européennes pour leur peu d’empressement à réévaluer, à la lumière de nouvelles données, l’herbicide à large spectre le plus utilisé au monde. Le texte, qui circule sur Internet depuis juin, rassemble les indices selon lesquels le pesticide phare de Monsanto est potentiellement tératogène – c’est-à-dire responsable de malformations foetales.

Les auteurs du rapport citent notamment une étude publiée, fin 2010, dans Chemical Research in Toxicology, selon laquelle l’exposition directe d’embryons de batraciens (Xenopus laevis) à de très faibles doses d’herbicide à base de glyphosate entraîne des malformations. Menés par l’équipe de l’embryologue Andres Carrasco, de l’université de Buenos Aires, ces travaux identifient en outre le mécanisme biologique à la base du phénomène:exposés au phytosanitaire, les embryons de Xenopus laevis synthétisent plus de trétinoïne, dont l’effet tératogène est notoire chez les vertébrés. Monsanto réfute ces conclusions, précisant qu’une exposition directe, « irréaliste », permettrait aussi de conclure à la tératogénicité de la caféine… « Le glyphosate n’a pas d’effets nocifs sur la reproduction des animaux adultes et ne cause pas de malformations chez la descendance des animaux exposés au glyphosate,même à très fortes doses », ajoute Monsanto sur son site Web.

Pourtant, le dernier rapport d’évaluation du glyphosate par la Commission européenne, daté de 2001,qui repose au moins en partie sur les études toxicologiques commanditées par l’agrochimiste lui même, précise qu’à hautes doses toxiques, le glyphosate provoque chez le rat « un plus faible nombre de foetus viables et un poids foetal réduit, un retard d’ossification, une plus forte incidence d’anomalies du squelette et/ou des viscères ». Selon EOS, les observations d’Andres Carrasco coïncident avec des effets suspectés sur les populations humaines les plus exposées au Roundup. C’est-à-dire dans les régions où les cultures génétiquement modifiées résistantes au glyphosate (dites « Roundup Ready ») se sont imposées et où l’herbicide est donc le plus massivement épandu. Un examen des registres de la province argentine du Chaco a montré,dans la localité de La Leonesa, que l’incidence des malformations néonatales, au cours de la décennie 2001-2010, avait quadruplé par rapport à la décennie 1990-2000. Selon M.Carrasco, la commission ayant mené ce décompte a recommandé aux autorités de lancer une étude épidémiologique en bonne et due forme.

« Cette recommandation n’a pas été suivie », dit le chercheur. « Qu’il y ait un problème en Amérique du Sud avec les produits phytosanitaires, c’est probable, mais il est très difficile d’affirmer qu’il est lié au glyphosate en particulier », estime un toxicologue qui travaille dans l’industrie et reproche au rapport d’EOS des « amalgames » et « des comparaisons de chiffres trompeuses ». « En outre, ajoute- t-il, la pulvérisation aérienne est la norme là-bas, alors qu’elle est globalement interdite en Europe. »

La réévaluation prévue pour 2012 aura lieu en 2015

Pour la Commission européenne, les indices rassemblés par EOS ne constituent pas un motif suffisant pour changer le calendrier en cours. La dernière évaluation du Roundup remonte à 2002. La réévaluation était prévue en 2012, mais le retard accumulé par Bruxelles va repousser ce nouvel examen à 2015.

Ce retard n’est pas la principale raison des protestations de l’ONG. « De nouvelles règles d’évaluation des pesticides, potentiellement plus contraignantes, sont en train d’être finalisées, dit Claire Robinson, qui a coordonné la rédaction du rapport d’EOS. Mais la réévaluation qui sera rendue en 2015 reposera encore sur l’ancienne réglementation, pour laisser aux industriels le temps de s’adapter. » Ce que la Commission ne dément pas. Les nouvelles règles – qui, de source industrielle, doivent être « finalisées à l’automne » – prévoient un examen obligatoire de la littérature scientifique, en plus des études présentées par les industriels. Les travaux publiés dans les revues savantes par les laboratoires publics devront donc être systématiquement pris en compte,même si « cela ne veut pas dire qu’ils sont aujourd’hui systématiquement ignorés, loin de là », tempère Thierry Mercier, de l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses).

Pour EOS, la différence est pourtant de taille. «  Sous les anciennes règles, il est probable que le glyphosate obtiendra une nouvelle autorisation, dit Mme Robinson. Il faudra alors vraisemblablement attendre jusqu’en 2030 pour que ce produit subisse une réévaluation sérieuse, conforme au nouveau règlement. Alors que nous savons dès aujourd’hui qu’il pose problème. »

Les études commanditées par les industriels doivent répondre à certains critères concernant les espèces animales enrôlées dans les tests, la nature et la durée de l’exposition aux produits testés, etc. Les laboratoires universitaires –comme celui de M.Carrasco–disposent d’une plus grande latitude. Et les différences de conclusions sont parfois considérables. Un exemple cité par EOS est celui du bisphénol A (BPA). Dans une revue de la littérature scientifique publiée en 2005 dans Environmental Health Perspectives, Frederick vom Saal (université du Missouri) estimait que 94 des 115 études académiques publiées sur le sujet concluaient à un effet significatif du BPA sur les organismes, même à très faible dose. Dans le même temps, aucune des dix-neuf études sur le même thème commanditées par les industriels ne mettait en lumière de tels effets. En France, le BPA a été interdit en 2010 dans les biberons.

Dans le cas du glyphosate et de son principal produit de dégradation, l’acide aminométhylphosphonique (AMPA), plusieurs études publiées ces dernières années mettent en lumière leur toxicité pour certains organismes aquatiques. «  Le glyphosate ou l’AMPA ne sont pas des molécules très problématiques en elles-mêmes, en tout cas moins que d’autres, explique Laure Mamy, chercheuse à l’Institut national de la recherche agronomique (INRA) et spécialiste du devenir de ces composés dans l’environnement. Le problème, c’est la quantité. C’est la dose qui fait le poison. » Or, si le glyphosate se dégrade relativement rapidement, « l’AMPA peut persister plusieurs mois dans les sols ». En France, selon l’Institut français de l’environnement (IFEN), cette molécule est désormais le contaminant le plus fréquemment retrouvé dans les eaux de surface.

Son succès est donc le principal problème du Roundup. D’autant que des résistances sont apparues ces dernières années. Sur le continent américain en particulier, où les cultures génétiquement modifiées associées ont permis un usage massif du Roundup, des mauvaises herbes commencent à être de moins en moins sensibles – voire complètement résistantes – à l’herbicide phare de Monsanto. « Or, lorsque ces résistances commencent à survenir, on est parfois tenté d’augmenter les quantités épandues », dit Laure Mamy.

Source : Stéphane Foucart, Le Monde, le 9 août 2011, p 10.

 

Découvrez les fiches pratiques Techniques de l’Ingénieur :

  • Fiche pratique Risques chimiques

Participez à la formation Techniques de l’Ingénieur Produits phytosanitaires

 

Inconfort lié à la 3D : un problème d’accommodation

Un sentiment d’inconfort, de fatigue ou même des maux de tête ? De très nombreux rapports font déjà état d’un lien entre ces trois maux assez communs et l’utilisation prolongée de nos appareils mobiles, ou d’autres appareils bénéficiant de la en 3D stéréo. Une nouvelle étude, diligentée par le journal américain « Journal of Vision » va dans le sens de ces précédents rapports, tout en se targuant d’avoir trouvé la principale cause de ces différents maux : l’effort réalisé par l’œil pour faire la mise au point tout en s’ajustant simultanément à la distance avec le contenu 3D, réalisé de manière trop prolongée, en serait en partie la source.

On touche ici à l’idée de vergence et d’accommodation : la vision est dès le départ nette lorsque nous regardons une image au loin, alors que la vision d’un objet proche demande un effort de mise au point, l’accommodation, consistant à ramener l’image de l’objet sur la rétine, c’est-à-dire à diminuer la distante focale du cristallin, augmentant la vergence de l’œil. Martin S. Banks, auteur de l’article et professeur d’optométrie à l’université américaine de Berkeley, en Californie, explique : « Lorsqu’on regarde une image 3D sur un appareil, les yeux font la mise au point – l’accommodation – sur l’écran car c’est de là que provient la lumière. Au même moment, les yeux convergent sur la distance du contenu 3D stéréo, qui peut se trouver [virtuellement] en avant ou en arrière de l’écran ».

A travers une série d’expériences réalisées sur 24 adultes, l’équipe de chercheurs a observé le lien entre la distance où se trouve le sujet et la position virtuelle de l’objet, source du conflit visuel et de l’inconfort. Les appareils mobiles tels que les téléphones portables ainsi que les écrans de bureau, utilisés par essence à de courtes distances, rendraient la vision d’images placées en avant de l’écran moins confortable que si elles se trouvaient en arrière de l’écran. Au contraire, pour un dispositif se trouvant à une distance plus grande, un écran de cinéma par exemple, les images placées à l’arrière du plan de l’écran seraient les moins confortables.

Les chercheurs proposent à la communauté scientifique d’étudier un peu plus en profondeur le problème, notamment sur un panel plus large, afin d’établir des statistiques incluant les enfants, car ils sont bien conscients que « nous ne sommes pas prêts de voir reculer la 3D dans notre quotidien, bien au contraire ». Avec l’explosion de l’imagerie stéréo 3 dimensions dans le monde du divertissement, dans celui de la communication ou encore des techniques médicales, la rapidité et la coordination des études en parallèle avec les progrès, le développement et la diffusion de ces technologies risquent en effet d’être cruciales.

Par R.M

 

Sur le même sujet :

« Il y a comme une impression, pour les riverains, d’arriver toujours trop tard »

Instantanés Techniques : Présentez-nous l’association RESPIRE.

Raymond Bozier : Respire (Rassemblement d’ Eco-citoyen pour Sensibiliser Protéger et Inciter au Respect de leur Environnement) a été constituée par des habitants en septembre 2009, à la suite d’une longue période de pollution de l’air par d’intenses odeurs d’hydrocarbures. Elle compte aujourd’hui plus de 350 adhérents et poursuit son développement.

Les habitants ont décidé de créer cette association suite à une pollution de l’air dans votre quartier de La Rochelle.

Les quartiers de Laleu/La Pallice sont cernés par une zone agro-industrialo-portuaire, et c’est à partir d’une nuisance, en l’occurrence une gêne au niveau de la qualité de l’air, que tout est parti. Cette pollution de l’air était due au défaut de fonctionnement d’une cuve d’hydrocarbure. Pour l’anecdote, il nous faudra presqu’une année et beaucoup d’insistance  avant de savoir ce qui s’était exactement passé. L’exemple des quartiers de Laleu/ La Pallice, à La Rochelle, est emblématique de ce qui peut se passer, du côté des citoyens, lorsqu’ils sont confrontés à des incidents industriels.

 

Que s’est-il passé ?

Quelques habitants se sont regroupés et ont cherché à comprendre les causes de la pollution. Une pétition des courriers recommandés – restés sans réponses ! – ont été envoyés au député-maire de la commune et au préfet. C’est la première chose à souligner : les riverains que nous sommes n’avaient pas d’informations sur ce qui se passait dans notre voisinage, et spécialement au niveau industrialo-portuaire. En outre, notre secteur est cerné par des entreprises dangereuses classées Seveso seuil haut : Rhodia, Gratecap, SDLP, Picoty, ainsi que d’autres entreprises classées ICPE. C’est en nous intéressant au contexte que nous avons découvert toute une problématique économique et sécuritaire. D’autre part, nous avons également appris à cette occasion, à notre grande stupeur, que la société PICOTY SA, gérante des stations-service Avia pour le grand Sud, avait obtenu dès décembre 2008 un permis de construire quatre cuves supplémentaires, soit 43 000m3 sur un site venu jouxter l’habitat dans les années 1974/1989 et fort déjà du stockage de 450 000 m3 d’hydrocarbures ! Les informations relatives à ces sites n’avaient pas été données aux habitants proches, comme elles auraient dû l’être. Les riverains en manque d’informations, ont été alors contraints de démarcher les pouvoirs publics pour apprendre ce qui les concernait au premier chef. C’est donc grâce à cet « incident » – la pollution de l’air -, que les habitants ont pu avoir les informations relatives à de nouvelles constructions (cuves d’hydrocarbure, usine de broyage de ciment, cuves d’engrais liquide…), et ainsi prendre  vraiment conscience qu’ils habitaient à côté de sites classés à risque. Depuis la découverte des dangers encourus et des conséquences du PPRT en terme immobilier, certains riverains dorment mal et s’inquiètent beaucoup quant à leur devenir.

Vous évoquez la « prise de conscience » par les riverains des dangers relatifs à la présence d’un site Seveso dans votre voisinage. Cela signifie que vous n’aviez pas d’informations relatives  à ce sujet auparavant ?

C’est tout le problème. Au niveau des responsabilités, la préfecture avec l’appui de la DREAL et de la DDTM, la communauté d’agglomération et la mairie, s’accordent avec les industriels pour appliquer et faire respecter les lois. Au-delà, par contre, il y a très peu de communication des pouvoirs publics  (préfecture et mairie) et des industriels, en direction des riverains. C’est pour cela que nous avons créé l’association RESPIRE : pour faire entendre nos voix et obtenir des réponses aux questions de sécurité et d’environnement que nous nous posons légitimement.

Quelles réponses avez-vous obtenues ?

Hormis un représentant du comité de quartier, très peu représentatif de la population et siégeant au CLIC, la grande masse des citoyens, et tout particulièrement les riverains,  était exclue  des discussions. Les choses se faisaient en dehors de tout vrai débat citoyen. C’est un des grands défauts de la situation actuelle et notamment du débat sur les PPRT et les sites Seveso  :  il faut absolument que les pouvoirs publics trouvent le moyen d’impliquer vraiment les citoyens, pour qu’ils sachent ce qui se passe à proximité de chez eux. Le mécontentement des habitants de Laleu/La Pallice est dû au fait qu’ils ont découvert la réalité de la situation très tard, trop tard pourrait-on même dire. Si personne n’avait demandé à savoir ce qui se passait, les riverains du site PICOTY SA, par exemple, auraient découvert, comme en 1989, la construction de nouvelles cuves le jour où elles seraient sorties de terre. On appelle ça la politique du fait accompli. Il y a comme une impression, pour les riverains, d’arriver toujours trop tard, tant en ce qui concerne le risque que le développement industriel proprement dit…  Il faut cesser de prendre les citoyens pour des acteurs secondaires, pour ne pas dire des incompétents.

Qui est responsable de cette situation ?

Il ne s’agit pas d’instruire un procès historique, mais dans les années 60/70, l’industrialisation de la France était un fait acquis, pour créer des bassins d’emplois, une dynamique d’activité…  Nous n’en sommes plus là aujourd’hui. Certes la question de l’industrialisation se pose toujours, et les adhérents de RESPIRE n’y sont pas opposés, mais celle-ci ne saurait se faire n’importe comment et sans tenir compte de la population. Et puis, surtout, il y a eu la création des sites Seveso et d’autres accidents majeurs : l’explosion de l’usine AZF étant le dernier exemple en date. Ces accidents tragiques de grande envergure et avec des coûts humain et économique considérables, sont dans les consciences. Les populations ne peuvent plus faire comme si elles ne savaient pas.

Revenons sur l’action que vous menez quant à l’installation des cuves d’hydrocarbures près des habitations dans le quartier de La Pallice. Quels sont vos griefs ?

Comment ce triumvirat « État – collectivités locales – industriels » a-t-il pu laisser construire des cuves à proximité des maisons d’habitation, sans prendre en compte les risques inhérents à la nature des matériaux contenus dans ces cuves ? Il est  incompréhensible que des gens élus démocratiquement, que ce soit au niveau local ou plus, n’informent pas la population quand des décisions d’extension de sites ou de délivrance de permis de construire à des industries à risques sont actées. Cela crée du ressentiment de la part des citoyens à l’égard des élus et du préfet, ce qui est très dommageable pour la démocratie. Il faut que les pouvoirs existant apprennent à informer et également à tenir compte de l’avis du peuple, autant que des industriels. J’insiste sur le « tenir compte de l’avis des citoyens » parce que les instances de concertation et de décision qui existent sont bien souvent composées de telle sorte que cet avis n’a que très peu de poids… On désencombrerait significativement les tribunaux administratifs si la démocratie fonctionnait mieux dans notre pays.

Est-ce que la mobilisation, au sein de votre association, éveille les consciences ?

En plaçant le débat sur la place publique et grâce aussi à sa bonne médiatisation, l’association RESPIRE a permis une véritable prise de conscience des problèmes par la population, et cela bien au-delà des quartiers de Laleu/La Pallice. Le paradoxe, c’est qu’on s’aperçoit que les gens ne sont  pas indifférents à ces sujets dès lors où on les en informe. Mais il faut aussi qu’ils créent leur association pour pouvoir accéder pleinement aux informations les concernant. C’est cela qui ne va pas du tout. Le fait de ne pas être associés, en tant que citoyens, aux débats préalables, dans ce genre de situation, est comparable à une double peine : tout d’abord, comme nous venons de l’évoquer, il y a un manque d’information, qui nous pénalise. Mais au-delà, quand nous sommes finalement conviés aux réunions entre les parties prenantes, le décalage est trop important en terme de connaissances – juridiques, scientifiques, administratives, techniques  – entre le triumvirat Etat/élus/industriels, et les représentants de l’association qui se voient contraints de faire des efforts considérables pour essayer de maîtriser les dossiers (RESPIRE a organisé dernièrement, avec l’aide de France Nature Environnement, un stage de formation sur le risque industriel). D’autre part, nous nous retrouvons parfois à poser des questions  qui ont déjà été discutées en amont, cela rend les débats souvent peu productifs. Au final, nous avons l’impression d’être exclus du débat, même quand nous parvenons à y participer.
.

Cela créé-t-il des tensions au niveau local ?

Nous sommes obligés d’entrer dans un rapport de force (protestations, diffusions de tracts, manifestations médiatisées) avec le triumvirat Etat/Elus/Industriels pour être entendus. Souvent d’ailleurs, cela ne suffit pas et nous sommes alors, en dernier recours, contraints de faire appel au tribunal. Dans un pays démocratique, cela est plutôt décevant.  Au niveau des pouvoirs publics, les relations deviennent souvent compliquées après ce type d’actions. Nous sommes accusés de vouloir désindustrialiser la région, d’être contre le progrès, de ne pas vouloir sortir de la crise, de nuire à l’emploi et, comble du ridicule argumentaire, de n’être qu’un « ramassis de bobos » !… alors que les préoccupations qui sont les nôtres sont celles du risque industriel pour les populations de proximité. Nous avons été très étonnés par l’utilisation de ces types d’arguments…

Quels sont les avantages relatifs à la constituions d’associations dans ce type de démarches ?

C’est d’abord le seul moyen que nous avons trouvé pour être un tant soit peu écoutés. Ensuite, les adhérents de  l’association viennent de milieux professionnels très différents et amènent donc des compétences qui nous permettent de mieux appréhender la complexité des débats. Ce qui est intéressant, c’est que depuis la création de notre association nous ont rejoint des médecins, des ingénieurs, des techniciens, bref toute une population active et qualifiée, qui avaient des compétences sur ces sujets et des avis divergents de ceux du triumvirat, mais n’avaient pas de moyens de les faire valoir. De cette façon, on peut considérer que les choses avancent dans le bon sens, puisque la société civile a décidé de s’organiser et de faire valoir son point de vue quant au danger industriel existant sur ces sites sensibles.

Cela reste toutefois insuffisant. Nous ne pouvons pas prétendre aujourd’hui que nous sommes écartés du débat, mais cela étant dit personne ne nous accompagne dans notre démarche pour mieux comprendre les tenants et les aboutissants de ces problématiques Seveso très complexes. Il n’y a qu’à voir de quelle manière la population, ici, est désormais attentive à tout ce qui touche à Seveso pour comprendre à quel point le manque d’information était patent auparavant. Les personnes informées sont désormais plus vigilantes et plus mobilisées.
Enfin, et c’est un point éminemment positif, les actions que nous avons mené au sein de la cité ont créé du lien social. La notion de solidarité entre des gens de milieu très divers (ouvriers, employés, cadres, chômeurs, retraités…) a beaucoup progressé, ici, dans nos quartiers. Nous ne nous en plaignons pas…
.

Propos recuillis par Pierre Thouverez

 

Participez aux formations Techniques de l’Ingénieur :

Réglementation risque chimique

ICPE: piloter et suivre l’évolution de ses installations classées

 

Les fiches pratiques de Techniques de l’Ingénieur :

la fiche pratique ICPE

 

POSTULEZ À UN EMPLOI VERT ET/OU REJOIGNEZ LE GROUPE ENVIRONNEMENT