Donner le sens du toucher aux robots

Notre désir de créer des robots à notre image, les plus fidèles possibles, se heurte encore  à des difficultés technologiques. Pendant que le projet Human Brain Project s’évertue à simuler le cerveau humain, des chercheurs américains ont progressé vers une peau artificielle capable de simuler le sens du toucher. Cette fois, ils n’ont pas choisi de s’appuyer sur des capteurs piezoéléctriques mais plutôt sur des capteurs MEMS (Microsystème électromécanique) barométriques. Ces derniers présentent l’avantage d’être fabriqués en grande série puisqu’ils équipent déjà les systèmes GPS. 

Les scientifiques d’Harvard ont ensuite noyé les capteurs dans un élastomère de façon à conserver leur sensibilité à la pression. Résultat : une matrice de 40 capteurs  que l’on peut surmouler sur un doigt de robot. Si la sensibilité est bonne, la résolution reste encore faible, de l’ordre de 3 à 5 mm là où des dispositifs atteignent les 100 microns. Ces derniers sont en revanche beaucoup plus complexes à mettre et en œuvre et de facto plus chers.

L’équipe d’Harvard a donc réussi à fabriquer une peau artificielle qui pourrait déboucher sur la fabrication de robots dotés du sens du toucher, indispensable pour effectuer des tâches comme serrer une main ou casser un œuf. 

Nul doute que cette nouvelle surface low cost sensible à la pression séduise. Pas uniquement pour cette application de peau artificielle mais aussi pour créer une signature multidimensionnelle, qui serait basée à la fois sur le graphisme et sur la pression exercée en chaque point.

Par Audrey Loubens, journaliste scientifique

Un pas de plus vers le clonage thérapeutique

La méthode n’a rien de nouveau, pourtant c’est bien une première à laquelle nous assistons ici :

une équipe internationale de chercheurs est parvenue à cloner des cellules souches embryonnaires humaines à partir de cellules prélevées sur l’épiderme d’un patient, ouvrant la voie à un possible clonage thérapeutique.

Toutes les étapes étaient connues et respectaient plus ou moins un schéma bien balisé, déjà utilisé pour le clonage de la brebis Dolly en juillet 1996 :

du prélèvement de cellules sur l’épiderme d’un patient à l’extraction de l’ADN de ces cellules, de l’énucléation de l’ovule d’une femme donneuse pour en retirer le matériau génétique jusqu’à la réintroduction de l’ADN prélevé au préalable dans les cellules de l’épiderme, de la stimulation de l’ovule jusqu’à l’interruption du développement embryonnaire, pour enfin aboutir aux cellules non encore différenciées que sont les cellules souches.

Les scientifiques ont surtout réussi à surmonter les principales difficultés en ralentissant l’une des phases du processus naturel de division des cellules humaines, par le biais d’une réaction chimique.

Le docteur Shoukhrat Mitalipov, qui officie à l’Oregon Health and Science University et ayant dirigé les travaux, s’explique :

« Les cellules souches obtenues par cette technique ont démontré leur capacité à se différencier comme des cellules souches embryonnaires normales en différents types de cellules, nerveuses, hépatiques et cardiaques ».

Il aborde également le sujet du rejet des cellules : « De plus, comme ces cellules souches reprogrammées peuvent être obtenues à partir de matériau génétique du noyau d’un malade, il n’y a aucun problème de rejet des cellules implantées ».

Les chercheurs insistent aussi sur la résolution du casse-tête éthique de l’utilisation de cellules souches provenant d’embryons fertilisés, problème qui se trouve ainsi contourné.

Les opposants à cette technique mettaient en exergue la destruction de l’embryon au cours de ce processus.

Par Moonzur Rahman

 

Découvrez notre offre de formation Chimie :


Enfin une mesure de la température du noyau de la Terre !

Quelle température règne au centre de la Terre ? Pour le savoir, difficile d’aller faire la mesure in situ. Il existe donc des modèles théoriques qui prédisent cette valeur.

Pour vérifier cette prédiction, les scientifiques disposent de deux techniques expérimentales permettant de chauffer des particules de fer à très haute pression, de façon à se rapprocher des conditions réelles présentes au cœur de la Terre : la mise sous choc et les enclumes diamant.

La première approche a déjà donné des résultats cohérents avec les valeurs théoriques, mais les mesures utilisant des enclumes en diamant avaient échoué. « La diffraction X n’était pas assez mûre pour permettre des mesures aussi rapides. Dans  notre cas, l’échantillon évolue très vite et la fusion peut se produire en quelques secondes.

On ne peut pas se permettre d’avoir des temps d’acquisition de plusieurs minutes » explique Agnès Dewaele, Ingénieure chercheur au CEA.  Pour pouvoir suivre l’expérience en direct, il aura donc fallu patienter. Jusqu’à ce travail mené conjointement par des chercheurs du CEA, du CNRS et de l’ESRF.

Cette fois, les scientifiques ont choisi de travailler sur la ligne de lumière ID27 de l’ERSF, spécialisée pour les expériences  dans les très hautes pressions et utilisant un chauffage laser. Le dispositif de diffraction X comportait deux onduleurs croisés, un monochromateur puis deux miroirs K-B permettant de focaliser le faisceau pour finalement avoir une taille de faisceau de 2-3 microns à la surface de l’échantillon.

Les micro-grains de fer ont été chauffés grâce à deux laser infrarouges Yag.

« Nous avons utilisé deux laser pour assurer une température homogène dans toute l’épaisseur de l’échantillon.

Nous nous sommes rendus compte que si nous n’utilisions qu’un seul laser, les diamants qui ont une forte conductivité thermique créaient une forte déperdition de chaleur et nous nous retrouvions avec un côté froid » précise Agnès Dewaele.

L’échantillon baigne dans du sel, un milieu transmetteur de pression, et est comprimé entre les deux diamants. Ainsi, les chercheurs ont pu imposer une pression de 2.2 millions d’atmosphères puis chauffer le fer.

Les clichés de diffraction X passant de spots très piqués à des spots très larges en même temps que le fer passe de l’état solide à l’état liquide, la température de fusion est nettement identifiable.

Pourquoi  la température de fusion du fer ? Parce qu’on estime que proche du noyau terrestre la température doit être proche de la température de  fusion.

Une fois cette mesure réussie, il ne restait plus qu’à l’extrapoler à la pression existant au niveau du noyau, soit 3.3 millions d’atmosphères.

 « Nous avons essayé de monter plus haut en pression et de chauffer plus notre échantillon. Malheureusement, sous la pression l’échantillon devient tellement fin qu’il rentre presque en contact avec les diamants.

Toute la chaleur est dissipée dans les enclumes » regrette Agnès Dewaele. L’équipe a quand même réussi à déterminer que la température à la surface du noyau est de 3800°C et de 5200°C à la limite noyau/graine.

Grâce à cette mesure par diffraction des rayons avec des enclumes diamants, les deux techniques expérimentales et la théorie convergent.

« Pour la première fois nous obtenons un bon accord entre les trois approches. C’est très satisfaisant d’autant que nous pouvons ainsi donner aux géophysiciens une valeur fiable pour leurs modèles » se félicite Agnès Dewaele.

Par Audrey Loubens, journaliste scientifique

Les robots tueurs, c’est pour demain ?

Christof Heyns, Rapporteur spécial de l’ONU sur les exécutions extrajudiciaires, sommaires et arbitraires, présentera son rapport sur les robots autonomes munis d’armes létales le 29 mai, lors de la 2e session du Conseil des droits de l’homme des Nations Unies à Genève.

Il recommandera aux gouvernements d’instaurer des moratoires nationaux sur le développement de ces robots et demandera l’établissement d’un groupe de haut niveau pour l’élaboration d’un traité international.

Pour appuyer la sortie de ce rapport, Human Rights Watch a lancé fin avril une campagne mondiale pour l’interdiction de ces « robots tueurs ».

« Le recours à des robots tueurs transgresserait toute frontière morale et juridique, et devrait être rejeté comme étant inacceptable pour la conscience publique.» affirme Steve Goose, directeur de la division Armes à Human Rights Watch dans un communiqué.

De nombreuses préoccupations sont en effet suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique.

L’utilisation d’armes totalement autonomes créerait un vide juridique en matière de responsabilité, car il serait très difficile d’établir clairement qui serait légalement responsable des actes d’un robot. En l’absence d’intervention humaine dans la chaîne de décision, qui serait responsable en cas de raté : le fabricant, l’armée, le politique ?

De quels robots parle-t-on exactement ?

Les progrès technologiques permettent aujourd’hui de contrôler des drones ou des véhicules armés sans équipage.

« De nombreuses armées sont à la recherche d’armes de plus en plus autonomes, mais une ligne rouge doit être tracée dès maintenant devant des armes qui seraient complètement autonomes », estime Steve Goose.

« Mettre au point ces armes reviendrait à aller trop loin dans le recours à la technologie et une interdiction est nécessaire dès maintenant, avant que les investissements, la dynamique technologique et de nouvelles doctrines militaires ne les rendent inéluctables.» poursuit-il.

Le Département américain de la Défense a d’ores et déjà émis une Directive (nº 3000.09) qui, pour l’instant, exige qu’un être humain soit dans la chaîne de consultation des systèmes pleinement autonomes quand il s’agit de décider de l’utilisation de la force létale.

En revanche, elle prévoit une dérogation possible si les responsables du Département au plus haut niveau le décidaient. Les acteurs en présence estiment donc qu’il faut aller plus loin dans l’interdiction.

Une réflexion éthique en cours

Le plan « France robots initiatives », soutenu par Arnaud Montebourg, ministre du redressement productif, vise une réflexion sur ces questions éthiques.

Cette réflexion s’intéressera bien évidemment à l’acceptabilité éthique et sociétale des robots dans les domaines de la défense et de la sécurité, mais aussi, de façon plus large, à la place respective de l’homme et des machines « intelligentes » dans la société.

Ce travail débouchera sur une charte éthique ou déontologique.

Par Matthieu Combe, journaliste scientifique

Cap sur la Grande Plaque de déchets du Pacifique Nord

Le 15 mai, l’équipage a décollé de Guyane pour rejoindre le bateau à San Diego en Californie. L’expédition a ensuite pris la mer le 20 mai pour un voyage d’environ 3 700 km, en direction de la soupe de plastique du 7e continent, une région encore très mal connue du monde.

Durant toute l’expédition, Soizic Lardeux capturera des images en surface et à différentes profondeurs pour ramener un témoignage et sensibiliser le monde à cette problématique. Car l’expédition se veut avant tout pédagogique.

Pour cela, plusieurs classes sont impliquées dans le projet et exploiteront les données satellites fournies par le Centre national d’études spatiales (CNES) dans le cadre du projet Argonautica.

Le bateau est équipé d’une balise Argos pour que tout le monde puisse suivre sa progression sur internet.

L’équipage

Mesurer la pollution de l’eau et des poissons

Les fragments de plastique sont des réservoirs de polluants. Ils les piègent, les accumulent, les transportent et les relarguent.

Pour détecter la pollution relarguée par ces fragments dans l’eau, des capteurs fournis par le laboratoire des Interactions Moléculaires et Réactivité Chimique et Photochimique (IMRCP) de Toulouse seront utilisés.

Ces capteurs concentrent rapidement les polluants, ce qui permet ensuite de les doser en laboratoire par chromatographie gazeuse couplée à un spectromètre de masse.

Ces organogels poreux fonctionnent comme une éponge à polluant : l’eau circule facilement à l’intérieur et y laisse ses polluants.

Le montage est simple : placés dans des petites boules grillagées, les capteurs sont placés dans l’eau durant 2 heures.

Durant le trajet, des capteurs seront placés à 3 endroits différents pour comparer l’évolution de la pollution à l’approche de la plaque de déchets.

À chaque emplacement, 3 réplicas seront faits en surface, 2 à 40 cm de profondeur et 2 à 1,2 m de profondeur. Ils seront analysés au laboratoire au retour.

Ces organogels seront aussi utilisés pour analyser les polluants présents dans les grands poissons.

« La congélation aurait été une meilleure option mais il n’y a pas de congélateur à bord du voilier ! C’est une opportunité pour les chercheurs du laboratoire des IMRCP de tester l’utilité de leurs capteurs dans ce contexte », confie Claire Pusinéri, responsable scientifique de l’expédition.

« Nous avons une dizaines de capteurs dédiés à cela. Nous en placerons 2 dans chaque poisson. Le nombre de poissons sera fonction de la pêche », prévient-elle.

Les micro-fragments et le plancton présents à la surface de l’eau seront échantillonnés avec un filet à plancton « Manta » petit modèle (50 cm x 20 cm d’embouchure et 300 micron de maille) qui sera mis à l’eau environ 1 heure chaque jour. Les échantillons seront analysés par le laboratoire des IMRCP ainsi que par certaines classes participant au projet.

Utiliser des bouées dérivantes

Pour le projet, une bouée dérivante, la Gyroplastic, a été élaborée par des élèves ingénieurs de l’ICAM Toulouse.  

Elle comprend des capteurs de fluorimétrie, de luminosité, de températures et de conductimétrie à 1 m, 15 m et 30 m de profondeur. La bouée sera mise à l’eau environ 1h par jour pour faire les mesures.

Les données collectées seront directement transmises au CNES via Argos.

Les élèves ont aussi travaillé sur le prototype  d’un capteur spécifique « plastique », qui est intégré à la bouée.

En différenciant les micro-déchets plastiques du plancton, il sera possible de calculer la concentration des fragments dans les zones de prélèvement. 3 autres bouées dérivantes du programme de suivi des océans Oceansites seront lancées au fil de la mission.

Par Matthieu Combe, journaliste scientifique

 

En savoir plus sur :  l’échec de la précédente expédition

Découvrez notre offre de formation Pollution :


Des nanocristaux « super-fluorescents »

Un  nanocristal 100% fluo ? C’est possible à température cryogénique. Publiés dans Nature Nanotechnology, les travaux des chercheurs de Groupe d’Etude de la Matière Condensée – GEMaC (CNRS / UVSQ) et du Laboratoire de Physique et d’Etude des Matériaux – LPEM (CNRS / ESPCI / UPMC) expliquent comment le contrôle de l’effet Auger annule toute perte de fluorescence. 

Pour rappel, lorsqu’un électron est arraché, la lacune électronique créée est comblée par un électron situé sur une couche supérieure. 

L’énergie dégagée peut alors être utilisée par un troisième électron qui peut s’éjecter hors de son atome, c’est l’électron Auger. L’effet Auger est un phénomène en concurrence directe avec l’émission d’un photon à la place de l’électron Auger. Il apparait donc que si l’on est capable d’empêcher l’effet Auger, alors il y aura systématiquement émission d’un photon, soit une fluorescence totale.

En collaborant avec d’autres chercheurs à l’international, les physiciens français sont parvenus à supprimer l’effet Auger en maintenant la troisième charge électrique localisée à la surface de la nanoparticule. Ceci est possible à très basse température : à 30K, la fluorescence est de 100%.

Les nanocristaux étudiés sont du séléniure de cadmium, possédant un cœur sphérique de 1.5 à 2.5 nm de rayon, avec une coque de 6 ou 10 nm d’épaisseur.

La neutralisation de l’effet Auger dépend de la température puisque ces cristaux se trouvent à l’état neutre ou chargés à température ambiante, mais exclusivement chargés dès que l’on passe la barre des 200K.

Le rendement quantique est alors d’autant plus important que la température baisse. Cette différence de comportement est lié au fait qu’en fonction de la température, les électrons ne sont plus confinés dans le cœur du nanocristal mais se positionnent à la surface.

Par Audrey Loubens, journaliste scientifique

L’essor phénoménal des imprimantes 3D

Créée il y a près de trente ans – brevetée au milieu des années 80 – l’impression tridimensionnelle (3D) ne cesse de fasciner.

Les médias s’enflamment, se questionnant sur la probable révolution qu’engendre ce procédé. Simple évolution ou révolution, science-fiction ou nouvelle réalité ?

Souvenez-vous dans Tintin et le Lac aux requins, le professeur Tournesol inventait une photocopieuse d’objets. C’était en 1972. Aujourd’hui la technique s’est perfectionnée grâce au talent des chercheurs.

Retour sur un principe assez simple. Pour qu’il y ait impression 3D, quelques ingrédients clés sont nécessaires.

Tout d’abord un fichier informatique de l’objet que l’on souhaite produire, mais aussi, évidemment, une imprimante tridimensionnelle.

Ensuite, il existe deux méthodes.

La plus courante est celle qui consiste à superposer des couches de matières les unes sur les autres, généralement du plastique, puis de les coller afin de les solidifier. On parle de processus additif. Il en résulte l’objet en relief. Finalement, le principe n’est pas si éloigné de celui de l’imprimante 2D.

L’autre méthode nécessite une imprimante spéciale : l’imprimante 3D eMotion Tech inspirée par la technologie RepRap, la première imprimante 3D à faible coût et auto-réplicable. Elle fonctionne par la juxtaposition de filaments plastiques, portés à très haute température, en plusieurs points précis.

Ces couches successives forment petit à petit l’objet, une fois les filaments refroidis. Il s’agit du principe d’extrusion. Toute une gamme de filaments est disponible à des diamètres plus ou moins importants.

L’impression 3d s’illustre dans de nombreux domaines, parfois improbables :

Dans la santé

Cette technologie est clairement la source de nombreux espoirs pour certains malades.

Récemment, l’histoire d’un homme atteint d’un cancer, et à qui l’on avait greffé un nouveau visage avait ému. Cet homme, après l’ablation d’une tumeur à la tête qui lui avait fait perdre une grande partie de son visage, s’était fait poser une prothèse créée par impression 3D.

Suite à l’intervention, sa vie avait changé. L’homme a pu retrouver quelques-unes de ses capacités qui lui permettent aujourd’hui de revivre.

Dans le même domaine, des scientifiques britanniques ont créé des matériaux synthétiques se rapprochant de tissus vivants. L’objectif visé, que ces matériaux puissent reprendre les fonctions de ces tissus au sein du corps humain.

Malheureusement ces matériaux sont composés de milliers de gouttelettes d’eau d’un diamètre d’un millième de millimètre reliées les unes aux autres par un mince film de graisse. Ce qui signifie qu’à l’heure actuelle, ils sont encore trop volumineux pour être exploités.

C’est au tour de la chirurgie réparatrice d’employer l’impression 3D. Dernièrement, une équipe de scientifiques new-yorkais s’est distinguée en concevant une oreille humaine artificielle biocompatible.

À partir d’une photographie en 3D d’une oreille, ils ont fabriqué un moule creux dans lequel ils ont placé un gel constitué de collagène et de cellules d’oreille de vache.

Par la suite, l’oreille est mise en culture quelques jours afin que le cartilage se constitue et le tour est joué. D’ici quelques années, les scientifiques espèrent pouvoir utiliser ce procédé pour greffer des oreilles humaines aux patients atteints de microtie (malformation congénitale) ainsi qu’à ceux ayant perdu leur oreille interne.

Pour le moment ce pan de la médecine reste à explorer plus profondément et bien qu’il offre de bons espoirs dans la recréation du corps humain, peut-on parler de nouvelle ère ?

Dans la mode

En mars, la pin-up Dita Von Teese, dévoilait l’une des premières robes imprimées en 3D, taillée sur mesure pour elle.

La robe, fruit du travail commun des créateurs Michael Schmidt et Francis Bitonti s’affirme comme la dernière innovation textile marquante.

Pour la réaliser, il a fallu assembler 17 pièces et gérer plus de 3 000 articulations. Iris Van Herpen, une créatrice Néerlandaise a également affiché son ambition de se tourner vers cette technologie dans le cadre de son travail.

Et dans le même registre, le studio américain Continuum Fashion confectionne des sous-vêtements, maillots et chaussures par ce procédé. Néanmoins le coût devrait en décourager certains. Comptez 900 euros pour une paire de chaussures.

En cuisine

L’impression 3D n’a aucune limite semble-t-il. Elle se tourne à présent vers un registre que l’on n’aurait même pas soupçonné : la cuisine.

Différentes machines existent pour imprimer des aliments comestibles. Les plus connues sont probablement la ChocEdge et l’Imagine, des imprimantes 3D spécialisées dans le chocolat.

La ChocEdge permet de réaliser des dessins, des sculptures en chocolat par le biais d’une fine seringue. Son coût est la aussi dissuasif, puisqu’il faut débourser 3 000 euros pour son acquisition.

Par ailleurs, Hod Lipson, Evan Malone et Dan Périard, trois professeurs au Cornell University’s Computational Synthesis Lab, ont travaillé sur le projet « Fab@home » une imprimante permettant de fabriquer n’importe quelle nourriture.

Cependant, bien que les aliments ainsi crées ne présentent aucun danger pour la santé, le goût ne serait pas encore concluant.

Parallèlement, le chercheur au MIT Marcelo Coelho, met au point une imprimante 3D destinée à la préparation de plats cuisinés. La « Digital Fabricator » qui n’est encore qu’un projet prendrait en compte différents paramètres tels que la température, le nombre de calories et la forme des plats.

Plus fou encore, la start-up américaine Modern Meadow cherche à imprimer de la viande ! Pour ce faire, il suffirait de remplacer les cartouches d’encre par des cellules souches d’animal, obtenues par biopsie.

Dans l’industrie

L’impression 3D est exploitée depuis bien longtemps par le secteur industriel. Surtout dans l’aéronautique et l’automobile. Des pièces finies voient le jour.

Le constructeur Dassault a ainsi mis au point une cinquantaine de drones de combat. Le Neuron – le petit nom du prototype – fonctionne et vole convenablement.

Le groupe industriel européen EADS développe également des drones, des armures et des ailes pour les systèmes aériens et de défense.

Quelques années auparavant, EADS entendait même prouver les capacités de l’impression 3D en concevant entièrement un vélo par ce biais.

L’industrie automobile s’était faîte remarquer par le projet de voiture imprimée « Urbee ». Stratasys, la société numéro 1 dans l’impression 3D, avait conçu en 2010 la première voiture imprimée.

Depuis, Stratasys en association avec Kor Ecologic développe sa petite soeur « Urbee 2 » selon le processus additif. Une méthode bénéfique à tous points de vue, que ce soit écologique ou productif. Car en plus d’utiliser un carburant mélange d’essence et de bioéthanol, le temps de fabrication « d’Urbee 2 » passe de 85 jours (pour un modèle classique) à 36 jours.

Il en va de même pour le coût de fabrication qui est réduit de 25%, diminuant de 99 000 dollars à 75 000. Le premier essai en conditions réelles doit avoir lieu d’ici deux ans.

En outre, il existe tout un tas d’objets fabriqués par ce procédé : jouets, instruments, coques pour iPhone, bouteilles de parfum et même des sex toys !

Les projets fous

Construire une station spatiale grâce à une imprimante. Voilà qui a de quoi faire glousser ou tout au moins de rendre sceptique.

Pourtant l’Agence Spatiale européenne (ESA) songe vraisemblablement établir sa prochaine base lunaire par ce moyen. Cela permettrait de répondre à la problématique d’acheminement des matériaux ou de modules prévus à l’installation de bases. Car il s’agit de tonnes et de tonnes de matériaux, à priori impossibles à transporter en un seul voyage.

Et quand on sait qu’en envoyer un kilo sur la Lune nécessite 15 000 euros… Pour l’heure, ce projet est en étude. L’ESA en partenariat avec le cabinet d’architecture Foster + Partners examine la faisabilité d’une base constituée de sable lunaire et d’oxyde de magnésium.

La Nasa plancherait elle aussi sur le sujet. Tout aussi fou, le projet de construction d’une maison à l’aide d’une imprimante 3D. L’architecte néerlandais Janjapp Ruijssenaars du cabinet Universe Architecture d’Amsterdam envisage sérieusement la construction d’une maison de 1 100 mètres carrés.

Le défi architectural n’est pas des moindres puisqu’il souhaite que le bâtiment se fonde dans l’environnement dans lequel il se trouvera et que l’on ne puisse en discerner ni le début ni la fin.

Les dérives de l’impression 3D

Cody Wilson, un américain de 25 ans est parvenu par le biais de l’impression 3D à créer un fusil d’assaut, d’une capacité d’accueil de trente balles.

Le jeune homme a en effet reproduit l’AR-15, l’arme dont s’est servi le tueur lors des attentats de l’école Sandy Hook. Forcément, avec un tel usage, cette innovation conduit à un questionnement éthique.

Aux États-Unis, elle relance même le vieux débat concernant la détention d’armes à feu.

L’association « Defense Distributed », dont fait partie Cody Wilson, souhaite utiliser ce procédé à des fins de distributions à grande échelle. Le jeune homme se dédouane en affirmant que  l’usage qu’en auront les détenteurs n’est pas de sa responsabilité.

L’imprimante 3D en passe de se répandre chez les particuliers ?

Créer un objet chez soi avec l’aide de son imprimante, une idée insolite si l’on retourne quelques années en arrière.

Et pourtant voilà qui est désormais faisable et à un prix d’entrée de gamme raisonnable, entre 400 et 2 000 euros selon l’utilisation et le type de matériau à imprimer.

Cependant, avant que l’objet ne se démocratise dans nos foyers et ne fasse partie de notre quotidien, il y a de la marge.

Enfin, cette innovation a de quoi bouleverser bien des aspects de nos habitudes de vie. D’une part, notre consommation d’objets.

À l’avenir, va-t-on se détourner des grandes surfaces et autres boutiques pour fabriquer des objets personnalisés ? Et qu’en sera-t-il de notre rapport aux objets ? Serons-nous plus impliqués qu’auparavant avec la possibilité d’entrer dans le processus de création de ces objets et leur possible partage avec les autres ?

D’autant qu’il n’est plus nécessaire de déposer un brevet pour son invention. L’imprimante 3D est donc avant tout un formidable outil pour les concepteurs.

Par Sébastien Tribot, journaliste scientifique

 

Le graphène, bientôt au service de l’électronique de spin ?

L’avènement de nos futurs ordinateurs quantiques est intimement lié aux recherches effectuées dans le domaine de l’électronique de spin (aussi baptisée Spintronique), une électronique « nouvelle » qui émerge rapidement sous l’impulsion de nombreuses découvertes réalisées ces dernières années.

Une équipe de chercheurs de l’Institut IMDEA pour les Nanosciences (l’un des huit IMDEA, les fameux instituts madrilènes pour l’enseignement supérieur), ainsi que des universités Autonome et Complutense de Madrid, serait parvenue à donner au graphène de nouvelles propriétés magnétiques.

Les travaux des chercheurs espagnols, publiés dans la revue scientifique Nature Physics, créent un pont prometteur entre le « matériau miracle » par excellence et l’électronique de spin, avec la mise au point d’une surface hybride composée de graphène et se comportant peu ou prou comme un aimant.

Spin de l’électron

Bien que les électrons aient une charge et un spin, le spin a longtemps été ignoré en faveur de la charge de l’électron, essence même de l’électronique classique qui déplace les électrons en n’ayant d’yeux et en agissant uniquement sur la charge de celui-ci.

L’électronique de spin se base elle-aussi sur la charge de l’électron, mais se démarque en ne laissant pas le spin sur le carreau.

Le spin de l’électron est une propriété quantique dont la manifestation macroscopique (l’aimantation d’un matériau magnétique) lui permet d’être utilisée pour stocker de l’information.

L’évolution de la Spintronique tend à lui associer aussi bien les semi-conducteurs que la ferromagnétique, pour être le fer de lance de l’optoélectronique et du traitement de l’information quantique.

Magnétiser le graphène

Afin de pouvoir lier spintronique et graphène, le challenge fut donc de parvenir à magnétiser ce matériau : la technique implique de recouvrir du ruthénium (élément chimique de numéro 44, métal de transition) avec une pellicule de graphène dans une enceinte où des conditions d’ultravide ont été créées.

Les molécules de tétracyanoquinodiméthane (TCNQ, agissant comme un semi-conducteur à basse température sur certains composés) s’évaporent sur la surface du graphène, s’organisent et finissent par se répartir de manière régulière sur la surface du matériau en interagissant avec le substrat de graphène-ruthénium, comme ont pu le constater à leur grande surprise les scientifiques, à l’aide d’un microscope à effet tunnel.

Le résultat ? Une nouvelle couche magnétique, à base de graphène.

Au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène est un cristal bidimensionnel de carbone, composé d’une simple couche sans défaut, dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille.

L’empilement de ces couches constitue le graphite, matériau existant dans la nature.

Le graphène, qualifié ici et là de « matériau miracle », est l’un des matériaux les plus résistants testés jusqu’à présent, possédant de remarquables qualités de conductivité, rendant potentiellement son utilisation à l’échelle nano très intéressante.

Un hic de taille, toutefois : la production reste encore très problématique et onéreuse, malgré de nombreuses tentatives afin de surmonter ces difficultés.

Par Moonzur Rahman

Maïs OGM : L’Efsa botte en touche

Gilles-Eric Séralini, celui qui avait fait polémique en révélant les travaux de son étude sur les effets potentiellement cancérigènes du maïs OGM Monsanto, doit se frotter les mains.  

A l’époque, les médias et la communauté scientifique avaient dénoncé son manque de rigueur et l’incohérence de ses résultats, alimentant la guerre entre pro et anti OGM.

Les premiers étant traités de corrompus, et les seconds d’ignorants.  Pour rappel, ses  résultats avaient été invalidés par différentes instances de santé. Son seul bénéfice, être la première étude menée sur une période aussi longue de deux années.

Finalement, on ne dispose toujours pas d’étude scientifique indépendante permettant de conclure sur l’innocuité du maïs génétiquement modifié. Et l’Autorité européenne de sécurité des aliments (Efsa) qui devait rendre un avis indépendant vient d’annoncer qu’elle ne le ferait pas, ne disposant pas de données suffisantes, notamment d’études menées sur le long terme.

Cela n’empêche pas le maïs 98140 de faire actuellement l’objet d’une demande d’homologation européenne pour attaquer le marché européen. Point de Monsanto derrière cette démarche, mais son concurrent direct Dupont-Pioneer.

Pour statuer, la commission européenne s’appuie sur divers éléments, dont l’avis de l’Efsa. Problème, l’Efsa refuse de prendre partie. Elle motive sa décision par le fait que le dossier déposé est incomplet et que la société demandeuse n’a pas été en mesure de fournir les éléments nécessaires lui permettant de mener son analyse sur l’innocuité du maïs considéré.

Plus particulièrement, l’Efsa demande une étude comparative entre le maïs génétiquement modifié et une plante « conventionnelle ».

Or, la variété de maïs utilisée comme référence dans les résultats fournis à l’agence est considérée comme non valable, ne répondant pas aux critères imposés par l’agence. Une lacune impliquant de facto l’impossibilité pour l’Efsa d’émettre un avis, à charge ou à décharge.

Assez curieusement, l’Efsa précise tout de même qu’une partie du dossier a pu être traitée et « [..] que les niveaux élevés de certains composants du maïs GM 98140 (des acides aminés qui sont également présents dans des plantes conventionnelles) ne devaient pas susciter de préoccupation pour la sécurité de l’homme et de l’animal.

Le groupe scientifique est aussi parvenu à la conclusion qu’il était improbable que le maïs OGM ait un quelconque effet nocif sur l’environnement dans le cadre de ses utilisations prévues dans l’alimentation humaine et animale et de son importation et son traitement. » 

Ou comment rendre un avis officieux sans prendre de risque…

Par Audrey Loubens, journaliste scientifique

Découvrez notre offre de formation Toxicologie :


Samsung prépare une tablette pilotée par la pensée

Demain, nous n’aurons plus besoin de nos doigts ni de notre voix pour utiliser une tablette.

Pour ouvrir une application, il nous suffira de mettre sur la tête un casque bardé d’électrodes et de penser très fort « Angry Bird, Angry Bird… ».

C’est en tout cas une des ambitions de Samsung qui vient de mettre en ligne une vidéo montrant un cobaye contrôlant sa Galaxy Tab 10.1 par la pensée.

Rien de très spectaculaire pour l’instant puisqu’on y voit une personne filmée de dos se concentrer sur un écran affichant des points lumineux colorés avec différentes fréquences.

Les électrodes contenues dans le casque porté par le cobaye mesurent les signaux cérébraux, la personne étant sollicitée par des stimuli visuels.

D’après leurs travaux, les chercheurs annoncent qu’un utilisateur peut valider une action toutes les cinq secondes avec un taux de réussite compris entre 80 et 95%.

Si cela parait encore laborieux, c’est tout de même un bon début. Avant d’envisager de concrétiser un tel type de contrôle de nos tablettes et autres systèmes portables, il est indispensable de fabriquer un casque que l’utilisateur pourra porter toute la journée.

Cela pourrait bien demander plus de temps que l’optimisation de l’interprétation des images mentales humaines ! Restera encore une question ? Comme être sûre de contrôler sa propre tablette et non celle du voisin ?

A découvrir en vidéo :

Par Audrey Loubens, journaliste scientifique

News Environnement : mai 2013

Les parcs éoliens en mer, un nouvel habitat pour les homards ?

Des chercheurs de l’Institut Alfred Wegener (AWI) pour la recherche polaire et marine de Bremerhaven (Brême), membre de la Communauté Helmholtz, développent un projet pilote ayant pour but d’implanter une population de homards européens dans le parc éolien en mer allemand « Riffgat ». Les scientifiques commencent actuellement l’élevage de 3.000 homards, qui seront réintroduits dans leur milieu naturel en 2014. Ils souhaitent déterminer si les homards peuvent coloniser les espaces situés entre les éoliennes. Le projet doit ainsi permettre d’étudier la possibilité, ainsi que les conditions et les conséquences écologiques d’une telle implantation. Ce projet, intitulé « Implantation de homards dans le parc éolien « Riffgat » » est d’une durée de trois ans et est financé par le Land de Basse-Saxe à hauteur de 700.000 euros.

Avec la construction de parcs éoliens offshore, de nouvelles structures se forment sur les fonds marins de la mer du Nord. Les sédiments sableux et limoneux caractérisent le fond de la baie d’Helgoland ; les fondations éoliennes, en tant que substrat dit « dur », offrent à cet endroit un nouvel habitat aux communautés biologiques. Un exemple de population vivant sur des fonds rocheux est le homard européen, qui en tant qu’animal nocturne se cache durant la journée dans des cavités. Des chercheurs de la station biologique d’Helgoland appartenant à l’AWI, veulent exposer ces homards à ce nouveau type habitat.

« L’émergence en grand nombre de parcs éoliens au cours des 15 prochaines années dans la baie d’Helgoland représente certes une perturbation dans l’écosystème, mais pourrait également être associée à un bénéfice écologique », explique Heinz-Dieter Franke, biologiste à l’AWI de Helgoland. Selon lui, le blocage des zones des parcs éoliens créerait, pour les poissons concernés par la pêche industrielle et pour la faune invertébrée du sol, un espace de protection et de repos utile. En outre, des espèces menacées vivant sur des substrats solides pourraient trouver dans ces parcs un habitat supplémentaire. Cela s’applique également à la population de homards européens dans la baie d’Helgoland, qui est essentiellement limitée à la zone rocheuse autour de l’île d’Helgoland. « Malgré les précautions, la population de homards ne s’est toujours pas remise de son fort déclin dans les années 1950 et 1960 », affirme M. Franke. Une implantation réussie des crustacés sur les roches qui entourent les éoliennes, dont le rôle est la protection contre l’affouillement, pourrait contribuer à la stabilisation à long terme de la population dans la baie.

Le travail se fera en étroite collaboration avec l’opérateur de parcs éoliens en mer RIFFGAT GmbH & Co. KG (un groupement de l’énergéticien EWE et du groupe ENOVA) et avec le partenaire datadiving GmbH & Co. KG, et sera réalisé par le scientifique Roland Krone. La chercheuse Isabel Schmalenbach, de l’AWI, élèvera 3000 animaux dans un établissement d’Helgoland l’année prochaine. Quand les jeunes homards auront atteint environ dix centimètres de long, la scientifique les mettra alors à l’eau dans le parc éolien avec l’aide de plongeurs de l’entreprise datadiving. Dans les années qui suivront, les chercheurs étudieront, sur les zones de réimplantation et dans une zone de référence, combien de jeunes se sont établis avec succès sur les enrochements, s’ils restent sur un rocher ou s’ils cherchent une grotte dans un espace voisin. Ils observeront également comment la faune adjacente (crustacés et poissons) s’est adaptée et si des homards sauvages colonisent également les parcs. Le projet s’appuie sur de nombreuses années d’expérience dans les programmes d’élevage et de mise en milieu naturel de jeunes homards à Helgoland.

 

Un nouveau portail pour suivre l’évolution quotidienne de la banquise

Des scientifiques de l’Institut Alfred Wegener (AWI), le Centre Helmholtz pour la recherche polaire et marine à Bremerhaven (Brême) viennent de lancer leur plate-forme Internet dédiée à la banquise. Ils ont développé ce nouvel outil en collaboration avec l’Université de Brême.

Ce site internet est un portail en langue allemande regroupant l’ensemble des données récoltées par les différents instruments de mesures de l’AWI ; il offre aux utilisateurs une mise à jour quotidienne des cartes de la banquise en Arctique et en Antarctique.

En outre, il propose aux utilisateurs de télécharger des données spécifiques à leurs besoins de recherche. A terme, les scientifiques en charge du site publieront via ce portail les résultats des analyses faites à partir des mesures effectuées par le satellite CryoSat-2 : les données fournies par ce satellite de l’Agence Spatiale Européenne ont déjà permis de mesurer avec précision la diminution de l’épaisseur de la glace du pôle Nord.

Actuellement, les cartes sont mises à jour quotidiennement sur la base d’observations du satellite japonais Shizuku, qui est en orbite autour de la Terre à une altitude de 700 km.

En plus des cartes et données scientifiques, le site offre aux internautes :

  • de vastes archives cartographiques, grâce auxquelles le public peut déjà télécharger plus de 7000 cartes de la banquise de 2003 à nos jours ;

  • un espace dédié à l’information et la vulgarisation des résultats scientifiques concernant la banquise : sa formation, son rôle général et climatologique, les outils de surveillance en place, les études en cours.

En savoir plus

 

L’économiseur d’eau nouvelle génération

C’est une de ces idées qui, certes, n’a pas vocation à révolutionner le monde, mais qui contribue à le préserver. Lorsque, par une soirée d’hiver, nous nous relaxons sous une douche bien chaude, nous gaspillons une importante quantité d’eau pour l’amener à bonne température. Un groupe d’étudiants de l’Université d’Ariel a développé un nouveau système, le Has-Ham, qui permet de conserver l’eau froide perdue pour une utilisation ultérieure.

L’eau est une denrée rare. Particulièrement en Israël qui, du fait de son positionnement géographique, est confronté à d’importants risques de sécheresse. Pour assurer les besoins de sa population malgré cette donnée, le pays construit notamment de colossaux centres de dessalement de l’eau. Bien que l’importance de ces projets gigantesques ne soit pas mise en cause, la solution globale au problème de l’eau passe irrémédiablement par une meilleure gestion des ressources au quotidien et par la limitation des pertes évitables. En effet, on estime à 8 litres par personne et par jour, la perte d’eau d’une douche avant d’atteindre la température désirée. Les résultats agrégés sont éloquents : chaque année, ce sont 377 millions de m3 du précieux liquide qui sont ainsi gâchés en Israël.

Frappés par ce constat, des étudiants du Dr Shimon Leinkin du département d’Ingénierie mécanique de l’Université d’Ariel ont eu l’idée d’inventer un petit dispositif, le Has-Ham, permettant de garder l’eau froide s’écoulant de la douche avant que l’eau chaude ne fasse son apparition. Grâce à un capteur de température, le système reconnaît l’eau froide et la stocke dans un réservoir au lieu de la laisser s’écouler. « Israël, comme de nombreux pays, subit une pénurie d’eau, expliquent les étudiants. Cette pénurie est due à de nombreux facteurs : climat, croissance de la population et une demande accrue. A la lumière de ce fait, nous sommes dans le devoir de conserver l’eau au maximum de nos capacités. » A n’en pas doute, leur système, simple d’utilisation, économe en électricité et adaptable à tous les types de douches contribuera à cet important devoir.

En savoir plus

Publié par Pierre Thouverez

News Informatique : mai 2013

Un nouveau clavier pour écrans tactiles

Ecrire un texte sur un smartphone ou sur une tablette tactile actuelle nécessite plus de temps que nécessaire, car la configuration des touches sur ces appareils est scrupuleusement la même que sur une machine à écrire.

Cette disposition, principalement de type AZERTY ou QWERTY suivant les zones géographiques, se révèle ergonomique pour un clavier d’ordinateur où la saisie se fait potentiellement avec les dix doigts, mais n’est pas adaptée à la saisie avec les pouces.

Sur un écran tactile à disposition QWERTY l’utilisateur n’entrera en moyenne que 20 mots à la minute, ce qui est nettement inférieur à une saisie sur clavier physique.

Des chercheurs de l’Institut Max Planck pour l’informatique de Sarrebruck (Sarre) proposent, en collaboration avec l’université St. Andrews (Ecosse) et l’université Montana Tech (Etats-Unis), une disposition améliorée des touches de clavier, et ce grâce à une modélisation des mouvements des pouces liée à algorithme d’optimisation de l’ordinateur.Il a été rapidement compris que des changements mineurs de disposition n’apportaient pas d’amélioration significative.

Un premier clavier a été développé en anglais, pour lequel des mots très couramment utilisés tels que « on, see, you, read » devaient être saisis avec un seul pouce.

  

 

Disposition « KALQ »

Crédits : Max-Planck-Institut für Informatik

« La clé d’un clavier optimisé pour la saisie au pouce est d’éviter les entrées prolongées avec un seul pouce, aussi nous souhaitons que les lettres fréquemment utilisées soient centrales et rapprochées », explique Antti Oulasvirta, de l’Institut Max Planck pour l’informatique.

Disposition « KALQ »Crédits : Max-Planck-Institut für InformatikCette optimisation avait deux objectifs : minimiser le temps de déplacement des pouces et, dans la mesure du possible, utiliser les deux côtés du clavier en alternance. $

Le résultat de ces calculs est inattendu : avec cette nouvelle disposition « KALQ », toutes les voyelles sauf le Y se retrouvent dans la zone droite tandis que le pouce gauche doit gérer un nombre plus important de lettres.

Pour utiliser au mieux cette nouvelle disposition de clavier, les utilisateurs ont été formés à mouvoir leurs pouces simultanément comme des dactylographes expérimentés.

Les auteurs ont par ailleurs développé une fonction de correction d’erreurs basée sur la théorie des probabilités, qui prend en compte à la fois les mouvements du pouce et les connaissances statistiques sur les textes précédemment entrés.

Le système complet permet une saisie plus rapide de 34% après entraînement.Ce travail sera présenté le 1er mai 2013 à Paris lors de CHI 2013, une conférence sur les facteurs humains dans les systèmes informatiques. Début mai, l’application KALQ sera disponible gratuitement pour les smartphones Android.

Source : Euractiv.fr

Google acquiert une entreprise en démarrage sur les réseaux neuronaux profonds

Google Inc. a acquis DNNresearch, la société essaimée du directeur de programme Geoffrey Hinton.

Avec cette transaction, le géant des moteurs de recherche a acquis la technologie et le talent issus de recherches collaboratives de longue date au sein de l’Institut canadien de recherches avancées.

Hinton, professeur à l’Université de Toronto, travaille maintenant aussi pour Google. Il est l’une des sommités mondiales des « réseaux neuronaux profonds », une forme d’intelligence artificielle qui peut notamment accroître le nombre de fonctions des moteurs de recherche.

Hinton mène des recherches sur l’apprentissage automatique depuis les années 1970. Il y a 25 ans, l’ICRA a contribué à sa venue au Canada et à son embauche à l’Université de Toronto.

Depuis 2004, il est directeur du programme Calcul neuronal et perception adaptative de l’ICRA, un groupe composé d’experts en apprentissage automatique, vision artificielle et neuroscience qui vise à mettre au point de meilleurs systèmes perceptuels destinés aux machines et à approfondir nos connaissances sur les systèmes perceptuels du cerveau.

« Le programme de l’ICRA a créé une communauté de chercheurs aptes à faire avancer le développement de l' »apprentissage profond » comme personne n’aurait pu le faire isolément, dit Hinton. Je suis maintenant heureux de travailler avec Google pour trouver les moyens d’appliquer ces connaissances et d’améliorer la vie des gens.

« Les réseaux neuronaux profonds sont d’une grande efficacité (et cela va croissant) en matière de reconnaissance d’images et de la voix, deux pôles de croissance pour les moteurs de recherche.

« Imaginez que vous êtes en randonnée et que vous tombez sur une talle de champignons dont vous doutez de la comestibilité, dit Hinton. Plutôt que d’essayer de saisir une description du champignon dans un moteur de recherche, vous n’avez qu’à en prendre la photo à l’aide de votre téléphone intelligent. Un réseau neuronal profond peut analyser cette image et trouver l’information pertinente sur l’espèce en cause.

« En outre, les réseaux neuronaux profonds rehaussent la précision et l’efficacité de la recherche vocale, et améliorent la recherche textuelle conventionnelle par une meilleure analyse contextuelle de la requête et du résultat.

Par exemple, l’apprentissage profond pourrait permettre à une machine de comprendre qu’il y a un lien entre les titres « Le Canada triomphe aux jeux nationaux » et « L’équipe olympique américaine de hockey est écrasée », même si ces titres n’ont aucun mot en commun.Convaincus que les réseaux neuronaux profonds avaient atteint le stade de l’application commerciale généralisée,

Hinton et deux de ses étudiants diplômés ont créé la société DNNresearch en 2012. Cette acquisition d’entreprise suggère que les stratèges de Google partagent la conviction des chercheurs.

« Nous croyons que la façon dont Geoff et son équipe abordent la résolution de problèmes se révélera précieuse pour tout un éventail de projets en cours chez Google, a dit un porte-parole de l’entreprise. L’apprentissage profond a déjà eu un impact significatif sur la qualité de reconnaissance de la recherche vocale. »

Source : Euractiv.fr

La prédiction du futur : bientôt une réalité ?

Isaac Asimov, célèbre auteur de livres de science-fiction et de vulgarisation scientifique, imaginait dans son Cycle de Fondation une science, la « psychohistoire », permettant de prédire mathématiquement l’avenir.

Une collaboration entre le Technion (Haïfa) et Microsoft ambitionne de faire de cette science une réalité.Analyser le passé pour prédire l’avenirKira Radinsky, chercheuse au Technion (Haïfa), a engagé une collaboration avec Eric Horvitz, co-directeur de la recherche chez Microsoft, pour la mise au point d’un logiciel qui pourrait permettre d’anticiper les événements futurs.

Le principe est le suivant : en analysant des données historiques, politiques, sociales ou encore sanitaires du passé, il est possible d’identifier des liens de causalité entre différents événements.

Par exemple, les catastrophes naturelles en Angola (sécheresse en 2006, tempêtes en 2007) furent toutes deux suivies d’épisodes de choléra. Le logiciel identifie cette récurrence et « prévient » les utilisateurs d’un possible épisode de choléra en cas de nouveau désastre.

Des dizaines de bases de données exploréesPour que le logiciel fonctionne le plus efficacement possible, Kira Radinsky lui a fait avaler des quantités astronomiques d’informations, à savoir vingt années d’articles du New York Times et plusieurs dizaines de bases de données disponibles sur Internet.

Une fois les informations digérées, le logiciel les classe intelligemment pour éviter d’être saturé et de n’en tirer aucune utilité. Ensuite, il identifie les motifs qui se répètent (par exemple, un article sur un épisode de choléra arrivant quelques mois après des publications météorologiques inquiétantes) et en déduit des corrélations pour l’avenir.

Les résultats sont étonnants : Eric Horvitz indique que le système a produit des prévisions justes dans 70 à 90% des cas.Eviter problèmes humanitaires et crises économiques.

Ce score élevé ne concerne pour l’instant qu’un nombre restreint d’événements. Pas question donc de commercialiser le produit pour l’instant, de nombreuses améliorations étant encore nécessaires.

On peut toutefois espérer qu’à terme, ce travail permette de tirer de meilleures leçons de notre passé. On se laisse aller à imaginer une machine qui retiendrait tout et nous permettrait ainsi d’éviter que l’histoire ne se répète.

Ainsi, au-delà des problèmes humanitaires évidents, les crises économiques récurrentes pourraient être évitées si les solutions déjà essayées sans succès étaient mises de coté.

Source : Euractiv.fr

Publié par Iris Trahin

L’obsolescence programmée dans le viseur des écologistes

Obsolescence programmée. Bientôt un gros mot ? En tout cas pour le sénateur d’Europe Ecologie les Verts il devient urgent de contraindre les industriels à augmenter la durée d’utilisation de leurs produits.  

Si le terme de conspiration  n’est pas prononcé, c’est pourtant bien ce qui est sous-entendu : les fabriquant travailleraient à limiter la durée de vie des articles pour doper les ventes en obligeant le consommateur à renouveler plus souvent ses achats. 

Il faut reconnaitre que la durée de vie de nombreux articles, comme l’électroménager, a chuté de façon suspecte : alors que nos grands-parents ont encore leur frigo d’il y a vingt ans, les nôtres « cassent » au bout de 5 ans.

Idem pour les ordinateurs ou même les collants, dont la robustesse désormais oubliée des bas nylons avait fait chuter les ventes au début du 19ème siècle.

L’été 2012, l’ADEME rendait justement un rapport sur les équipements électriques et électroniques dans lequel elle précise que la notion d’obsolescence programmée  « dénonce un stratagème par lequel un bien verrait sa durée normative sciemment réduite dès sa conception, limitant ainsi sa durée d’usage pour des raisons de modèle économique ». Voilà pour la définition.

Une précision nécessaire car plusieurs  facteurs permettent de rendre un objet obsolète bien qu’encore fonctionnel : inexistence des pièces de rechanges, incompatibilité des matériels entre eux, non respects de nouvelles normes, effet de mode…

Expert en la matière, Apple, impose des produits  quasiment indémontables, avec des mises à jours très rapprochées et des nouveaux produits appuyés par des campagnes publicitaires très importantes qui poussent le consommateur à investir dans le dernier lecteur mp3 à la mode, bien que l’ancien reste fonctionnel.

De leurs côtés, le lobby des ascensoristes  a réussi à convaincre le gouvernement de l’époque qu’il fallait renouveler tout le parc français pour des raisons de sécurité, alors que ce sont les défauts de maintenance et non les caractéristiques initiales des cabines qui sont en cause dans les accidents.  

Autre exemple, les cartouches d’imprimantes signalées à changer alors qu’il reste encore suffisamment d’encre à l’intérieur pour satisfaire de nombreuses impressions…

Si l’obsolescence programmée a l’avantage de maintenir un certain niveau de consommation, bon pour les entreprises, elle provoque en parallèle une augmentation massive des déchets. D’où la mobilisation  du politique Jean-Vincent Placé. 

Pour lutter contre ce phénomène, le sénateur propose d’intégrer la notion d’obsolescence programmée directement dans le code de  la consommation, créant un délit passible de 2 ans de prison et d’une amande pouvant atteindre 37 500€.

Autre action possible, augmenter la durée de la garantie. Cela encouragerait les réparations plutôt que le remplacement intégral du produit. Ceci implique donc que les constructeurs devront rendre disponibles les pièces détachées pendant une période suffisamment longue, dix ans par exemple.

Par Audrey Loubens, journaliste scientifique

 

 

Découvrez notre offre de formation Développement durable :


L’essentiel de REACH 1/2 (mai)

Brochure relative aux demandes d’autorisation

Le Helpdesk national, en collaboration avec le Ministère de l’Ecologie (MEDDE) a mis en ligne une brochure simplifiée relative aux demandes d’autorisation. Cette brochure est disponible sur : 
www.ineris.fr/reach-admin/file_upload/File/Demandes_autorisation.pdf

Prolongation du délai pour la déclaration des substances à l’état nanoparticulaire 

A l’échéance du 30 avril 2013, 457 entreprises avaient réalisé 1991 déclarations des substances à l’état nanoparticulaire. Ce premier bilan est satisfaisant pour le ministère du Développement durable. Cependant, pour tenir compte de la diversité des acteurs visés par cette obligation de déclaration, et à la demande de plusieurs secteurs d’activité, le ministère accorde 2 mois supplémentaires pour effectuer les déclarations ; ce qui porte la nouvelle date limite au 30 juin 2013.

Ouverture du helpdesk

13/05/2013

En raison de l’approche de l’échéance d’enregistrement du 31 mai 2013, le Helpdesk assure, depuis le 13 mai, une permanence téléphonique de 9h à 16h tous les mardis et jeudis jusqu’à l’échéance.

Nouvelle consultation publique pour des classification et étiquetage harmonisées

14/05/2013

L’ECHA invite les parties intéressées à commenter les deux nouvelles propositions de classification et d’étiquetage harmonisés (CLH) pour l’acide borique et le lénacile (herbicide). La consultation publique est ouverte pendant 45 jours et se terminera le 28 Juin 2013. Plus d’information sur : echa.europa.eu/view-article/-/journal_content/title/new-clh-public-consultations-launched-on-lenacil-and-boric-acid

Dernières semaines avant la fin de la 2nde vague d’enregistrement 

14/05/2013

La seconde vague d’enregistrement REACH se termine le 31 mai 2013. L’ECHA fournit donc les derniers conseils aux déclarants. Il invite notamment les déclarants principaux à soumettre leur dossier dès que possible pour laisser le temps aux déclarants membres de soumettre le leur dans les temps. Plus d’information sur : echa.europa.eu/view-article/-/journal_content/title/final-weeks-before-the-2013-registration-deadline

Cinq produits chimiques ajoutés à la règlementation internationale 

14/05/2013

Les parties réunies à la conférence sur les produits chimiques et les déchets dangereux, qui s’est tenue à Genève du 28 avril au 10 mai 2013, ont décidé l’inscription de cinq produits chimiques supplémentaires dans la réglementation internationale (Convention de stockholm, Convention de Rotterdam et convention de Bâle). Les 5 produits désormais concernés par cette réglementation sont l’hexabromocyclododecane (HCBD) (retardateur de flamme), le méthyl azinfos (pesticide), le pentaBDE (retardant de flamme), l’octaBDE (retardateur de flamme) et le PFOS (produit chimique industriel). L’obligation d’un accord préalable du pays de réception pour toute exportation de ces produits a été entérinée lors de cette conférence. Plus d’information sur : 

www.actu-environnement.com/ae/news/cinq-produits-chimiques-ajoutes-reglementation-internationale-18491.php4#xtor=ES-6

Dérogations relatives au transport intérieur de marchandises dangereuses

15/05/2013

Une décision d’exécution de la Commission du 6 mai 2013 autorisant les États membres à adopter certaines dérogations en vertu de la directive 2008/68/CE du Parlement européen et du Conseil relative au transport intérieur des marchandises dangereuses est parue au Journal Officiel le 15 mai 2013. Cette décision est consultable sur eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:130:0026:0059:FR:PDF

Mise à jour du plan d’actions triennal d’évaluation des substances chimiques

15/05/2013

Un avis aux opérateurs économiques sur la mise à jour du plan d’actions triennal d’évaluation des substances chimiques (CoRAP) en application du règlement REACH  est paru au Journal Officiel le 15 mai 2013. Cet avis est consultable sur : 

www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000027409075&dateTexte=&categorieLien=id

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Interview – Voiture électrique : peut-on vraiment la rendre silencieuse ?

Quel était le problème rencontré par le constructeur automobile ?

Si un moteur thermique produit un important vrombissement, ce n’est pas pour autant désagréable à l’oreille. C’est un son à basse fréquence, parfois même valorisant pour l’acheteur.

En revanche, le bruit électrique dont la haute fréquence a tendance à beaucoup varier peut émettre des sifflements intempestifs peu mélodieux et pénibles à la longue. C’est de la psycho acoustique, il y a des bruits qui ne sont pas forcément très forts mais qui sont déplaisants.

Renault a donc décidé de s’associer à nous pour trouver l’origine du bruit et le supprimer, afin que la voiture électrique silencieuse soit vraiment silencieuse !

Pour cela, il nous a fallu trouver une solution qui fonctionne sur la majorité des modèles, une solution générique, une base de modélisation identique qui nous permette d’ajuster seulement quelques paramètres lors de la conception d’un nouveau groupe motopropulseur.

Quelles sont les compétences dont vous avez eu besoin pour mener à bien cette mission ?

Pour ce projet AVELEC (Acoustique de Véhicules ELECtriques), nous avons eu besoin d’unir les compétences de Renault aux nôtres. Il s’agissait de décloisonner des compétences assez éloignées les unes des autres : mécanique vibratoire, acoustique, électrique, magnétique, électronique de puissance.

Pour ma part, j’avais déjà travaillé avec Alstom sur cette problématique acoustique, sur les tramways en centre-ville. Mais chaque moteur a ses spécificités et il n’est pas toujours possible de transposer une solution sur une autre modélisation.

 

D’où vient ce bruit indésirable perçu par l’automobiliste ?

On fait de la conversion d’énergie dans un moteur. L’idée, c’est de transformer de l’électricité en force mécanique mais les forces qui nous intéressent, ce sont les forces tangentielles et les forces radiales.

Les forces tangentielles sont orthogonales par rapport au rotor qui tourne (partie centrale du moteur) et produisent du couple. Mais comme le moteur est en trois dimensions, et le champ magnétique aussi, les forces  sont également radiales. Ce sont des forces qui vont de l’intérieur vers l’extérieur, puis l’inverse, et qui font vibrer le stator.

Légende :

  • Bleu = air
  • Gris = matériau ferromagnétique (bon conducteur magnétique)
  • Jaune = des bobinages de cuivre au stator
  • Rose = bobinage de cuivre au rotor

A savoir :

  • Il y a du courant dans ces 2 bobinages
  • L’entrefer est la zone d’air très fine entre le rotor et le stator
  • Les forces sont calculées au niveau de l’entrefer
 

Dans le moteur, il y a le rotor qui tourne, c’est la partie centrale, et le stator qui est statique et qui constitue la partie externe du moteur. C’est le stator, autour du moteur, qui crée le champ magnétique qui va donner l’ordre au rotor de tourner.

Il y a des forces d’interaction entre le rotor et le stator d’un moteur, certaines que l’on veut pour créer du couple,  et d’autres que l’on ne veut pas et qui vont créer des vibrations qui peuvent générer un bruit audible.

Je vous donne un exemple : un haut parleur, c’est un dispositif électromagnétique. On y fait passer un courant dans un bobinage à différentes fréquences, le champ magnétique créé va interagir avec un matériau ferromagnétique sur lequel s’exerce une force.

Ce matériau mobile est relié à une membrane qui va faire vibrer l’air et ainsi émettre un son.

Là, il se passe exactement le même phénomène, sauf que dans le cas du haut parleur, c’est volontaire. Pour le stator, non. Si les forces appliquées dessus sont importantes, cela peut vibrer suffisamment pour créer du bruit.

Mais la vibration n’engendre pas forcément du bruit, du bruit audible en tout cas, parce que notre oreille a ce qu’on appelle une bande passante. Nous entendons bien entre certaines fréquences. Ce sont les sons audibles que nous cherchons à éliminer..

 

Ces sons proviennent majoritairement du moteur ?

En effet, le moteur est à l’origine de ces sons mais, parfois, ce n’est pas le moteur qui crée directement le bruit.

Le moteur crée une vibration. Il suffit que cette vibration se situe dans la bande-passante de l’oreille humaine et qu’elle ait une amplitude suffisamment importante pour que nous l’entendions.

Le vrai problème du bruit audible d’origine électromagnétique n’est pas son amplitude mais plutôt ses caractéristiques en fréquence qui forment des sons de type sifflements désagréables.

Mais si l’amplitude de vibration est trop petite pour que la vibration soit perçue par l’oreille, cela ne signifie pas pour autant qu’il n’y aura pas de bruit ! La vibration existe et peut se transmettre à n’importe quelle autre pièce de la voiture.

Si une petite pièce de métal, même éloignée du moteur tant qu’elle est reliée mécaniquement, produit une petite vibration, et si cette vibration a une résonnance, alors on peut entendre un sifflement. Même pour une force faible, on peut avoir un déplacement important. 

A une échelle différente, c’est l’histoire d’écroulement de ponts malgré de faibles forces d’excitation. Le pont de Tacoma par la force du vent ou le pont d’Angers sollicité par une armée en marche au pas. La fréquence de la force des pas de l’armée passant sur le pont était semble-t-il  identique à la fréquence à laquelle le pont entre en résonnance. Résultat : après plusieurs oscillations impressionnantes, le pont s’est écroulé.

 

 

Le moteur lui-même ne génère pas toujours le bruit, mais peut donc faire vibrer une pièce qui va résonner parce qu’elle aura une fréquence de résonnance qui correspond à l’excitation. 

C’est ce qu’on appelle le bruit solidien. Via un solide, on transmet une vibration, et c’est une autre pièce qui va se mettre à faire du bruit.

Il faut savoir qu’une force exercée sur un matériau donne un déplacement plus ou moins grand en sortie. De plus, si la force est appliquée à une fréquence de résonance le déplacement est amplifié.

Sur le stator d’un moteur, il y a des forces d’origine électromagnétique qui vont générer ou non des déplacements et s’il y a un déplacement, alors il y a une onde acoustique qui est générée.

Avez-vous trouvé LA solution ?

Oui, en partie, nous avons développé un outil capable de modéliser un grand nombre de types de machines électriques, d’identifier la source du problème, de modifier soit la conception du groupe motopropulseur soit sa commande et de maîtriser ainsi les vibrations.

L’optimisation de la conception passe par le choix optimal et l’agencement optimal des matériaux (cuivre, fer, isolants, air, etc.). Il faut savoir que l’air entre le rotor et le stator est le lieu d’interactions magnétiques cruciales pour la génération des forces.

Changer un détail peut faire toute la différence au niveau du comportement vibratoire et de l’acoustique.

Côté commande, nous avons travaillé sur les courants électriques. Certains moteurs sont alimentés par un courant continu, d’autres par un courant alternatif.

A première vue, pour un moteur à courant alternatif, une allure parfaitement sinusoïdale comme le délivre EDF paraît idéale. Cependant pour faire de la vitesse variable une fréquence et une amplitude fixes ne sont pas acceptables. Or, l’électronique de puissance embarquée dans le véhicule qui effectue cette variation modifie en même temps le contenu harmonique du signal.

Résultat : on ne fabrique pas seulement la fréquence dont on a besoin mais également d’autres fréquences, des harmoniques de courant parasitaires qui vont se traduire en harmoniques de champ magnétique et en harmoniques de force. Ce sont ces forces supplémentaires inutiles qui vont être à l’origine des vibrations.

La difficulté est de trouver une solution sans jamais dégrader les rendements de base du groupe motopropulseur, de concilier objectifs (maîtriser le comportement vibratoire et acoustique) et contraintes (conserver de bons rendements et de bons niveaux de couple sans augmenter les dépenses d’énergie).

Quelles sont les perspectives de développement ?

La thèse est confidentielle pendant trois ans. Mais nos travaux permettent déjà à Renault de mieux maîtriser les problématiques acoustiques et de mieux comprendre les moteurs existants. Il existe déjà des prototypes qui exploitent nos études et qui donnent d’excellents résultats. La commercialisation n’est pas pour tout de suite. Nous faisons de la recherche pour préparer l’avenir…

 

Propos recueillis par Iris Trahin.

 

 

Fiche du projet AVELEC
Partenaires
Industriels : Renault, Reginov, Vibratec, Adetel Equipement, Cedrat
Universitaires : Laboratoire d’Electromécanique de Compiègne (LEC)
Financeur : Programme Pôle de Compétitivité – Fonds Unique Interministériel (FUI) géré par OSEO Innovation

Budget 
Budget global : 2,6 M€
Montant financement public : 1,1 M€
Budget laboratoire : 296 k€

Durée du projet
3 ans (amorcé en 2010)

Certaines nanoparticules ont bel et bien un effet cancérogène

Le National Institute for Occupational Safety and Health (Niosh) vient de publier des résultats concernant l’étude de la toxicité de certaines nanoparticules.

Leurs travaux ont tout d’abord consisté à mettre en place des protocoles d’analyses «universels», pour lutter contre les divergences existantes entre les laboratoires d’analyse. Il est vrai que jusqu’ici, parmi le peu d’études portant sur l’impact des nanoparticules sur la santé, les résultats sont contradictoires. Certaines révèlent un danger quand d’autres ne mettent aucun impact négatif en évidence. 

Le premier intérêt des travaux des chercheurs du Niosh est donc d’avoir analysé et diagnostiqué les sources d’erreur suivant les protocoles d’analyses. Une fois cela fait, ils ont pu établir une méthode d’analyse commune, permettant enfin de comparer les résultats.

Suite à cela, les scientifiques de l’Institut américain se sont intéressés à 3 types de nanoparticules de dioxyde de titane et 3 types de nanotubes de carbone. Deux matériaux déjà soupçonnés d’être toxiques pour l’homme, le centre international de recherche sur le cancer ayant classé le dioxyde de titane comme potentiellement cancérogène depuis 2006 !

Leur étude a concerné des rats et la conclusion est sans appel : ces nanoparticules de dioxyde de titane et de nanotubes de carbone provoquent des phénomènes inflammatoires. Face au risque respiratoire avéré, le Niosh préconise de limiter la concentration de l’air en nanotubes et nanofibres à 1 µm/m3.

Assez curieusement et malgré un engouement évident pour les nanoparticules, seuls 2 % des travaux qui leurs sont consacrés s’intéresse à leur impact sur la santé (Affset, 2010).

Ce n’est que très récemment que des projets européens se focalisent exclusivement sur leur innocuité ou leur toxicité.

Par Audrey Loubens, journaliste scientifique

Le web et ses nouvelles problématiques au programme d’i-expo

Les grandes problématiques autour du Web 2.0 seront ainsi abordées, sous différents formats : conférences plénières, ateliers, tables rondes ou encore conférences d’application exposants.

Autre nouveauté de cette édition anniversaire, l’association avec l’événement Time2Marketing, le salon du marketing 3.0, et dont les 200 exposants et les 200 conférences apporteront une réelle valeur ajoutée sur les prochaines thématiques qui bousculeront le monde de l’internet, comme le web sémantique, l’inbound marketing, le Big data, les objets connectés, le Web3, le sem & soa et tous les vecteurs de relations forts au client final.

Parmi les grandes thématiques du web qui seront abordées sur i-expo :

  • la e-reputation et la communication 2.0 : en 2013, sa gestion ne se limite plus à l’optimisation des premiers résultats sur la page Google… Comment détecter ou anticiper un bad buzz, repérer un activiste, participer aux conversations, créer du contenu pour sa communauté… cette conférence plénière, animée par des experts de l’e-reputation, dressera un panorama à 360° des techniques, outils et bonnes pratiques en la matière.

Jeudi 13 juin 2013 – 10h/12h30, avec des intervenants de THALES, IPSOS, SFR et PUBLICIS

  • Les réseaux sociaux d’entreprise : entre intranets sociaux et outils de collaboration, les réseaux sociaux d’entreprise peuvent constituer un moyen de développer la communication et la collaboration dans l’entreprise, à condition de parvenir à y impliquer chaque collaborateur. C’est notamment sur ce défi que reviendra cet atelier en donnant des pistes pour réussir l’implication et la collaboration des employés dans les différentes strates, en fonction des ses attentes et de ses objectifs.

Jeudi 13 juin 2013 – 16h00/18h00, avec le retour d’expérience de DASSAULT SYSTEMS 

  • Le community management : nouveau métier apparu avec le web 2.0, le community management requiert des connaissances et des compétences particulières. Certaines entreprises ont bien compris son importance, tant en matière de e-reputation que de relation client. Cet atelier donnera une méthodologie et des conseils concrets pour créer et animer sa communauté.

Mercredi 12 juin – 16h00/18h00, avec le retour d’expérience du groupe RENAULT

  • Les alternatives à Google en matière de moteurs de recherche : si Google domine aujourd’hui ce marché, les résultats ne sont pas toujours pertinents – trop quantitatifs, personnalisés en fonction de critères géographiques… Cet atelier permettra de découvrir des alternatives au géant de l’internet et de sélectionner les bons outils en fonction de ses besoins.

Mercredi 12 juin – 13h30/15h30, avec le retour d’expérience de PUBLICIS

Pour rappel, i-expo se tient cette année pour la première fois sous le haut patronage conjoint du Ministère des PME, de l’innovation et de l’économie numérique et de son Ministère de tutelle, le Ministère du redressement productif.

Publié par Pierre Thouverez

Reproduire le sens du toucher, par le biais d’une main prothétique

La science a réalisé, ces dix dernières années, des avancées spectaculaires dans le domaine des prothèses, qu’elles soient externes (ayant pour objet la substitution d’un membre amputé) ou articulaires (ajouts ou substitutions destinées à remplacer, en partie ou en totalité, les surfaces articulaires d’une articulation).

La plupart des prothèses actuelles peuvent bouger et « fonctionnent » presque – pour ainsi dire – comme le membre ou l’articulation remplacée.

Aussi énormes que soient ces progrès, il manque pourtant toujours une chose aussi essentielle que le sens du toucher pour compléter le tableau, et créer une expérience prothétique la plus complète et la plus réaliste que possible.

Sans un retour somatosensoriel provenant du bout des doigts, il devient difficile d’établir avec précision la pression exercée sur un objet, ou encore sa position exacte dans la main prothétique, laissant alors le relais à un autre de nos sens, la vision, pour compenser cette lacune.

Sliman Bensmaia, professeur assistant en biologie des organismes et en anatomie à l’université de Chicago, étudie depuis de nombreuses années la base neurale correspondant au sens du toucher.

Il travaille désormais avec ses collègues sur un prototype de main prothétique, équipée de capteurs envoyant des signaux électriques vers un réseau d’électrodes reliées au cerveau, permettant de recréer une réponse équivalente à celle du toucher avec une main « naturelle ».

« Si vous souhaitez réellement mettre au point un bras prothétique qui peut s’utiliser avec dextérité, sans l’excès de concentration requis lorsqu’il n’y a pas de réponse sensorielle, il faut alors rétablir d’une manière ou d’une autre le feedback somatosensoriel. », rappelle-t-il.

Expériences probantes sur un groupe de macaques rhésus

Les universitaires américains ont conduit une série d’expériences sur des macaques rhésus, qui furent entrainés à répondre à une simple stimulation de la main.

Dans un premier temps, leurs mains furent touchées en douceur par une sonde, à des niveaux de pression différents ; dans un second temps, certains des singes eurent des électrodes implantées directement sur la zone du cerveau répondant au sens du toucher.

Ces derniers reçurent quelques impulsions électriques censées simuler la sensation du toucher, mais en ayant au préalable pris soin de dissimuler leurs mains, pour que les singes ne puissent compenser avec la vision, et ainsi comprendre qu’on les touchait.

En analysant les données correspondant aux différents types de stimuli, les chercheurs ont été capables de créer une fonction reliant l’impulsion électrique à différents niveaux et intensités de touchers de la main.

Lorsque les scientifiques répétèrent l’expérience avec une main prothétique directement connectée aux implants cérébraux des singes, les résultats furent plus que probants, les cobayes réagissant de manière identique que la stimulation proviennent de leur main ou de la prothèse.

Le professeur Bensmaia attend désormais que l’accord de la FDA (Food and Drug Administration) lui permette de tester son dispositif sur un être humain, afin de valider ses résultats et de développer ce qui pourrait bien être une nouvelle génération de prothèses.

Par Moonzur Rahman

Vers une optimisation de la détermination des seuils de toxicité

Dans un rapport paru mi-avril, l’agence européenne de sécurité des aliments (Efsa) discute des différents méthodes utilisées pour définir les seuils de toxicité de substances chimiques, particulièrement les pesticides.

Un état de l’art passant au crible les avantages et inconvénients des protocoles actuels utilisés pour établir les valeurs toxicologiques de référence (VTR), ces indices qui lient une dose d’exposition à une substance toxique et la survenue éventuelle d’un effet toxique. 

La définition de ces VTR repose sur différents postulats, communément admis. Des postulats discutés par l’Efsa, qui reconnait pourtant qu’ils sont acceptables en l’état actuel des connaissances : extrapolation des effets observés sur l’animal à l’homme, existence d’un seuil minimum en deçà duquel aucun effet nocif n’existe, calcul des incertitudes…

Autrement dit, tant que rien ne prouve que ces approches ne sont pas fiables, elles restent valides.

Parmi les recommandations de l’Agence apparait le recours à d’autres méthodes.

Favori de l’Efsa, le benchmark dose (BMD). Elle consiste à déterminer quelle est  la dose induisant un effet critique avec une augmentation de la fréquence ou de la sévérité conventionnellement définie à 1,5 ou 10%.

L’avantage étant de s’affranchir du facteur d’incertitude inévitable pour l’extrapolation de l’animal vers l’homme lorsqu’on cherche à définir la dose maximale sans effet nocif observable (NAOEL). Le BMD  est donc une méthode d’estimation de la dose critique.

Reposant sur une analyse statistique, cette approche requiert néanmoins d’être utilisée par des spécialistes de façon à éviter toute erreur d’interprétation. 

Autre habitude dans le collimateur de l’Efsa, le recours systématique à un facteur correctif de 10 pour extrapoler l’impact d’une substance inhalée d’une espèce à l’autre.

En effet, les différences physiologiques et biologiques des voies respiratoires diffèrent tellement d’un animal à un autre qu’il est nécessaire d’appliquer un facteur de sécurité. L’ajustement allométrique se substitue à ce facteur jugé trop arbitraire.

Enfin, l’Efsa préconise de développer le recours à la marge d’exposition. Il s’agit d’un rapport entre deux facteurs permettant d’évaluer la plus petite dose à laquelle est observé un effet indésirable mesurable.

Cette méthode est utilisée pour analyser les éventuels problèmes de sécurité sanitaire liés à la présence dans l’alimentation humaine de substances génotoxiques et cancérigène.

Elle n’est cependant pas utilisée pour étudier des substances ajoutées volontairement dans la chaine alimentaire, comme les additifs par exemple.

Pour lire le rapport : www.efsa.europa.eu/fr/supporting/doc/413e.pdf

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Toxicologie :


Aérogel de silice : le plus isolant des super-isolants enfin commercialisé !

« Depuis que la société a été créée en 2010, nous avons travaillé à développer l’activité aérogel de silice et superisolants.

La phase de développement est maintenant achevée et nous débutons celle de commercialisation des granules de gel de silice » annonce Pierre-André Marchal, directeur d’Enersens.

Cette filiale du groupe PCAS (Produits Chimiques Auxiliaires et de Synthèse) a pour objectif d’augmenter progressivement sa production de façon à atteindre un taux nominal dès 2014.

Une échéance à très court terme, mais si l’unité industrielle de plusieurs centaines de m² reste à bâtir, les outils de production permettant une production de masse sont déjà opérationnels.

La mise au point de cet outil industriel est issue d’une collaboration entre PCAS, le Centre Energétique et Procédés (CEP) et Mines ParisTech.Alors que les premiers contrats sont tournés vers les mortiers isolants, les avantages de l’aérogel de silice devraient rapidement lui ouvrir de nombreuses portes dans le secteur du bâtiment.

Par exemple, avec une conductivité thermique (λ) inférieure à 30 mW/m/K, les performances thermiques de ces mortiers à base de gel de silice sont bien supérieures au polystyrène expansé (λ =36 mW/m/K).

A titre de comparaison, la conductivité thermique de la laine de verre est de 40 mW/m/K.Mais revenons à l’aérogel de silice.

A cœur, ce matériau présente une conductivité thermique de 12 mW/m/K, et un lit de granule un λ <20. Des performances exceptionnelles qui en font un matériau de choix pour l’isolation. D’autant plus que les avantages de l’aérogel de silice ne se limitent pas à cela.

En premier lieu, l’aérogel de silice est fabriqué à partir de silice, un matériau très abondant sur Terre. De plus, cet aérogel est un matériau très stable en températures.

« Pour le marché de l’isolation, c’est un avantage certain. En cas d’incendie, il n’y a pas d’émission de gaz toxique par exemple. L’aérogel de silice est quasiment ininflammable ! » explique le directeur d’Enersens.

Autre propriété intéressante : cet aérogel est à la fois hydrophobe et perméable à la vapeur d’eau. Enfin, suivant la façon dont il est assemblé, les qualités thermiques restent stables au cours du temps.

« Pour donner un ordre de grandeur, après un vieillissement accéléré, si le λ était de 15, il déviera au maximum vers une valeur de 15.1 » chiffre Pierre-André Marchal.

Pour résumer, l’aérogel de silice permet aux professionnels de s’affranchir de nombreux problèmes des matériaux isolants actuels.

Après avoir déposé plusieurs brevets dont un sur la recette d’élaboration, Enersens continue de garder une longueur d’avance et travaille à développer de nouveaux matériaux. Parmi les pistes explorées, les matériaux liantés et ceux matelassés présenteront une conductivité thermique de 15.

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Matériaux :


La construction du plus grand complexe solaire du monde a commencé en Californie

Pour les trois années nécessaires à la construction des deux centrales, 650 techniciens et ingénieurs ont été recrutés.

Paul Caudill, président de MidAmerican Solar, a déclaré à l’occasion de la cérémonie de début des travaux de construction que le projet « crée dès à présent des emplois et génère des opportunités pour l’économie locale, tout en fournissant des bénéfices environnementaux sur le long-terme ».

L’investissement réalisé par l’entreprise MidAmerican solar, une filiale de MidAmerican Energy appartenant au holding Berkshire Hathaway du célèbre milliardaire Warren Buffet, s’élève entre 1,5 et 1,9 milliards d’euros, soit entre 2,6 et 3,3 euros par Watt installé.

La centrale fait appel non pas à la technologie du solaire à concentration thermodynamique, mais au solaire photovoltaïque qui ne consomme pas d’eau douce, un avantage non négligeable dans cette région du monde où l’eau est précieuse.

Fabricant de panneaux solaires à rendement particulièrement élevé, le groupe SunPower, retenu par MidAmerican Solar, va recourir pour les deux centrales à sa technologie Oasis basée sur des panneaux équipés de trackers .

Ceux-ci permettent de suivre le mouvement du soleil et ainsi d’améliorer la production électro-solaire de l’ordre de 25%. SunPower appartient depuis avril 2011, à hauteur de 66%, au groupe français Total.

Par Olivier Daniélo

Découvrez notre offre de formation Photovoltaïque : 


Ingénieur, best job in the world !

C’est décidé, je rends mon stylo, mon calepin et mon ordi, journaliste n’est pas un métier d’avenir. C’est en tout cas ce qui ressort du top annuel des métiers, établi par careercast.com, qui classe le métier de journaliste en… dernière position !

Alors qui occupe les premières places ? Bonne nouvelle, ingénieur est un métier convoité :

  • ingénieur dans le biomédical est en 2ème position,
  • ingénieur informatique en 3ème,
  • ingénieur environnement en 26ème place,
  • ingénieur pétrochimie est classé 28ème.

La première place étant occupée par le métier d’actuaires, un travail qui consiste à appliquer des calculs de probabilités et de statistiques notamment pour les assurances.

Le site se fonde sur plusieurs critères pour réaliser son classement. Ce sont la qualité de l’environnement de travail, le stress de la fonction et la rémunération, mais le classement tient aussi compte des efforts physiques et des perspectives d’embauche.

Les métiers du domaine de l’ingénierie sont globalement considérés comme peu stressant (!), avec des perspectives d’avenirs positives et un environnement de travail agréable.

Le salaire étant élevé, cela fait beaucoup d’atouts pour un même métier. Comme le rappelle CareerCast, nous passons une grande partie de notre vie au travail, alors autant que celui-ci nous plaise !

Ce classement permet une vue d’ensemble des professions avec leurs avantages et leurs inconvénients, de quoi confirmer nos choix professionnels ou au contraire, donner naissance à de nouvelles vocations.

L’intégralité du Top 200 : careercast.com/jobs-rated/best-worst-jobs-2013

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Métier :


Energies renouvelables : la France a progressé de 0,1 point en un an selon Eurostat

Entre 2004 et 2011, soit en 7 ans, la hausse a été de 2,4 points. En 2020, si ce rythme anémique se poursuit, la France aura à peine atteint les 2/3 de son engagement obligatoire de passer à 23 % d’ENR : elle s’exposera alors à de lourdes sanctions européennes.

A l’échelle de l’ensemble des 27 pays de l’UE, toujours selon les données Eurostat, c’est la Suède qui jouit du statut de champion, avec presque la moitié de son énergie provenant de sources vraiment renouvelables en 2011. La Norvège, pays non membre de l’UE, culmine à presque deux tiers d’ENR (64,7%). 

Au cours de la période 2004-2011, les progrès les plus importants ont été enregistrés en Suède (hausse de 38,3% à 46,8% ) et au Danemark (de 14,9% à 23,1%). Autriche, Allemagne et Estonie sont également dans le top 5 en termes de progression. Notre grand voisin d’Outre-Rhin, pays très industrialisé et fortement exportateur, est passé de 4,8% d’ENR en 2004 à 10,7% en 2010 et 12,3% en 2011. L’Allemagne est ainsi 0.8 point au dessus de la France en 2011.

Le pays de Goethe est bien parti pour atteindre son objectif de 18% d’ENR en 2020. Il est même probable qu’il l’atteigne avant cette date et dépasse l’objectif français. « Les objectifs individuels des États membres tiennent compte des différences dans les situations de départ ainsi que du potentiel d’énergies renouvelables et des performances économiques de chaque État membre » rappelle Eurostat.

Côté cancres, Malte en est à 0,4% d’ENR en 2011. Mais étant donné que la petite île méditerranéenne était à un niveau de seulement 0,2% en 2011, la dynamique de progression (0,2 points en un an) y est en réalité meilleure qu’en France.

La Ministre de l’écologie Delphine Batho a commencé fin 2012 un « débat sur la  transition énergétique ». Un débat « dont on peut regretter qu’il soit peu audible », estime Paul Quilès, ingénieur et ancien ministre, dans une tribune intitulée « La France en retard d’un choc énergétique », parue le 26 avril 2013 dans Les Echos. « Organisation confuse, absence de pédagogie, débats territoriaux peu convaincants » sont autant de regrets exprimés par l’ancien député socialiste et partagés par de nombreux observateurs.

Par Olivier Danielo

Revue du web #44 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • « BionicOpter », la très élégante libellule robot de Festo ; 
  • Jouer avec la densité : une tour, neuf épaisseurs ; 
  • Combat de Titans, la revanche : Mastic magnétique vs. aimant permanent ; 
  • « Le garçon et son atome », le plus petit film du monde réalisé par IBM Research ; 
  • Le gadget (inutile?) de la semaine : écrire un e-mail en jouant de la guitare ; 
  • Et en bonus de cette Revue du Web : l’évolution des festins dans l’espace.

 

« BionicOpter », la très élégante libellule robot de Festo

Commençons tout en douceur notre quarante-quatrième Revue du Web avec un robot à l’élégance raffinée, baptisé « BionicOpter ».

Conçue par la société allemande Festo, petite start-up spécialisée dans le développement et dans l’innovation des mouvements robotiques, « BionicOpter » est une libellule robotique dont le charme ravageur ne vous laissera pas de marbre.

Calquée sur son double naturel, elle est censée reproduire « techniquement les propriétés hautement complexes du vol de la libellule », pouvant se mouvoir sans difficultés dans toutes les directions.

Pourvu de ses quatre ailes, cet objet volant ultra-léger et télécommandé est également capable d’effectuer un vol stationnaire, ou peut très bien se déplacer sans battre les ailes, en vol plané.

La fréquence commune de battements des quatre ailes, ainsi que la torsion et l’amplitude du mouvement de celles-ci ont été réglées au millimètre près afin d’assurer un grand confort de maniabilité et une certaine souplesse dans le vol de notre libellule.

La direction de la poussée est déterminée par l’inclinaison des ailes, alors que l’intensité de la poussée est contrôlée par l’amplitude du mouvement. Capteurs, actionneurs, commandes et mécanique, tout tient dans un espace vraiment minimal.

Les ingénieurs de Festo nous avaient déjà bluffé avec leur « Smartbird », prototype de goéland robotique plus vrai que nature dont nous vous parlions ici (www.techniques-ingenieur.fr/revue-du-web-4), ainsi qu’avec « Smart Inversion », une structure au mode de propulsion pour le moins étonnant, à voir là (www.techniques-ingenieur.fr/revue-du-web-25).

 

Jouer avec la densité : une tour, neuf épaisseurs

Du miel, du sirop de maïs, du sirop d’érable, du lait, de l’huile végétale, une tomate cerise… non, ce n’est pas le début d’une recette de cuisine que nous entamons ici, mais bien l’énumération des ingrédients nécessaires à l’expérience suivante.

Une vidéo ludique postée sur Youtube se propose de jouer avec les différentes densités de certains liquides, permettant de créer une impressionnante « Tour des densités » composée de pas moins de neuf épaisseurs distinctes, sur certaines desquelles reposent sept petits objets.

Le fonctionnement de l’expérience, bien qu’élémentaire – même volume de deux liquides dont les masses volumiques diffèrent, deux liquides de masses différentes, le plus lourd au-dessus du plus léger – n’empêche pas qu’il faille se munir de quelques précautions dans sa réalisation.

En soignant le code couleurs, on obtient une jolie tour arc-en-ciel, dont la régularité est simplement perturbée par la présence, ici ou là, d’une balle de ping-pong, d’une tomate cerise, d’un dé ou encore d’un boulon métallique.

 

Combat de Titans, la revanche : Mastic magnétique vs. aimant permanent

Nous vous présentions le combat de haute volée entre du mastic magnétique et un aimant permanent (composé d’un alliage de néodyme fer bore, une structure cristalline tétragonale de formule Nd2Fe14B) dans notre revue précédente ici (/www.techniques-ingenieur.fr/revue-du-web-43), mais la vidéo semblait un poil aride pour le collectif PBS Digital Studio et l’utilisateur YouTube « joeyshanksfx », tout du moins ont-ils flairé le potentiel dramatique du combat, et ont décidé de s’associer pour y mettre les formes avec un peu plus de moyens techniques…

Résultat : une jolie musique, de belles images et toujours la même cruauté du combat sanglant entre nos deux protagonistes, combat à l’issue invariable en faveur du mastic magnétique, peu importe la configuration. Des paillettes, du strass, et de l’action !

Pour rappel, l’alliage de néodyme fer bore est celui qui est le plus souvent utilisé pour les aimants en terres rares, car le néodyme augmente de manière significative les capacités électromagnétiques des aimants, mais est relativement fragile et trop malléable. On retrouve d’ailleurs de grandes quantités de néodyme dans les alternateurs des éoliennes à forte puissance.

Le mastic magnétique, bien qu’il ressemble à du mastic ordinaire, est imprégné de millions de particules ferreuses de l’ordre du micron (de la poudre d’oxyde de fer), ce qui ne le rend pourtant pas magnétique pour autant.

C’est la présence du cube aimanté qui magnétise les particules ferromagnétiques du mastic, qui s’alignent et génèrent des pôles magnétiques.

Le mastic va alors engloutir peu à peu le petit cube, pour enfin tenter de se répartir le plus régulièrement possible autour de celui-ci.

 

« Le garçon et son atome », le plus petit film du monde réalisé par IBM Research

« Vous êtes sur le point de regarder le film détenteur du Guinness World Records ™ du plus petit film réalisé en stop-motion au monde » : c’est sur ces mots qu’IBM a introduit son film, « A boy and his atom » (« Un garçon et son atome »), qui est bien plus qu’un court-métrage car il s’agit réellement d’un petit film, tout petit film à l’échelle… atomique.

On savait les nano-physiciens capables de bouger un atome à l’aide d’un microscope à effet tunnel (connu sous l’acronyme STM, pour « Scanning Tunneling Microscope »).

Ici, pas de mystère, c’est bien cette méthode qui a été retenue et employée par les scientifiques du laboratoire de recherche du géant américain, IBM Research, qui a tourné ce film en stop-motion.

Chacun des atomes, agrandi près de cent millions de fois, fut déplacé, déplacement immortalisé par une photo. Ce sont ces photos mises bout à bout qui permettent de réaliser ce petit film au charme désuet, selon la technique bien maitrisée de la capture image par image, le fameux « stop-motion ».

La possibilité de déplacer des atomes est cruciale pour les scientifiques du pôle recherche d’IBM, notamment dans leurs travaux d’exploration de la mémoire atomique.

Les chercheurs ont pu déplacer des milliers de molécules de monoxyde de carbone dans le cadre de la réalisation de ce tout petit film qui totalise d’ores et déjà plus de trois millions de vues sur youtube.

La vidéo du making-of, à la suite du film, mérite elle aussi le coup d’oeil.

 

 

Le gadget (inutile?) de la semaine : écrire un e-mail en jouant de la guitare

David Neevel a plus d’un tour dans son sac… Nous nous étions déjà penchés sur le cas de ce monsieur, artiste et inventeur farfelu, alors qu’il faisait des pieds et des mains pour parvenir à résoudre un problème d’une importance capitale : débarrasser les biscuits Oreos de leur satanée crème (www.techniques-ingenieur.fr/actualite/revue-du-web-41).

Pour conclure cette quarante-quatrième Revue du Web, laissons-nous transporter par l’artiste iconoclaste vers l’une de ces contrées lointaines où l’inutile tutoie l’impossible et le loufoque. Cette fois-ci, David Neevel s’attaque à un problème de taille : comment parvenir à concilier la pratique régulière de la guitare électrique et les nécessités impérieuses d’une vie professionnelle standard, parmi lesquelles se trouvent… l’écriture d’un e-mail.

Frustré de perdre inutilement un temps précieux devant l’écran de son ordinateur à écrire des e-mails pour le boulot (temps qu’il pourrait mettre à profit pour travailler ses gammes et asseoir sa maîtrise du mode mixolydien), David Neevel s’est mis en tête de parvenir à combiner les deux activités.

Après quelques essais infructueux et quelques pages de programmations, il a réussi à mettre au point « the email guitar », le Saint-Graal du guitariste en CDI.

Chaque note jouée sur la guitare est captée par un synthétiseur pour guitare Roland, pour y être transformée en format MIDI.

Les données sont ensuite envoyées vers un photocoupleur, pour finalement être traduite par une touche de clavier bien définie.

Dextérité et patience seront les maîtres mots si l’on veut parvenir à envoyer un e-mail en moins d’une journée. Improvisation fortement recommandée.

 

Bonus : évolution des festins dans l’espace

En bonus de cette Revue du Web, nous vous proposons de suivre l’évolution de la nourriture des astronautes dans l’espace, à travers une série de quatre photos documentant certains des aliments spatiaux qui ont pu régaler ces scientifiques de l’espace, des programmes Mercury et Gemini au programme Apollo, ainsi que pour le programme Skylab.

On y retrouve quelques éléments habituels rencontrés dans les œuvres de science-fiction, nourriture dans des pochettes sous vide et aliments en tubes aluminium notamment.

Bien que les astronautes purent eux-mêmes choisir leur menu dès la fin des années 60, les premiers à avoir pu bénéficier d’eau chaude furent les astronautes des missions Apollo.

C’est le NASA Space Food System Laboratory qui se charge de concocter les petits plats des astronautes américains, dont la mission est de « fournir une nourriture de qualité, pratique, compatible aux besoins physiologiques et psychologiques de tous les membres de la mission, […] et qui est simple à préparer et à déguster en apesanteur… ».

Les astronautes, eux, admettent à mots couverts le cruel manque de saveur de ces aliments.

 

Par Moonzur Rahman

Trois pesticides mortels pour les abeilles mis sur le banc de touche

L’utilisation de ces trois pesticides – l’imidaclopride, le thiaméthoxane et la clothianidine – sont suspectés de jouer un rôle majeur dans la disparition des abeilles domestiques et bien d’autres insectes pollinisateurs.

D’autres facteurs sont à prendre en compte, bien sûr, tel que la pollution de l’air ou les attaques du varroa, son ennemi naturel qui se trouve être un parasite mortel.

Toujours est-il que depuis quinze ans, c’est l’hécatombe. Or c’est un fait reconnu, le rôle des abeilles est capital. Car c’est justement par la pollinisation des plantes à fleur que découle un tiers de notre alimentation.

Le commissaire en charge du dossier Tonio Borg a d’ailleurs bien précisé : « Les abeilles sont vitales pour notre écosystème et elles doivent être protégées, d’autant qu’elles apportent une contribution annuelle de 22 milliards d’euros à l’agriculture européenne ».

C’est pourquoi, en dépit d’une forte pression des lobbies agricoles, quinze pays se sont exprimés favorablement à l’interdiction des ces pesticides.

Parmi eux, on retrouve la France et l’Allemagne. Dans le camp opposé, l’Italie et le Royaume-Uni ont voté contre l’interdiction. Concrètement, l’enrobage de semences du maïs, du colza, du tournesol et du coton ne pourra plus avoir lieu avec ces pesticides.

D’autres applications comme la pulvérisation sur diverses cultures et le traitement au sol ont également été abrogées. Malgré tout, la France demeure le principal producteur.

Elle peut donc continuer la fabrication ainsi que l’exportation de ces néonicotinoïdes vers les pays non soumis par cette réglementation. Des rebondissements sont à envisager. Pour l’heure, rien n’est définitif et la décision peut très bien changer.

C’est ce dont redoute Olivier Bayer, le président de l’Union nationale de l’apiculture française. Il déplore notamment que « la date d’entrée en vigueur de la suspension ait été repoussé du 1er juillet au 1er décembre ».

Cela laisse une marge de manœuvre suffisante pour que les commerçants de pesticide en profitent pour réaliser des études prouvant que ces pesticides n’ont rien de nocif pour les abeilles. Juste après la décision de la commission, les multinationales de la chimie avaient d’ailleurs appelé à un retour aux négociations, affirmant qu’il s’agissait « d’un revers pour la technologie et l’innovation ».

Par Sébastien Tribot, journaliste scientifique

 

Découvrez notre offre de formation Toxicologie :


L’essentiel de REACH 2/2 (avril)

Horaire d’ouverture de REACH-IT

17/04/2013

REACH-IT étend ses horaires d’ouverture en mai pour permettre aux déclarants d’enregistrer leurs dossiers dans les délais. Il sera accessible en continu du lundi au vendredi de 10h à 21h00, sera fermé le 1er et le 9 mai et à compter du 20 mai, sera ouvert non-stop jusqu’au 1er juin. Plus d’information sur : 

http://echa.europa.eu/view-article/-/journal_content/title/reach-it-opening-hours

Mise à jour de la liste d’autorisation

18/04/2013

Le 3ème amendement (Règlement UE n° 348/2013 du 17 avril 2013) modifiant l’Annexe XIV de REACH a été publié au Journal Officiel. Huit entrées ont été ajoutées aux 14 figurant déjà à l’Annexe XIV de REACH : le trichloroéthylène, le trioxyde de chrome, les acides générés à partir du trioxyde de chrome et leurs oligomères (groupe comprenant l’acide chromique, l’acide dichromique et leurs oligomères), le dichromate de sodium, le dichromate de potassium, le dichromate d’ammonium, le chromate de potassium et le chromate de sodium.

Plus d’information sur : http://echa.europa.eu/addressing-chemicals-of-concern/authorisation/recommendation-for-inclusion-in-the-authorisation-list/authorisation-list

Règlement UE n° 348/2013 : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2013:108:0001:0005:FR:PDF

Journée biocides : enregistrements ouverts

23/04/2013

L’ECHA organise, le 25 juin prochain à Helsinki, sa 1ère journée sur les biocides en prévision de l’entrée en vigueur du nouveau règlement biocide en septembre 2013. La participation à cette conférence est gratuite.

Renseignements et inscription sur : http://echa.europa.eu/view-article/-/journal_content/title/registration-opens-for-the-biocides-stakeholders-day

La chambre des recours annule une décision de l’ECHA

29/04/2013

La chambre des recours adopte sa première décision sur un recours contre une décision de l’ECHA prise à la suite d’une vérification de la conformité en vertu de la procédure d’évaluation du dossier. Dans le cas A-005-2011, la chambre des recours annule une décision de l’ECHA, exigeant des essais sur des animaux vertébrés et renvoie l’affaire à l’ECHA pour un nouvel examen. Plus d’information sur : 

http://echa.europa.eu/view-article/-/journal_content/title/the-board-of-appeal-annuls-an-echa-decision

Consultation publique pour des classifications et étiquetages harmonisées

30/04/2013

L’ECHA sollicite des commentaires sur la classification et l’étiquetage harmonisés (CLH) de deux propositions concernant des borates (disodium octaborate, anhydrate et disodium octaborate, tetrahydrate) et un pesticide, le fenpyroximate. Les consultations publiques sont ouvertes pendant 45 jours et se termineront le 14 Juin 2013.

Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/public-consultations-launched-on-clh-proposals-for-two-borates-and-a-pesticide

Clarification pour les demandes d’autorisation

30/04/2013

Pour guider les candidats à travers le processus d’autorisation, les services de la Commission européenne ont récemment clarifié le terme « reçu » à l’article 58 (1) (c) (ii) du règlement REACH à savoir si une demande d’autorisation peut être considérée comme soumise. 

La Commission a expliqué que si la demande est présentée avant la « date limite d’application », la requérante peut continuer à utiliser la substance après la « date d’expiration », en attendant la décision de la Commission.

Plus d’informations sur : http://echa.europa.eu/view-article/-/journal_content/title/clarification-on-when-to-submit-applications-for-authorisation

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Retour sur l’explosion dévastatrice dans une usine d’engrais au Texas

Mercredi 24 avril, peu avant 20h00, une terrible explosion a ravagé l’usine d’engrais West Fertilizer.

Les pompiers, appelés pour lutter contre un incendie s’étant déclaré dans l’usine, ont subi de plein fouet le choc de l’explosion qui s’est produite une vingtaine de minutes après leur arrivée sur le site.

La déflagration, mesurée par les sismographes de l’Institut géologique américain comme un tremblement de terre de magnitude 2.1, a soufflé les fenêtres des habitations voisines et provoqué des dégâts impressionnants.

Les images de la ville de West font froid dans le dos. Bâtiments ravagés, toitures arrachées, vitres explosées, façades effondrées, la puissance de la déflagra dation a provoqué d’importants dégâts matériels et aussi humains.

Le bilan est lourd : 14 morts et environ 200 blessés. Officiellement, la cause de l’explosion est encore inconnue.

Les enquêteurs se sont exprimés il y a seulement quelques jours, principalement pour démentir une rumeur concernant un wagon de l’Union Pacific contenant potentiellement du nitrate d’ammonium.

Finalement, cette piste est écartée: « Le wagon dont il était question […] n’est pas la cause de l’incendie ni de l’explosion », a déclaré Kelly Kistner, adjoint du cher des pompiers du Texas.

Exit aussi les causes naturelles comme la foudre. Du fait de la présence d’une importante quantité de nitrate d’ammonium dans l’usine, les enquêteurs se focalisent sur l’accident sans écarter la possibilité d’un acte de malveillance.

Il faut dire que les autorités connaissent bien West Fertilizer. En 2006, l’usine avait été condamnée à payer une amende de 2300$ à l’agence la protection de l’environnement pour absence de plan de gestion des risques chimiques.

Ce n’est pas tout. Suite à une plainte d’un riverain signalant de fortes odeurs d’ammoniac, l’usine d’engrais a écopé d’une amende de…30$ ! Et a été contraint de construire un mur pour bien séparer deux réservoirs de stockage situés à proximité d’une route.

L’année dernière, le groupe Adair Grain Inc. Auquel appartient West Fertilizer, a été épinglé pour manque de sécurité dans le transport d’ammoniac, une amende de plus de 10 000$.

Malgré tous ces manquement, l’usine désormais détruite n’avait pas été inspectée depuis plus de six ans…

Par Audrey Loubens, journaliste scientifique

 

Découvrez notre offre de formation Sécurité :


L’exploitation du gaz de schiste serait moins polluante qu’estimé jusqu’à présent

En 2010, ce ne sont pas 214 millions de tonnes métriques de méthane qui auraient été émises lors de l’extraction de la ressource, mais 144 millions, soit un taux de fuite 32% plus bas. Il est naturel que les compagnies gazières cherchent à réduire les émissions de méthane car elles constituent « de l’argent qui part en l’air » souligne Roger Pielke Jr, professeur en sciences environnementales à l’université du Colorado. Grâce aux retours d’expérience et aux progrès technologiques, le taux de fuite ne peut que tendre vers le bas. 

Le débat sur le gaz de schiste divise profondément les écologistes aux Etats-Unis.  Les nouvelles données du rapport de l’EPA constituent un « tremblement de terre » dans le débat sur l’exploitation de cette resource estime Michael Shellenberger, président du Breakthrough Institute, un think tank favorable à une écologie pragmatique et progressiste. « C’est une excellente nouvelle pour toute personne concernée par le changement climatique et une preuve solide que les technologies disponibles aujourd’hui peuvent être déployées pour réduire les fuites de méthane » ajoute l’expert.

Un avis non partagé par les partisans d’une écologie plus radicale comme par exemple Bill McKibbern, fondateur du mouvement « 350.org » : « Le gaz naturel n’est qu’un régime à la mode qui permet à un patient obèse de perdre quelques kilos jusqu’à ce que son poids se stabilise. Nous avons plutôt besoin d’un régime radical, plus difficile à mettre en œuvre ». 

Le gaz de schiste solution pour réduire les émissions de GES ?

Force est de constater que le recours au gaz de schiste a permis aux USA de réduire leur dépendance vis-à-vis du charbon, très polluant, et de devenir le champion du monde de vitesse de réduction des émissions de CO2.  Alors qu’en Europe, où des politiques climatiques très ambitieuses ont pourtant été mise en place mais où les responsables politiques sont hésitants concernant le gaz de schiste, les électriciens préfèrent faire tourner leurs centrales au charbon, dont le combustible est moins coûteux que le gaz sur le marché européen, entrainant une hausse inquiétante des émissions de CO2. 

Non seulement la filière gaz de schiste permet aux USA de réduire les émissions de CO2 mais elle a conduit à la création massive d’emplois et a des répercussions positives sur de nombreux secteurs, dont l’industrie chimique fortement consommatrice en produits dérivés du gaz naturel.

La question de fond qui agite la sphère écologiste américaine est la suivante : est-il préférable d’opter pour une approche puriste et idéaliste de l’écologie mais qui ne fonctionne pas dans le monde réel, ou pour une approche moins pure mais qui fonctionne ? 

A lire également dans la veille Actualités


Les révisions de l’EPA ont des implications à l’échelle mondiale. L’agence américaine a annoncé que ces nouveaux résultats ont été transmis mi-avril 2013 au bureau de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC). La diplomatie mise en place par l’équipe Obama mise lourdement sur le gaz de schiste, domaine qui attire fortement les pays asiatiques désireux de maintenir leur forte croissance économique, et où l’industrie américaine à une longueur d’avance en matière de savoir-faire technologique.

Les centrales au gaz naturel constituent un complément particulièrement pertinent pour les énergies renouvelables fluctuantes comme le solaire et l’éolien. 

Par Olivier Daniélo