Introduction à la mécatronique

La mécatronique est issue de l’intégration de technologies provenant de la mécanique, de l’électronique, de l’automatique et de l’informatique dans la conception et la fabrication d’un produit en vue d’augmenter et/ou d’optimiser sa fonctionnalité. Il ne s’agit ni d’une science, ni d’une technologie mais d’une démarche d’intégration de technologies en synergie.

Historiquement, cette démarche s’est imposée d’abord sur les automatismes qui ont eu besoin de recourir aux technologies de l’électronique, puis, avec l’arrivée de l’informatique, des microprocesseurs et de la technologie internet, de nouveaux produits sont apparus et les possibilités des produits existants, qui ont intégré ces technologies, ont été décuplées.

La mécatronique, qui s’est d’abord imposée dans l’aéronautique, s’est ensuite largement diffusée dans l’automobile puis a progressivement envahi les produits de l’industrie mécanique. Toutefois, la démarche d’intégration et les méthodes de conception et de simulation associées n’en sont qu’à leurs débuts tout comme les possibilités offertes par l’ensemble des technologies ainsi fusionnées.

 

Lire la suite

Un analyseur énergétique, lauréat du prix « Fibre de l’Innovation 2011 »

Opticsvalley, qui fédère la communauté des technologies optique, électronique et logicielle (entreprises, établissements d’enseignement supérieur, laboratoires de recherche, et entités publiques et privées qui soutiennent l’innovation et le développement économique) en Ile-de-France, vient de décerner, pour la troisième fois, son prix « Fibre de l’Innovation ». Cette année, dans le cadre de la manifestation « De l’innovation à l’emploi industriel – Un défi pour l’Ile-de-France », a été couronné, dans la catégorie Industrie, Robert Lacoste d’Alcion, cabinet d’expertise et d’études amont en électronique, spécialisé dans les signaux mixtes, pour son analyseur énergétique Powerspy.

Plus qu’un énergimètre classique, le Powerspy mesure très finement la consommation énergétique de tout appareil électronique, en particulier en mode de veille, alors que la puissance n’est que de quelques dizaines de milliwatt. Avec plus de 30 paramètres mesurés, il permet de visualiser en temps réel et d’analyser les courbes de tension, courant et puissance (pics, mesures RMS, facteur de puissance, analyse harmonique et THD…). Des informations qui permettent aux concepteurs d’identifier et de réduire les sources de surconsommations de leurs produits : validations de produits, certifications EuP (Energy using Products), optimisation d’alimentations à découpage, éducation…

Destiné également aux organismes de certification, aux centrales d’achat, à l’éducation, le Powerspy doit ses fonctionnalités à son architecture brevetée, constituée d’un boîtier d’acquisition haute performance transmettant en temps réel les données de mesure à un ordinateur standard doté d’un logiciel d’analyse. Sa liaison Bluetooth garantit une utilisation en toute sécurité et offre une isolation galvanique parfaite.

« Maintes fois, nous avons fait appel à Alciom pour des développements de projets spécifiques. Nous avons aussi fait l’acquisition du Powerspy. C’est un équipement très simple d’emploi, qui nous permet de faire des diagnostics de consommation de manière rapide et pertinente », déclare Philippe Matillon, directeur Innovation et Architecture Services chez Bouygues Télécom.

 

 

Un capteur de pression qui s’étire, qui s’étire…

Imaginons un instant le scénario suivant : un conducteur perd le contrôle de sa voiture, qui termine sa course sur un poteau. Le passager s’était auparavant penché pour ramasser quelque chose sur le sol de la voiture. Les airbags se déploient correctement, protégeant le conducteur, mais blessant le passager, car trop en avant. Il y a un moyen de se prémunir contre un tel incident.

Des chercheurs de l’Institut Fraunhofer de Recherche en Silicate ont développé un capteur de pression ayant la capacité de se déformer, s’étirer jusqu’à atteindre deux fois sa taille. Ces capteurs pourraient être intégrés à un siège de voiture, afin de déterminer la position exacte de la personne assise, qu’elle se penche ou soit assise bien au fond du siège. Cela permettrait de diminuer la puissance de sortie de l’airbag, en cas d’accident et si la personne n’est pas installée correctement.

Les chercheurs avancent que la flexibilité de ces capteurs en élastomères et diélectriques multiplient les possibilités d’applications. Ils sont suffisamment souples pour pouvoir être intégrés à un vêtement, ou à une tenue sportive, laissant entrevoir une analyse des mouvements des athlètes très précise, optimisant leur entrainement.

Jauge de contrainte

Ces capteurs fonctionnent comme une jauge de contrainte, en mesurant la déformation en surface afin de connaître le niveau de contrainte. La péllicule de polymère élastomèrique et extensible est recouverte des deux côtés par des électrodes flexibles. En contrôlant le degré de liaisons chimiques dans le film élastomère, les chercheurs sont capables de concevoir ces capteurs pour différentes applications.

Ils peuvent par exemple être intégrés au sol d’une usine, pour indiquer une zone sensible à l’approche d’une machine dangereuse. Les chercheurs feront la démonstration de leur capteur au Salon Sensor+Test se tenant à Nuremberg, en Allemagne, du 7 au 9 juin prochain.

Par Rahman Moonzur

Caractérisation d’un gaz confiné à l’aide d’un capteur acoustique – Application aux crayons combustibles nucléaires

La consommation d’électricité dans le monde ne cesse de croître. En France, environ 80 % de l’électricité est produite à partir de l’énergie nucléaire. Dans les centrales, le combustible nucléaire est conditionné dans des tubes hermétiques, les crayons combustibles. En confinant les éléments radioactifs, les crayons constituent la première barrière biologique vis-à-vis de l’environnement.

Au fur et à mesure de son activité de désintégration, après plusieurs cycles en centrale, l’uranium produit dans le tube qui le contient des gaz, essentiellement de l’hélium et du xénon. Un meilleur suivi du relâchement (mesure de la pression et de la composition) des gaz de fission pourrait permettre une optimisation de la durée d’utilisation des crayons en centrale.

À ce jour, les seuls contrôles effectués sont destructifs : les crayons sont extraits des centrales, puis percés et les gaz analysés. Une mesure non destructive in situ des propriétés de ces gaz constituerait une avancée considérable dans le contrôle de la gestion des centrales.

 

Lire la suite

Intégration robot-capteur

La grande majorité des robots industriels installés fonctionne dans un mode de répétition : ils exécutent une séquence de mouvements appris. La réactivité par rapport à un événement externe est très limitée : elle se borne souvent à des réactions basiques déclenchées par des événements de type « tout ou rien ».

L’environnement doit donc être constant et connu avec une grande précision. Pour un poste de soudage robotisé, par exemple, les pièces à souder doivent être positionnées avec précision face au(x) robot(s) avant que celui-ci effectue sa tâche apprise. Toute erreur dans ce positionnement se répercutera directement sur la précision de la tâche.

D’autre part, lorsque le robot travaille au contact (ce qui est le cas des tâches d’insertion, de polissage ou de vissage, par exemple), en l’absence de capteur additionnel et si les cotes ou le positionnement de la pièce s’éloignent des valeurs nominales, les efforts engendrés peuvent croître de manière très importante, pouvant aller jusqu’à la destruction de la pièce ou de l’outil.

Afin de donner au robot plus de flexibilité et d’adaptabilité, il est nécessaire d’inclure dans sa commande des retours sensoriels externes.

La vision permet de prendre en compte des variations dans l’environnement de travail du robot. On parle alors de « commande par vision » ou « asservissement » visuel. Lorsque le robot travaille au contact, la mesure des efforts d’interaction fournie par un capteur d’effort permet de contrôler, et donc de limiter, ces efforts d’interaction. On parle alors de « commande en effort ».

Cet article est dédié à l’interaction robot-capteur pour les deux capteurs extéroceptifs les plus couramment utilisés en robotique : la caméra et le capteur d’effort.

Les aspects théoriques concernant les différentes architectures de commande sont abordés de façon très synthétique, en donnant au lecteur la possibilité d’approfondir le sujet à travers la citation de références.

La technologie des capteurs, des exemples et des études de cas réels, constituent le volet pratique de l’article.

 

Lire la suite

Un algorithme pour améliorer l’électrocardiographie à distance

Les technologies mobiles sont sur le point d’amener les services de santé les plus divers et les plus pointus dans des lieux qu’ils n’avaient jusque là jamais pu atteindre, en raison de l’isolement  et du manque de moyens. L’électrocardiographie est l’un de ces services, où la pénurie de praticiens et l’impossibilité d’y avoir accès rapidement peuvent être résolues par l’avancée technique des smartphones, – bien qu’il y ait toujours la possibilité de mal interpréter des données, menant vers un diagnostic erroné.

Xiaopeng Zhao, professeur assistant au Département de Mécanique, Aérospatial et d’Ingénierie Biomédicale à l’université de Knoxville, dans le Tennessee, travaille à l’élimination de ces erreurs. Zhao et son équipe ont développé un algorithme, – ayant d’ailleurs remporté un prix –, qui améliore l’exactitude des électrocardiogrammes. L’électrocardiogramme étant l’outil le plus usité, et ce pour une grande variété de symptômes, les 4 % d’erreurs qui sont prises à l’aide d’électrodes mal placées doivent pouvoir être encore et toujours réduites.

L’algorithme de Zhao examine les interférences résultant de mauvais branchements ou de perturbations quelconques, et utilise son schéma d’analyse spécialement conçu pour repérer ces interférences. Plutôt qu’une classification classique de type « oui-non », il délivre une note allant de A à F, ainsi que des recommandations sur le bon placement des électrodes. L’algorithme, implémenté en Java, peut alors être installé et utilisé à l’aide d’un smartphone, en quelques clics et secondes. Cet outil permettra alors d’affiner certains diagnostics, dans des zones reculées, ou encore dans des zones bien pourvues, mais dont le personnel risque d’être très occupé.

Par Rahman Moonzur

Boîtes noires : plus seulement un outil « post-mortem »

Une boîte noire enregistre des quantités impressionnantes de données relatives aux performances d’un avion, aux contrôles, à l’équipement hydraulique, aux systèmes GPS etc., et ce toutes les secondes et pendant tout le temps du vol, ce qui permet généralement aux autorités compétentes de reconstituer les derniers instants d’un accident. Des chercheurs américains du prestigieux MIT ont eu l’idée d’utiliser ces informations précieuses avec une technique de recherche par clusters – par paquets de données similaires –, ce qui pourrait changer la donne des batteries de tests d’avant-vol.

La méthode d’utilisation des boîtes noires employée jusqu’ici, pourtant déjà innovante, laissait des outils logiciels scanner les données contenues puis les analysait en vue d’éventuels écarts ou anomalies, qu’elles soient techniques ou qu’elles concernent les procédures de vol. Le principal défaut de cette méthode réside dans le besoin d’identifier à l’avance les paramètres à contrôler, laissant potentiellement des informations en apparence peu importantes (mais en apparence seulement) de côté. L’explosion du nombre de capteurs à bord des appareils rend aussi, paradoxalement, cette recherche malaisée et rapidement obsolète.

La méthode utilisée par John Hansman et ses collègues du Massachusetts Insitute of Technology ne nécessite en aucun cas la prédétermination des paramètres à analyser, puisqu’elle repose sur une analyse par clusters, c’est-à-dire par paquets de données regroupées selon leurs similitudes. La moindre différence dans les données est alors signalée, afin de déterminer si l’anomalie est significative, si elle a une explication ou une origine, et afin de permettre la correction, un examen plus complet, voire même l’immobilisation de l’appareil. Des tests concluants ont déjà été effectués sur quelques Boeing 777. L’analyse a posteriori des données du vol 1248 de la Southwest Airlines – accident ayant fait un mort à Chicago – révèle que cette méthode aurait pu éviter le drame… Ainsi, la gestion en amont des données enregistrées par les boîtes noires pourrait peut-être, grâce à cette méthode, changer la donne…

Par Rahman Moonzur

 

À lire aussi :

Crash Rio-Paris : les enquêteurs identifient une série de défaillances des pilotes

Des boîtes noires dans toutes les voitures ?

Boîtes noires du vol Rio-Paris : conclusions hâtives ?

[Vidéo] Crash Rio-Paris : les deux boîtes noires repêchées

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

Épaves d’avions en mer : optimiser leur localisation et la récupération des données en vol

La mort annoncée du couple « Login/Mot de passe »

Incontestablement, l’usage d’Internet dans un contexte professionnel et personnel ne cesse de se développer. En effet, vecteur de communication du quotidien, le Web est massivement utilisé pour répondre à bien des usages : communication, processus transactionnels, commodités, services aux citoyens, gestion de ses comptes en ligne… Autant de champs d’applications qui imposent de garantir une parfaite sécurité.

À ce jour, dans la majorité des cas, force est de constater que le traditionnel couple « Login/Mot de passe » continue de s’imposer comme le mode d’authentification proposé. Mais est-ce si efficace pour se prémunir de toute usurpation d’identité ? Pas si sûr…

Les exemples ne manquent pas et font couler beaucoup d’encre dans les médias qui mettent régulièrement en lumière de nombreuses affaires liées à la sécurité informatique et plus particulièrement aux vols de données ou, plus généralement, à l’usurpation d’identité. Administrations, professionnels, sites marchands et particuliers doivent donc être particulièrement vigilants. Au-delà de ces éléments, l’industrie IT doit également se mobiliser pour proposer des alternatives et de nouveaux moyens pour garantir une sécurité de premier plan. Au niveau réglementaire, le législateur a également clairement montré son intention de durcir le ton sur le thème de l’usurpation d’identité avec l’adoption de la loi LOPPSI2.

Ainsi, l’on assiste progressivement à une évolution des mentalités et à une prise de conscience de l’ensemble du marché. N’oublions pas que la confiance est à la base du développement des activités réalisées sur Internet. Il est donc indispensable de la repositionner au centre du débat afin que cette dernière ne vienne pas entraver le formidable élan que connaît le Web. Il est donc fondamental de proposer de nouveaux modes d’authentification simples et adaptés aux usages d’aujourd’hui.

Pour répondre à ce besoin, l’approche qui consiste à s’authentifier via un certificat électronique semble se généraliser (banques, administrations, réponses aux marchés publics…). En effet, elle garantit une totale sécurité et permet de fiabiliser le processus d’authentification. Autre point jouant en sa faveur, le certificat électronique permet de signer électroniquement des documents. Il permet donc de conjuguer simplicité et performance.

Opter pour ce type d’approche permet également de garantir un accès unique à un service. Il n’est ainsi pas possible de partager un « Login/Mot de passe » avec différentes personnes. Cela permet notamment aux entreprises, qui proposent des services et abonnements en ligne, de s’assurer qu’un seul abonné accède à son contenu.

Ce point est particulièrement important pour différents secteurs comme celui de médias qui orientent massivement leur nouveau modèle commercial sur le Web : accès payant aux contenus en ligne… Enfin, au-delà de ces éléments, il est important de faciliter la vie numérique des internautes et de jouer la carte de la fédération d’identité sur un moyen d’authentification unique.

S’authentifier sur Internet est donc un processus stratégique qui devrait évoluer à court terme. Il est utile de proposer des moyens d’authentification accessibles à tous. C’est à cette unique condition que la confiance numérique pourra être restaurée et que les actions liées à la cybercriminalité pourront être endiguées.

 

Par Stéphane Drai, Président de CertEurope

Sciences : aider les filles exposées aux discriminations

Une jeune femme engagée dans des études scientifiques et techniques, exposée aux discriminations raciales, et/ou résidant dans un quartier réputé difficile, et/ou venant d’un milieu modeste, a-t-elle potentiellement moins de chances de décrocher un stage qu’une autre ? Réponse : oui.

Une liste de raisons justifiées ?

L’AFIJ en a fait le constat. Cette association, financée par les pouvoirs publics et qui aide les jeunes diplômés à chercher leur premier emploi, un contrat en alternance ou un stage, a décidé de soutenir les étudiantes engagées dans des formations techniques et scientifiques. « Au fil des témoignages, nous nous sommes aperçus que ces filles s’autocensurent pour plusieurs raisons, explique Laetitia Bellagamba, chargée de mission insertion à l’AFIJ. Soit on leur dit que ces filières ne sont pas faites pour elles, soit elles s’aperçoivent qu’elles sont en minorité par rapport aux garçons et cela leur fait peur, soit elles méconnaissent les métiers relatifs à leur formation, soit elles anticipent des pratiques discriminatoires lors de leur recherche de stage, soit issues d’un milieu modeste et devant travailler pendant leurs études, elles font passer leur job alimentaire avant leur stage et leur formation, soit elles pensent que ces métiers sont trop durs pour se concilier avec une vie de famille. »

Un panel de 133 étudiantes

Face à ces freins, l’AFIJ lance début 2011 une action appelée « a-censure » auprès de 133 étudiantes engagées dans des études en Sciences/Technologies/Santé, IUT, universités (licence ou master), grandes écoles… Parmi elles, 126 sont exposées aux discriminations raciales, 45 résident dans des quartiers dits « sensibles ». Toutes suivent un module de formation de l’AFIJ sur la recherche de stage, mais 40 filles se disent prêtes à aller plus loin en intégrant un accompagnement intensif et expérimental.

Leur mettre le pied à l’étrier

« Nous les avons mises en relation avec des professionnelles du secteur scientifique et technique pour qu’elles puissent développer leur connaissance des métiers et leur réseau », raconte Laetitia Bellagamba. Nous avons organisé des rencontres avec le CIDFF pour discuter de la conciliation vie professionnelle-vie familiale, pour leur donner des notions légales et juridiques sur la discrimination, sur l’égalité professionnelle femme/homme. Nous voulions leur faire comprendre qu’il est possible d’accéder à des postes à responsabilité et qu’il existe des pistes pour pallier leur autocensure. Enfin, nous les avons mises en relation avec des recruteurs en recherche de stagiaires pour qu’elles aient l’opportunité d’un entretien et acquièrent ainsi plus de confiance en elles ».

Une action à poursuivre

L’expérimentation s’est terminée en août dernier et le bilan sera dressé prochainement. Il permettra de savoir combien de jeunes filles au final ont trouvé un stage, s’il était ou non de qualité, etc. Mais il est d’ores et déjà prévu de renouveler l’action et de l’améliorer. « Peut-être en faisant appel à des marraines, en nous rapprochant d’autres associations comme Elles bougent ». À suivre.

AFIJ, Association pour Faciliter l’Insertion professionnelle des Jeunes diplômés

55 250 inscrits dont 65% de filles et 35% de garçons
37% de filles sont dans des filières scientifiques et techniques

 

 

 

 

 

 

Par Corinne Dillenseger / Maviepro.fr

 

À lire aussi :

Femmes et industrie : un mariage réussi ?

Femmes ingénieurs : la bataille n’est pas encore gagnée !

Elles bougent pour faire connaître les métiers d’ingénieurs

Faire Centrale n’est pas réservé aux hommes !

Sciences : pourquoi les filles hésitent ?

Vers une meilleure détection des armes nucléaires

Depuis les attaques terroristes du 11 septembre 2001 sur le World Trade Center, la paranoïa s’est emparée des plus hautes sphères du pouvoir dans de très nombreux pays. Ainsi, elle a conduit les autorités compétentes en charge de la sécurité intérieure et de la défense nationale à envisager les scénarios les plus sombres. Sont concernées, en première ligne, les armes nucléaires, dont la détection par un dispositif aisément transportable est loin d’être aisée.

Les chercheurs de l’université Northwestern, près de Chicago, ont mis au point de nouveaux semi-conducteurs pouvant aider à la détection de matériau nucléaire, et par extension d’armes nucléaires telles qu’une « bombe nucléaire dans une valise », assure Mercouri G. Kanatzidis, qui a dirigé l’équipe de chercheurs. Les rayonnements à fréquence élevée (gamma ou X) sont plus difficiles à repérer, moins ionisants mais plus pénétrants.

Leur méthode, appelée « réduction dimensionnelle », fait intervenir des semi-conducteurs conçus avec des éléments lourds du tableau périodique. Les rayons gamma peuvent traverser la plupart des matériaux tout en restant indétectables, ce qui n’est pas le cas, par exemple, du mercure, du thallium, du sélénium ni du césium. Pourtant, ces éléments ont de nombreux électrons mobiles, l’excitation causée par les rayons gamma devenant alors difficile à repérer. Pour pallier ce problème, les chercheurs ont mis au point deux semi-conducteurs, mais de structure cristalline, immobilisant de fait les électrons, et rendant alors visible et aisément détectable le passage d’un éventuel rayonnement gamma, grâce à l’excitation de ces électrons. Fonctionnant à température ambiante, ce procédé pourrait aussi être utile dans le domaine biomédical, pour améliorer par exemple les techniques d’imagerie médicale.

Par Rahman Moonzur

Naissance d’un pont, construction d’un roman

Puisque nous ne sommes pas soumis ici au calendrier de l’actualité littéraire, je vous invite à découvrir un roman de la rentrée littéraire… 2010.

Maylis de Kerangal suit dans Naissance d’un pont le destin de quelques personnages attachés à la construction de l’ouvrage ou qui gravitent autour : le chef de chantier, la responsable du béton, un grutier, plusieurs ouvriers, mais aussi le maire de la ville à l’origine du projet, un opposant, des habitants de « l’autre côté du fleuve ». Puisque, c’est inévitable, le cours d’eau marque une frontière, que le pont  risque d’estomper, en faisant disparaître une partie de l’Histoire.

Suivant à la fois la trame de la construction à proprement parler et l’histoire personnelle de chacun des personnages, Maylis de Kerangal réussit le tour de force de tenir son lecteur en haleine aussi bien par les rapports humains qui se nouent et les histoires personnelles de chacun, que par les difficultés et aléas inévitables sur un chantier aussi gigantesque. Les prouesses techniques sont exposées grâce à la lumière que projette sur eux l’humanité des protagonistes. Le microcosme que forme le chantier pendant la durée de la construction prend une valeur d’exemple universel et la spécificité de ce qui rassemble ces êtres ici agit comme un révélateur et un accélérateur des passions.

Ce roman constitue un réel plaisir de lecteur et une excellente initiation au génie civil.

Pour une documentation plus technique sur les ponts et leur construction, vous pouvez lire les articles suivants :

 

 

Maylis de Kerangal, Naissance d’un pont, Ed. Verticales, 2010

 

A.M.

Rapport de l’ASN : la course à la transparence

Au lendemain du début de la catastrophe nucléaire de Fukushima au Japon, il y a maintenant plus de six mois, le gouvernement français, par la voix du premier ministre François Fillon, avait commandité un audit de sûreté concernant les 150 installations nucléaires françaises. Dans le même intervalle, la tenue de tests de résistance (« stress-test ») avaient été exigés par le Conseil Européen afin d’évaluer la capacité de résistance des centrales européennes « à des phénomènes naturels aussi extrêmes que ceux qui se sont abattus sur Fukushima Daiichi ». Le risque terroriste a lui été exclu des stress-tests.

Près de six mois après Fukushima et au lendemain de l’explosion d’un four dans le centre de traitement des déchets nucléaires près de Marcoule, l’ASN a reçu les rapports qu’elle a promis de publier sur son site après analyse courant novembre, comme l’a demandé le ministre de l’énergie Éric Besson. Seules les 80 installations jugées prioritaires, sur un total de 150, ont pour le moment été examinées, les exploitants ayant encore un an pour peaufiner leur rapport sur les 70 installations restantes. Comme le rappelle Jean-Christophe Niel, directeur général de l’Autorité de Sûreté Nucléaire, « Après Fukushima, il y aura des évolutions dans les démarches de sûreté, mais c’est une démarche très progressive, à approfondir ultérieurement. ».

Partialité des tests ?

Les stress-tests, qui concernent essentiellement les 58 réacteurs exploités par EDF ainsi que l’usine de traitement des combustibles usés de La Hague, dans la Manche,et l’usine Melox, dans le Gard, fabriquant du combustible recyclé MOX, destiné à alimenter les réacteurs à eau légère de différents pays, tous deux gérés par Areva, sont d’ores et déjà contestés par de nombreuses associations et mouvements anti-nucléaires, dénonçant la méthode employée. « Aucune crédibilité ne peut être accordée à l’autoévaluation de ses activités par une entreprise commerciale, qui n’a donc aucune envie de voir ses installations mises à l’arrêt », explique l’ONG Observatoire du Nucléaire.

Satisfaction des exploitants

Autre son de cloche, les exploitants des installations nucléaires jugées prioritaires, à savoir EDF, Areva et le CEA (Commissariat à l’Énergie Atomique) se montrent satisfaits des résultats des études menées. EDF rapporte que « le niveau de robustesse actuel » des 19 centrales nucléaires qu’elle gère « procure une marge satisfaisante » les mettant en principe à l’abri d’un accident de type Fukushima. Les moyens de secours « en cas de perte totale et cumulée des sources électriques et de refroidissement » sont eux aussi jugés robustes et suffisants par l’exploitant français.

Les estimations d’EDF concernant la possible fusion du cœur d’un de ses réacteurs tablent sur un minimum de 24 heures s’il subsiste une pompe pour alimenter le générateur de vapeur, sur « quelques heures » si le réacteur était livré à lui-même. « Dans cette dernière situation extrême, c’est le confinement assuré par le bâtiment réacteur qui apporte une autonomie de un à trois jours, selon les scénarios d’accidents, avant rejets significatifs dans l’environnement », souligne EDF, arguant que les rejets seraient « très inférieurs à ceux enregistrés à Fukushima ».

Areva, de son côté, se veut aussi rassurant que l’électricien français, estimant qu’il n’apparaissait pas « de risques de nature nouvelle par rapport à ceux déjà pris en compte à la conception » de l’usine de traitement des combustibles usés de La Hague.

Mise en œuvre de « parades supplémentaires »

EDF propose la mise en œuvre de certaines « parades supplémentaires » en réponse à l’éventualité de la reproduction d’un scénario japonais : installation de pompes autonomes afin de garantir la présence d’une source de refroidissement au sein du réacteur, installation sur chaque site d’un groupe électrogène dit « d’ultime secours », création d’une force d’intervention appelée FARN (Force d’Action Rapide Nucléaire) sans toutefois préciser ses spécificités.

Un des points les plus importants concerne l’arrêt du recours à « la sous-traitance en cascade », à savoir lorsque des sous-traitants sous-traitent eux même pour l’exécution de certaines taches et opérations, parfois même à risques. L’accent a été mis sur la formation de ces employés, tout en réduisant l’opacité absurde et la diminution des compétences qu’elle provoque, au détriment de la sécurité.

Fessenheim cristallise les peurs

Les inquiétudes concernant la centrale de Fessenheim, doyenne des centrales françaises contre laquelle 1500 personnes ont encore manifesté ce dimanche à l’appel de nombreuses associations, ne semblent par ailleurs pas se calmer. Sont notamment mis en lumière la vétusté supposée des installations, le risque d’inondation, de séisme et de pollution à grande échelle avec la proximité du grand canal d’Alsace, ainsi que la dalle de béton, le radier, sur laquelle repose le réacteur numéro 1, dont la consolidation semble indispensable de l’aveu même de l’exploitant EDF, et que l’ASN a ordonné pour avant la fin de l’année. La centrale est pour le moment arrêtée pour raison d’entretien, durant « plusieurs semaines ».

Calendrier

Les analyses et les conclusions de l’ASN concernant les documents des audits de sûreté réalisés par les exploitants des installations nucléaires devraient être livrées courant novembre lorsqu’elles auront été complétées par le programme de trente-huit inspections dans chacune des centrales. Les rapports seront ensuite transmis à la Commission Européenne le 31 décembre. Pour ce qui est du calendrier des inspections des autres installations, considérées comme « non prioritaires », tout devrait se jouer en fin d’année prochaine. Du côté des exploitants, aucun calendrier n’a été avancé, mis à part le renforcement du ravier de Fessenheim prévu pour la fin d’année.

Du côté gouvernemental, on se félicite de la transparence et de la bonne tenue de l’audit. Rappelons que le ministre de l’énergie Éric Besson a déclaré vendredi dernier que le scénario d’une réduction à 50 % de la part du nucléaire dans la production d’énergie en France pour 2025 était « à l’étude ».

Par Moonzur Rahamn

Découvrez les fiches pratiques « Techniques de l’Ingénieur«  :

A lire également :

Nanotechnologies : où sont les ruptures annoncées ?

Bien souvent, les produits qui arrivent aujourd’hui sur le marché posent plus la question du bénéfice apporté face aux risques pressentis : en d’autres termes si les nanotechnologies se limitent à la mise sur le marché de chaussettes antibactériennes, est-ce que cela en vaut la peine ? Il faut dès lors se poser la question : que sont réellement les nanotechnologies ?

L’évolution des nanotechnologies et donc des nanoproduits associés peut-être considérée comme la succession de trois grandes étapes :

Première étape = les nanotechnologies passives

Cette première étape repose sur le développement de solutions « nanos » basées sur une amélioration incrémentale des fonctionnalités existantes. Dans cette première étape, les nanotechnologies sont une voie d’innovation parmi d’autres. Il s’agit principalement d’introduire des nanoparticules dans de nouvelles matrices, de nouvelles formulations (cosmétique, coatings, matériaux haute performances, …). Il peut également s’agir d’évolutions au niveau des procédés (miniaturisation en micro-électronique, réduction de la granulométrie des principes actifs en pharmaceutique).
Le marché actuel des nanoproduits se situe en plein dans cette première étape où les nanotechnologies souffrent d’une image de coûts élevés pour des améliorations de performances limitées.
Finalement, s’il n’y avait que cette étape, l’intérêt des nanotechnologies serait grandement limité. Il ne faut donc clairement pas enfermer l’intérêt des nanos à ces premières innovations.

Deuxième étape = les nanotechnologies actives

Dans cette deuxième étape, il s’agit véritablement d’introduire des ruptures en proposant des matériaux capables de réagir à leur environnement = c’est la promesse du développement de matériaux dits « intelligents ». Les nanotechnologies offrent deux niveaux de rupture :

  • la possibilité d’intégrer de nouvelles fonctionnalités aux matériaux (matériaux transparents conducteurs, matériaux auto-cicatrisants, matériaux communicants, …)
  • la possibilité d’introduire ces matériaux dans des systèmes plus complexes (textiles communicants, nano-capteurs, systèmes médicaux, …)

Inédit : le code QR, un pictogramme révolutionnaire

Le code QR® est un code-barres en 2 dimensions. Un code QR ®, présent sur chaque fiche entreprise, permet au lecteur de récupérer instantanément et automatiquement avec son smartphone l’adresse du site Internet de chaque société référencée. Il suffit pour capturer ses données de le photographier avec un smartphone en utilisant une application pour mobile telle que Mobiletag (sur mobile : http://m.mobiletag.com)

La plupart de ces solutions sont encore dans les laboratoires mais de premières avancées industrielles arrivent. On parle aujourd’hui de systèmes thérapeutiques ciblés, de films plastiques transparents conducteurs, de textiles communicants, de surfaces autonettoyantes, …

Plus particulièrement dans cette deuxième étape, la force des nanotechnologies sera leur capacité à apporter des éléments de réponses à des enjeux forts de notre sociétés (matériaux super-isolants pour traiter des problématiques d’efficacité énergétique dans le bâtiment, nouveaux systèmes de délivrance de principes actifs plus respectueux de l’environnement, intégration de nouveaux systèmes d’énergie comme le solaire souple, …). Ces approches pourront impacter l’ensemble de nos secteurs industriels ce qui peut déjà être considéré comme les prémisses d’une révolution industrielle.

Troisième étape = les nano-systèmes

Cette dernière étape est plus particulièrement liée au développement de nouveaux modes de production. Il est intéressant de noter que finalement l’industrie manufacturière a peu évolué depuis ses débuts. La fabrication d’un produit passe toujours par l’extraction de matières premières en grande quantité, qui sont ensuite transformées au cours de nombreuses phases de process industriel (c’est la logique top-down). Au cours de cette chaîne de fabrication, les quantités d’énergie dépensées sont colossales et les volumes de déchets produits importants, même si la tendance actuelle est de limiter ces deux aspects

Les nanotechnologies veulent ouvrir de nouvelles voies de production. L’idée originale de Richard Feynman en 1959 suggère de produire à partir de l’atome (c’est la logique bottom-up) : manipuler, contrôler, diriger la matière pour produire l’objet désiré. Cette approche, certes encore aujourd’hui futuriste et qui montre rapidement ses limites de production industrielle (imaginons le temps qu’il faudrait pour construire une voiture en manipulant les atomes 1 à 1 !), permettrait de réduire drastiquement les quantités de déchets produits tout en réduisant les dépenses énergétiques.

Cette troisième étape est clairement encore dans les laboratoires. Mais elle capte aujourd’hui une bonne part des investissements destinés aux nanotechnologies. Et les progrès sont nombreux : on parle aujourd’hui de nouveaux procédés d’auto-assemblage, de moteurs moléculaires, …

Cette dernière étape porte les promesses d’une véritable révolution industrielle qui nécessitera la convergence de nombreuses disciplines telles la biologie, la chimie, la physique et l’ingénierie. On estime que d’ici 10 à 15 ans, 2 millions de travailleurs seront impliqués au niveau mondial.
Même si elle semble aujourd’hui hors d’atteinte, cette révolution se construit dès maintenant avec notamment la mise en place de nouveaux systèmes de formations spécifiques comme le Nanotechnology Education Act aux US.

par Vincent Pessey, Responsable du pôle d’expertise Nanotechnologies d’ALCIMED

 

 

> Commander le Guide des nanotechnologies 2011

 

Pour toute information complémentaire, contacter Céline Chartier

 

Découvrez la formation Techniques de l’Ingénieur : NANOMATÉRIAUX

 

Déjà publié :

« Des présomptions de toxicité sur des nanoparticules ont été établies »

Les nanotechnologies ont désormais leur guide

La France est-elle toujours dans la course aux nanos ?

Nanomatériaux : l’Afsset recommande la prudence 

Stress : mieux gérer temps de travail et temps personnel

Mais avons-nous réellement le choix ? Sommes-nous obligés de renoncer à notre vie professionnelle pour assurer la qualité de notre vie personnelle ? Existe-t-il un moyen de gérer en douceur cette équation impossible ?

De plus en plus de situations analogues se présentent aux managers des entreprises du domaine public ou privé. Par exemple, pour contribuer à l’efficacité des organisations, les cadres doivent-ils donner la priorité aux équipes ou aux individus ? Devons-nous nous focaliser sur les tâches ou sur les personnes ?

MANAGER D’ELITE

Manager d’Elite est un ouvrage écrit par Dino Ragazzo. Consultant expert en développement organisationnel, l’auteur développe à travers l’approche Gestalt, l’intérêt pour les managers d’aujourd’hui de se positionner avant tout sur le plan des sciences sociales existentielles plutôt qu’à chercher à modéliser les modèles traditionnels de la science objective.

Bénéficiez de 20 % de réduction sur l’achat de cet ouvrage grâce à Instantanés Techniques (code promo 1IT11)

Dans les entreprises, faut-il privilégier la stabilité ou l’évolution, le règlement ou la créativité, la loyauté ou son intégrité personnelle, les questions sociales ou les questions économiques ?…  Bien que les visions exprimées semblent en opposition, elles sont en réalité interdépendantes. Les individus ont besoin de l’équipe ET l’équipe a besoin des individus. Ils sont les deux pôles d’un même système appelé « organisation ».

Nous devons accomplir les tâches avec les personnes qui composent l’entreprise. Les tâches et les personnes sont deux pôles interdépendants de la polarité « organisation »… Ainsi la réponse semble s’imposer : nous devons tenir compte des DEUX aspects de ces questions pour traiter correctement ces « énigmes ».

Malheureusement, nous ne sommes pas entraînés à manager les polarités. Face à des polarités, dilemmes et paradoxes, il n’y a pas de solution statique. Une polarité, ça se manage car chacun des deux pôles est vrai en même temps. Illustrons ceci par un exemple : pour renouveler l’air dans notre organisme il ne suffit pas seulement d’inspirer ; il est également nécessaire d’expirer. Inspirer et expirer sont les deux pôles de la polarité « respiration ». De nombreux programmes de changement organisationnel échouent faute d’avoir tenu compte de cet aspect fondamental.

Comment savoir si nous sommes face à une situation polarisée ?

  • lorsque nous sommes face à des résistances ;
  • lorsque nous éprouvons des difficultés à « trancher », à décider entre deux alternatives ;
  • lorsque nous avons la sensation que, quoi que nous décidions, nous « aurons tort » ;
  • en situation de double contrainte (double bind).

 

 

Démarche méthodique pour le management des polarités

Le processus mis en œuvre dans cette construction joue un rôle très important sur la nature, la quantité et la qualité de l’information recueillie. Sa finalité vise à construire une figure significative pour vous aider à y voir plus clair :

1 – Rassembler les informations décrivant objectivement le « problème » présent : ses caractéristiques, ses manifestations, le contexte, les acteurs… Adopter une formulation positive.

  • par exemple : « je travaille trop » (et non pas : « je n’ai pas assez de temps personnel »)

2 – Rassembler les informations décrivant objectivement les résultats positifs de la solution envisagée pour résoudre le « problème » (1).

  • par exemple « vie sociale plus riche »

3 – Rassembler les informations décrivant objectivement les avantages et bénéfices du « problème » (1).

  • C’est la partie la plus difficile et la plus inattendue de cet exercice. Ici, par exemple : « sécurité de mes revenus ; réalisation de soi ; reconnaissance des autres… »

4 – Rassembler l’information décrivant objectivement les résultats négatifs possibles de la solution (2) (ou des excès de cette solution).

  • Nous ne pratiquons pas naturellement cet exercice d’anticipation. Exemple ici : « pas de contribution économique au développement de la société, « fauché » ; trop de dépendance aux autres… »

5 – Nommer fidèlement les pôles. Ils doivent transcrire fidèlement le sens des informations portées dans la colonne du tableau.

  • exemple : Vie professionnelle/ Vie familiale

6 – Nommer fidèlement le BUT SUPERIEUR et les PEURS. Ils doivent porter fidèlement le sens des informations portées en ligne du tableau. Notons que les conséquences des PEURS produisent des résultats opposés au BUT SUPERIEUR.

  • exemple : Vie excitante/ Vie livide

Equilibre vie professionnelle / vie personnelle

La vraie question

Nous vous invitons à élaborer LA VRAIE QUESTION, c’est-à-dire la question qui englobe les 2 pôles et augmente sensiblement les chances de déblocage de la situation actuelle. Suivez le processus de formalisation suivant.

A – Identifiez les valeurs futures (cellule n°2 du tableau)

  • (2) « Ce dont il s’agit, c’est l’amélioration de la qualité de mes relations sociales (famille, amis, …) »   

B – Identifiez les peurs actuelles (cellule n°1 du tableau)

  • (1) « je sais bien que ce qui m’amène à cette réflexion, c’est le risque actuel de burn-out, ainsi que les conséquences du stress et de mon irritabilité sur ma vie personnelle. »   

C – Identifiez vos valeurs actuelles (cellule n°3 du tableau)

  • (3) « Il est indiscutable que ma situation professionnelle actuelle me stimule et procure également une sécurité rassurante à mes revenus. »   

D – Poser LA VRAIE QUESTION de déblocage en réaffirmant les valeurs futures ET les valeurs actuelles

  • (2) (3) « Comment puis-je à la fois attiser cette stimulation professionnelle tout en profitant d’une vie sociale régénératrice ?»   

E – Prenez appui sur l’intérêt supérieur pour motiver le traitement de cette polarité   

  • (6) « Cela vaut la peine de chercher des réponses à cette question pour rendre ma vie personnelle et professionnelle encore plus excitante. »

APPLICATION (en 10 actions) :   

Stimulation professionnelle Vie sociale régénératrice
J’utilise mon DIF pour maîtriser sérieusement et appliquer durablement les techniques de management du temps. Je consacre un budget de RTT régulier pour ma famille (un mercredi après midi par mois et un vendredi après midi par mois)
Je me fais coacher J’organise et je réserve une soirée exclusive à ma (mon) partenaire chaque quinzaine
J’observe et j’applique les bonnes pratiques des personnes organisées. Chaque année, je consacre une semaine exclusive de vacances pour notre couple (sans les enfants)
Je demande de l’aide à …. Je m’inscris à une association (présence 1 fois par mois)
Pour me détendre, je m’inscris à une activité sportive régulière (à l’heure du déjeuner)
Je lis au moins un livre par mois pour ouvrir mes horizons

MISE EN PLACE ET RESISTANCES AU CHANGEMENT

Deux forces sont en présence : les forces favorables au changement (FFC) et les forces favorables au statu quo (FFSQ). Ces deux forces sont souvent présentes simultanément dans notre for intérieur. Les tenants du changement sont mobilisés par la conviction que les impacts positifs de leur projet futur pourront les libérer de l’expérience désagréable de leur situation actuelle. Les tenants du statu quo n’anticipent que les désavantages de la situation future et préfèrent donc préserver les privilèges que la situation actuelle leur procure. Pour qui ne dispose que d’un marteau, tous les problèmes doivent prendre la forme d’un clou. Chacune de ces deux solutions, à la fois sage et respectable, ne fait qu’enfoncer le clou d’un « faux problème » énoncé de façon volontairement incomplète.

En d’autres termes, notre manière habituelle de décrire la situation induit déjà souvent la solution. Si nous cherchons une solution, c’est que nous avons seulement un problème à résoudre. Si nous avons conscience de la présence d’une polarité, dilemme ou paradoxe alors nous sommes mieux préparés à favoriser un changement car nous avons une meilleure conscience (awareness) des forces antagonistes qui s’exercent en nous ou au sein de notre entreprise. Elle permet en outre d’élaborer sereinement une série d’actions plus réalistes.

  • Pour mieux appréhender les notions présentées dans cet article, n’hésitez pas à faire (gratuitement) le test suivant : Traître ou salaud ?

Pour accéder à l’illustration dynamique du test « traître ou salaud », cliquez ici.

Par D.R

MANAGER D’ELITE

Manager d’Elite est un ouvrage écrit par Dino Ragazzo. Consultant expert en développement organisationnel, l’auteur développe à travers l’approche Gestalt, l’intérêt pour les managers d’aujourd’hui de se positionner avant tout sur le plan des sciences sociales existentielles plutôt qu’à chercher à modéliser les modèles traditionnels de la science objective.

Bénéficiez de 20 % de réduction sur l’achat de cet ouvrage (papier, ebook) grâce à Instantanés Techniques (code promo 1IT11)

« Le circumplex™ pour mesurer scientifiquement la culture des entreprises »

Comment savoir dans quelle mesure votre entreprise encourage le volontarisme, la prise de risques, l’innovation, l’intuition … ou dans quelle mesure, au contraire, elle fomente la peur, le découragement, la morosité ?

L’OCI, (Inventaire de la Culture Organisationnelle), développé par l’université de Chicago, est l’outil de diagnostic organisationnel le plus utilisé dans le monde. Il fournit une image de la culture opérationnelle d’une organisation en termes de comportements que les membres croient devoir développer pour satisfaire les exigences explicites ou implicites de leurs entreprises. En façonnant la manière dont les membres approchent leur travail et interagissent entre eux, ces « normes comportementales » déterminent la capacité de l’organisation à résoudre des problèmes, s’adapter au changement et travailler efficacement.

Ces normes comportementales sont représentées sur le CIRCUMPLEX™ :

Afin de faciliter l’annalyse du graphe ci-dessus, les numéros 1 à 12 évoqués ci-après font référence aux tranches qui découpent le dit graphe.

Style Passif/ Défensif

Style favorisant les comportements axés sur les personnes et la sécurité.

  • (3 h ) Une culture d’approbation : Les membres des entreprises caractérisées par cette culture se sentent obligés de s’entendre avec leurs collègues, d’obtenir leurs approbations et d’être appréciés par eux. Tout est fait pour éviter les conflits, les relations apparaissent donc conviviales. Ce type  d’environnement professionnel risque de limiter l’efficacité de l’entreprise car il minimise les désaccords constructifs et l’expression d’idées et d’opinions.
  • (4 h ) Une culture conventionnelle : Les membres des entreprises caractérisées par cette culture doivent se conformer au moule, observer les règlements et faire bonne impression. Les entreprises où une telle culture est dominante sont conservatrices, traditionnelles et bureaucratiques. Une culture trop conventionnelle peut nuire à l’efficacité car elle annihile l’esprit d’innovation et empêche les entreprises de s’adapter aux mutations de leur environnement.
  • (5 h ) Une culture de dépendance : caractérise les entreprises dont la gestion est hiérarchique et non participative. La centralisation du pouvoir de décision pousse les membres à ne faire que ce qu’on leur demande et à chercher l’approbation de toutes leurs décisions auprès de leurs supérieurs. Cette absence d’esprit d’initiative, de flexibilité, de spontanéité et de prise de décisions opportunes au niveau individuel conduit à une médiocre performance de ces entreprises.
  • (6 h ) Une culture d’évitement : caractérise les entreprises qui n’applaudissent pas aux succès mais sanctionnent néanmoins les erreurs. Ce système de reconnaissance négative pousse les membres à rejeter les responsabilités sur les autres et à éviter toute situation où l’on pourrait leur reprocher une erreur. La survie de ce type d’entreprise est incertaine car ses membres font preuve d’une grande réticence à prendre des décisions, des mesures ou des risques.

Style Agressif/Défensif

Style encourageant les comportements axés sur les Tâches et la sécurité.

  • (7 h ) Une culture oppositionnelle : L’esprit de confrontation prédomine et le négativisme est récompensé. Les membres des entreprises caractérisées par cette culture gagnent en prestige et en influence par la critique des suggestions des autres. Ceci les pousse à prendre des décisions excessivement prudentes et donc inefficaces. Bien qu’une certaine remise en question soit fonctionnelle, une culture fortement oppositionnelle peut entraîner des conflits inutiles et une médiocre résolution collective des problèmes.
  • (8 h ) Une culture de pouvoir : caractérise les entreprises non participatives qui s’appuient sur l’autorité inhérente à la fonction des membres. Ceux-ci pensent qu’ils seront récompensés s’ils savent saisir les rênes et contrôler leurs subalternes (ainsi que répondre aux exigences de leurs supérieurs). Ces entreprises basées sur le pouvoir sont moins performantes que ne l’imaginent leurs membres ; en effet, les subalternes résistent à ce type de contrôle en ne donnant pas tous les renseignements nécessaires et en limitant leurs contributions au niveau minimal acceptable.
  • (9 h ) Une culture compétitive : est une culture où la victoire est valorisée et où les membres sont récompensés pour avoir surpassé leurs collègues. Dans des entreprises où règne une telle culture, les membres ne sont plus que des gagnants ou des perdants ; à leur avis, pour se distinguer, ils doivent travailler contre les autres, non pas avec. Une culture exagérément compétitive risque d’inhiber l’efficacité car elle réduit la coopération et impose des normes de performance irréalisables (trop élevées ou insuffisantes).
  • (10 h ) Une culture perfectionniste : caractérise les entreprises au sein desquelles le perfectionnisme, la persistance et l’ardeur sont mis en avant. Les membres ont l’impression qu’ils doivent éviter toutes les erreurs, être au fait des moindres détails et travailler de longues heures pour réaliser des objectifs établis très précisément. Bien que, dans une certaine mesure, une telle culture puisse être utile, une trop grande importance placée sur le perfectionnisme risque de pousser les membres à oublier le but, à se perdre dans les menus détails et à montrer des signes de tension excessive.

Style Constructif

Style encourageant les comportements axés sur la satisfaction.

  • (11 h ) Une culture de performance : Les membres des entreprises caractérisées par cette culture déterminent des objectifs difficiles mais réalisables, établissent des plans d’actions et font preuve d’enthousiasme en les poursuivant. Ces entreprises sont efficaces ; les problèmes sont résolus de manière appropriée, les services à la clientèle sont bien assurés et l’orientation des membres (sans compter celle des entreprises elles mêmes) est saine.
  • (12 h ) Une culture de réalisation de soi : Les membres des entreprises caractérisées par cette culture sont encouragés à prendre plaisir à leur travail, à se perfectionner ainsi qu’à se lancer dans de nouvelles activités intéressantes. Ces entreprises, souvent innovantes, offrent des produits et/ou services de haute qualité tout en attirant et en formant des employés exceptionnels. Elles attachent de la valeur à la créativité, à l’accomplissement des tâches et à l’épanouissement personnel. La qualité prime sur la quantité.
  • (1 h ) Une culture humaniste : Les membres des entreprises caractérisées par cette culture doivent se montrer coopératifs, constructifs et ouverts dans leurs rapports avec leurs collègues. Cette culture favorise la performance par la participation active et l’épanouissement des membres, ce qui se traduit chez ces derniers par un fort sentiment de satisfaction et de dévouement pour leur entreprise.
  • (2 h ) Une culture d’affiliation (coopération) : Les membres des entreprises caractérisées par cette culture doivent se montrer amicaux, ouverts et sensibles à la satisfaction de leur groupe de travail. Cette culture encourage la performance des entreprises par une communication honnête, une bonne coopération et une coordination efficace des activités. Les membres sont loyaux envers leur groupe de travail et ont l’impression d’y être bien intégrés.

Comme on peut l’imaginer, les entreprises qui favorisent une culture constructive auront plus de facilité à encourager ces deux ingrédients de la réussite que sont la combativité et l’audace. Les autres cultures (passives défensives et agressives défensives), parce qu’elles entretiennent un sentiment ambiant d’insécurité, découragent l’initiative, la prise de risque, la confiance en soi… Qu’ils soient constructifs ou défensifs, les comportements sont encouragés par l’ensemble des acteurs de l’entreprise. Certaines entreprises jouent donc – le plus souvent sans le savoir et avec zèle – contre leur camp. L’OCI peut les aider à mieux réussir en combinant satisfaction et efficacité des systèmes humains qui les composent.

Par D.R

MANAGER D’ELITE

Manager d’Elite est un ouvrage écrit par Dino Ragazzo. Consultant expert en développement organisationnel, l’auteur développe à travers l’approche Gestalt, l’intérêt pour les managers d’aujourd’hui de se positionner avant tout sur le plan des sciences sociales existentielles plutôt qu’à chercher à modéliser les modèles traditionnels de la science objective.

Bénéficiez de 20 % de réduction sur l’achat de cet ouvrage grâce à Instantanés Techniques (code promo 1IT11)

Management : le talent d’Achille de l’ingénieur ?

Lorsque, après mes 13 premières années de vie active, j’ai repris mes études à Centrale Lyon, je me suis trouvé dans la position singulière de doyen des élèves de ma promotion (j’étais même plus âgé que certains des professeurs). Je me souviens que, découvrant notre grande différence d’âge, certains de mes camarades se mettaient soudainement à me vouvoyer. J’interprétais alors ce comportement comme une difficulté à développer une relation d’égal à égal. Au fil du temps et de mes diverses expériences de consultant en développement organisationnel, j’ai du me rendre à l’évidence que le manque de savoir en matière de communication empêche mes frères d’armes de développer ou d’exprimer pleinement toutes leurs possibilités. Il serait pourtant très facile d’amoindrir cette difficulté et d’accroître en même temps l’impact et la position de la fonction ingénieur dans l’espace professionnel. C’est ce que je veux montrer ci après.

Dino Ragazzo

Dino Ragazzo a plus de 25 années d’expérience opérationnelle en milieu industriel notamment chez CEGELEC, Groupe ATANTIC, FRAMATOME (mise en service d’installations nucléaires).Il a été successivement Technicien commercial, Ingénieur d’essais, Directeur Technique, chef d’entreprise (PME d’ingénierie électrique et maintenance nucléaire) et Conseiller de la Direction Générale d’un grand groupe Industriel. Dino Ragazzo est également l’auteur de l’ouvrage :

MANAGER D’ELITE – Gestalt guide du leadership dans les organisations du XXIe siècle


Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).

La réputation de l’ingénieur  vient de son extraordinaire capacité à construire ou à inventer des « engins ». C’est, dit-on [1], de là qu’il tient son nom : engigneor. L’engigneor,  est capable de concevoir des systèmes qui font rêver le monde entier comme des navires solaires, des systèmes de vision nocturne, des ouvrages d’art gigantesques ou des dispositifs de récupération de l’énergie de la nature… Hélas, sa passion pour la résolution des problèmes posés par les sciences physiques le conduit trop souvent à négliger l’étude des sciences humaines. Cette impasse sur les compétences humaines lui joue souvent de bien mauvais tours en lui faisant, par exemple, perdre toute crédibilité lorsqu’il ne parvient pas à mobiliser les collaborateurs autour de ses extraordinaires projets. Pourtant, la maîtrise de bonnes compétences humaines conduit au développement de cette qualité dont tout entrepreneur a besoin pour attirer et multiplier les énergies autour de ses projets : le leadership.

Il est peut être temps de revisiter cette citation de Francis Bacon, philosophe et homme d’Etat anglais du XVIIe siècle : «La connaissance c’est le pouvoir ». Reconnaissons que, telle qu’elle se compose aujourd’hui, la connaissance de nos ingénieurs n’est plus suffisante pour leur procurer le leadership dont ils ont besoin pour accomplir leurs projets. De surcroit, l’organisation des cursus focalisés sur le développement de prodigieuses compétences techniques, contribue, par la faiblesse des enseignements en sciences humaines, à l’atrophie des compétences relationnelles des futurs ingénieurs. Selon Kouzes et Posner [2] chercheurs et auteurs à succès autour du thème du leadership: « le leadership ne procède pas de la tête. Le leadership, c’est une affaire de cœur ». Développer son leadership, c’est donc avant tout une démarche de développement personnel. C’est une démarche de développement de ses compétences relationnelles et de sa capacité à entrer en contact avec les autres. Capacité, hélas, insuffisamment développée chez bon nombre de nos camarades.

A l’inverse d’une quantité croissante d’universités américaines, qui accompagnent le développement personnel de leurs étudiants de haut niveau au travers de séances de coaching relationnel, l’absence de prise en considération de ce développement personnel fait gravement défaut dans nos enseignements et produit  de terribles dégâts sur l’efficacité de nos entreprises.

Osborne [3] a montré de manière synthétique, avec sa fameuse formule  « E = Q x A », que l’efficacité d’une décision (E) est le résultat combiné de sa qualité (Q) et du niveau d’acceptation (A) qu’elle suscite.

Ainsi un responsable qui sait développer de bonnes qualités relationnelles au sein de ses équipes saura plus facilement traverser les embûches causées par d’immanquables erreurs de conception ou par une planification inévitablement défaillante des projets. La force collective, mise en œuvre par des collaborateurs impliqués, prend le relais d’une ingénierie qui ne peut pas être infaillible.

En revanche, un manager qui mise essentiellement sur les vertus du raisonnement logique ne pourra pas compter sur ses compétences rationnelles pour traverser un problème de relations entre ses membres. En effet, le recours à une communication exagérément rationnelle ne sera pas d’un grand secours pour démêler, à elle seule, le litige dévastateur d’un groupe de collaborateurs excités.

Si la connaissance technique de nos ingénieurs est un gage de la qualité de leurs décisions, leur capacité à mobiliser les gens est également une compétence fondamentale à développer car elle détermine le niveau d’implication que chaque collaborateur sera disposé à engager dans la mise en œuvre et la réussite des décisions.

Par Dino Ragazzo

[1] Encyclopédie Larousse

[2] Kouzes et Posner (2007) Leadership Challenge. Jossey Bass

[3] Richard Osborne est « Professor for the Practice of Marketing and Policy Studies » à la Case Western Reserve University

Dino Ragazzo est l’auteur de l’ouvrage « Manager d’Elite, gestalt guide du leadership dans les organisations du XXIe siècle« . Bénéficiez de 20% de réduction immédiate sur l’achat de cet ouvrage grâce à Instantanés Techniques en cliquant ici (code réduction : 1IT11).

Gestalt : le management par l’humain

L’approche Gestalt O.D (O.D pour développement organisationnel) est une méthode d’accompagnement du changement où la perception et un niveau de conscience éveillée deviennent les points focaux de tout processus de consultation. Ainsi, de façon plus pratique, comme l’explique Dino Ragazzo dans l’ouvrage « Manager d’Elite » (Bénéficiez d’une réduction de 20 % (code promo « 1IT11 ») sur l’achat de cet ouvrage grâce à Instantanés Techniques), « Gestalt O.D est un ensemble intégré de connaissances (théorie, concepts, méthodes, outils et techniques) qui orientent les démarches d’accompagnement du changement dans les organisations. La Gestalt O.D, à l’instar de tout ensemble de connaissances, se fonde sur des postulats ».

Ces postulats sont au nombre de trois :

  1. L’organisation détient les capacités nécessaires à son développement : La raison pour laquelle un groupe ou une organisation est plus performant qu’un autre – à ressources comparables – réside dans sa capacité à « scanner » son environnement interne et externe, à donner un sens pertinent aux données collectées et à agir de telle façon qu’il puisse accomplir les objectifs désirés.
  2. Le « soi » des intervenants est l’instrument du changement  : La valeur des intervenants de tout processus de changement ne se mesure pas à la quantité de qualifications ou d’outils qu’ils possèdent, mais à leur capacité à observer clairement les processus en cours et leurs propres postures lorsqu’ils sont en relation avec les autres.
  3. Chaque individu (et par extension chaque organisation) se comporte de la meilleure façon possible à chaque instant : Ce modèle invite à la clarté et conduit les intervenants à intégrer tout au long de leurs expériences de la connaissance sur le changement organisationnel. Il les invite également à développer une forte synergie avec les autres afin de produire de puissantes interventions conduisant à des résultats supérieurs.

MANAGER D’ELITE

Manager d’Elite est un ouvrage écrit par Dino Ragazzo. Consultant expert en développement organisationnel, l’auteur développe à travers l’approche Gestalt, l’intérêt pour les managers d’aujourd’hui de se positionner avant tout sur le plan des sciences sociales existentielles plutôt qu’à chercher à modéliser les modèles traditionnels de la science objective.

Bénéficiez de 20 % de réduction sur l’achat de cet ouvrage grâce à Instantanés Techniques (code promo 1IT11)

L’approche Gestalt s’appuie ainsi sur la perception des intervenants comme instrument du changement.

Au delà des postulats, l’approche Gestalt implique la prise en compte de l’entreprise comme un sujet dynamique, et non figé. Ainsi, la conduite du changement dans une entreprise via cette approche nécessite l’implication de tous les protagonistes concernés, en les invitant à réfléchir, mais surtout à percevoir quels sont les phénomènes qui habillent la conduite du changement. Il s’agit donc, pour l’individu, d’analyser, d’intégrer la situation préexistante, celle vers laquelle on veut tendre, en considérant également ces problématique en relation avec l’environnement dans lequel elles prennent place. En intellectualisant ces différents « symptomes », leurs interactions dans un environnement global, l’individu est amené à réfléchir sur son travail, celui des collègues dont il partage les tâches… C’est le début de la prise de conscience.

A partir de là, cette prise de conscience facilite l’évolution du salarié vers le changement. Dans son ouvrage, Dino Ragazzo illustre bien les bienfaits des interactions relatives (ou consécutives) à cette réflexion sur l’image que l’individu se fait de son propre travail, et sur le chemin vers cette prise de conscience : « Le processus qui consiste à échanger nos perceptions conduit également à changer nos réalités et donc le sens que nous donnons à nos perceptions ».

Exemple : les lacunes des ingénieurs managers

Les ingénieurs, aujourd’hui, ne font pas face uniquement à des défis techniques… Chefs de projets, chefs d’équipe, les ingénieurs sont aujourd’hui également des managers, souvent peu ou pas formés à la gestion humaine et professionnelle d’une équipe. Leur cursus, leur personnalité, leur ouverture d’esprit sont souvent mis à l’épreuve dans ces situations et révèle parfois une difficulté à comprendre humainement les motivations des individus qu’il manage. C’est sur cet aspect « d’ouverture à l’autre », vers une compréhension mutuelle des désidératas de chacun, du manager comme du collaborateur managé, pour avancer de manière performante vers un but partagé, que l’approche Gestalt illustre toute sa force.

Faire évoluer la culture de l’entreprise

Evidemment, l’approche Gestalt, dans une entreprise, ne peut par définition pas être « imposée », du jour au lendemain. Il s’agit, comme on l’a vu, d’un processus de remise en question, de réflexion sur soi et sur les autres dans un environnement donné, mais qui évolue. Aussi, la culture de l’entreprise est un point de départ intéressant dans la compréhension de son fonctionnement et des son mode de management. Culture passive, agressive, constructive ; entreprise privée, publique ; situation de monopole ou concurrence exacerbée… Les explications relatives à tel ou tel type de management dans une entreprise ne peuvent être comprises, justifiées objectivement qu’en travaillant sur leurs causes profondes et les individus qui les conduisent.

Management par l’humain : la gestion des polarités

La problématique de la gestion des polarités peut se résumer ainsi. Comment trouver un équilibre entre épanouissement professionnel et personnel. L’approche Gestalt, en imbriquant ces deux aspects et en en faisant deux conditions nécessaires à la conduite du changement en entreprise, accouche d’une conclusion négligée dans bon nombre d’entreprises : un salarié épanoui dans sa vie familiale et privée sera plus performant professionnellement…

Par Pierre Thouverez

La certification n’est qu’une étape, jamais un but !

Dans le premier cas, le système de management rapporte ou du moins, permet de réduire certains coûts / dysfonctionnements. Dans l’autre, il ne fait que coûter… parfois très cher !

J’ai l’occasion de travailler pour ces deux types d’entreprises. Une chose est sûre, pour les entreprises dont l’objectif prioritaire est d’obtenir un certificat, le travail est beaucoup plus fastidieux, pénible et coûteux que pour celles qui font de leur système de management un réel outil de pilotage et d’amélioration de leurs performances.

Tout simplement, parce que « réactiver » un système de management qui n’a pas fonctionné pendant plusieurs mois, c’est-à-dire sans aucun dossier formalisé, aucune mesure effectuée, aucun dysfonctionnement enregistré ou aucune action d’amélioration entreprise, est assez périlleux et relève parfois de la mauvaise foi… où l’histoire est parfois réinventée, voire falsifiée !

La plupart des entreprises qui ne visent que le certificat, mettent en place, malgré elles, des systèmes lourds, contraignants et coûteux. Là où les unes cherchent à tuer des moustiques avec un B-52, les entreprises qui s’inscrivent réellement dans le progrès sont, quant à elles, en quête constante de simplification, de rationalisation de leur organisation et d’adaptation aux réelles attentes des utilisateurs.

Quelle est la proportion des entreprises qui jouent le jeu de l’amélioration ?

De mon point de vue, basé sur un échantillonnage régional assez représentatif et sur mon réseau de connaissances, je dirais que seulement 30% des entreprises certifiées le méritent vraiment, en récompense de leurs efforts à s’améliorer et à se servir des référentiels ISO comme support d’un management participatif qui vise l’excellence. Parmi les 70% restantes, 30% satisfont les exigences des normes ISO sans développer une réelle volonté d’amélioration et 40% disposent d’un système de management qui fonctionne 1 mois dans l’année (2 à 3 semaines avant leur audit tierce partie et 1 à 2 semaines après pour répondre aux observations des auditeurs).

Il n’est donc pas anodin que la norme ISO 9001 soit le référentiel normatif le plus certifié au monde. Cela tient au fait que s’agissant d’une norme de management, c’est la plus facile à certifier pour les « mauvais joueurs ». J’ai eu l’occasion d’accompagner une entreprise à se faire certifier en moins de 2 mois (cette mission a exceptionnellement été réalisée pour permettre à l’entreprise de ne pas mettre la clé sous la porte). Ce n’est ni par vanité ni par fierté que j’évoque cela mais juste pour rappeler qu’il n’est vraiment pas difficile de se faire certifier dès lors que l’on maîtrise le référentiel choisi (NOTE : Pour information, cette entreprise, certifiée à la hâte, se donne aujourd’hui le temps d’analyser ses performances et de progresser selon la logique attendue par la norme ISO 9001).

Ce qui est à retenir de ce constat polémique c’est que la certification ne doit en aucun cas être considérée comme un but mais juste comme une étape dans le chemin sans fin de l’amélioration. Etre certifié est chose facile, se maintenir dans une dynamique d’amélioration continue est beaucoup plus dur et demande l’engagement durable de chacun. De mon côté, je me console avec ces 30 % d’entreprises méritantes avec lesquelles il est agréable et enrichissant de travailler ainsi qu’avec les autres 30% pour lesquelles le challenge consiste à les convaincre de franchir le cap de l’amélioration. Enfin pour les 40% restantes, je me rassure en me disant qu’elles laissent ainsi la place aux méritants !

Par Jérémy Cicero

Jérémy Cicero est responsable du site Qualiblog

Découvrez les Fiches Pratiques « Techniques de l’Ingénieur » : Exploiter une ICPE

63633//

Que font les DREAL ?

La DREAL, ce nouvel objet administratif, naît du Grenelle de l’environnement, modifie en profondeur les services déconcentrés de l’État. C’est le décret du 27 février 2009 qui crée la DREAL par la fusion de la direction régionale de l’industrie, de la recherche et de l’environnement (DRIRE), de la direction régionale de l’environnement (DIREN) et de la direction régionale de l’équipement (DRE). La DREAL, direction régionale de l’environnement, de l’aménagement et du logement découle aussi de la réforme liée à la révision générale des politiques publiques (RGPP).

La révision générale des politiques publiques constitue une réforme de l’État sans précédent. Entre décembre 2007 et juin 2008, trois conseils de modernisation des politiques publiques ont eu lieu et au cours desquels 374 décisions, organisées autour de 6 axes de modernisation, ont été adoptées. La révision générale des politiques publiques entraîne une profonde mutation des services déconcentrés de l’État. Cette mutation sera achevée courant 2010. Le nombre des services régionaux va être réduit. Quant aux services régionaux, ils se limitent à deux ou trois relevant de la préfecture, en plus des services départementaux ayant une certaine autonomie.

La création des vingt-six directions régionales de l’environnement, de l’aménagement et du logement, DREAL, s’échelonne entre le 1er janvier 2009 et le 1er janvier 2011. Ce nouvel échelon régional fonctionne déjà depuis le 2 mars 2009 en Champagne-Ardenne, Corse, Haute-Normandie, Midi Pyrénées, Nord-Pas-de-Calais, PACA, Pays-de-La-Loire et Picardie. Les autres fusions se font entre le 1er janvier 2010, pour les régions métropolitaines, et le 1er janvier 2011, pour celles d’Outre-mer.

Quels sont les enjeux de la création des DREAL ?

Pour le Gouvernement, la priorité de cette réforme des services territoriaux est la création d’un régime régional unifié du ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire, MEEDDAT. Ministère, dont M. Jean-Louis Borloo, depuis remplacé par Nathalie Kosciusko-Morizet, a rang de ministre d’État. Cette mise en cohérence des services déconcentrés de l’État va permettre de piloter et de décliner en région les politiques de l’État en matière de développement durable.

Et, selon le Premier ministre M. François Fillon : « Il s’agit ainsi de créer un nouveau service au niveau régional, en refondant les missions, l’organisation et les méthodes de travail, dans le cadre d’un véritable projet de service. »

Les DREAL doivent donc mettre en place une approche transversale et intégrée des enjeux d’environnement, d’aménagement et du logement des territoires administratifs et géographiques qu’elles couvrent. Parmi lesquels on compte la lutte contre le changement climatique, l’utilisation rationnelle de l’énergie et des énergies renouvelables, les risques et les enjeux santé-environnement, l’aménagement et le développement durables des territoires…

L’objectif est de traiter ces enjeux avec une plus grande pertinence, plus d’efficacité et de cohérence dans le processus de prise de décision.

Que font les DREAL ?

Les DREAL reprennent l’ensemble des compétences jusqu’alors dévolues aux DRIRE, DIREN et DRE. En matière d’environnement, d’aménagement et de développement durables, les DREAL ont pour mission l’élaboration et la mise en œuvre des politiques de l’État surtout pour la protection et la gestion de l’environnement, des ressources, des milieux et du patrimoine naturel et culturel d’une part, et le contrôle des activités industrielles d’autre part.

Les missions régaliennes des DREAL portent donc sur le contrôle et la sécurité : des activités industrielles, de la prévention des pollutions, du bruit, des risques naturels et technologiques et des risques liés à l’environnement, de la gestion des déchets. Le contrôle des installations classées pour la protection de l’environnement figure au rang de ces missions.

En matière de logement, les DREAL élaborent et mettent en œuvre les politiques de l’État concernant l’offre de logements, la rénovation urbaine et la lutte contre l’habitat indigne. Elles assurent le pilotage et la coordination des politiques relevant du ministre chargé de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire et de celles relevant du ministre chargé du logement mises en œuvre par d’autres services déconcentrés. Elles assurent aussi la coordination de la mise en œuvre de ces politiques avec les actions des établissements publics de l’État concernés.

Les DREAL font aussi la promotion de la participation des citoyens dans l’élaboration des projets liés à l’environnement et à l’aménagement du territoire. Enfin, elles contribuent à l’information, à la formation et à l’éducation des citoyens sur les enjeux du développement durable et à leur sensibilisation aux risques.

Si aujourd’hui, le développement industriel et la métrologie assurés hier par les DRIRE, est repris par les DREAL, c’est une disposition provisoire. À terme ces deux missions vont être intégrées au sein de la future direction régionale des entreprises, de la concurrence, de la consommation, du travail et de l’emploi (DIRECCTE).

Un exemple concret de missions des DREAL

les domaines d’intervention de la DREAL de Haute-Normandie :

• Développement durable. Favoriser et pérenniser avec les partenaires publics et privés, un développement pour qu’il devienne durable.
• Énergie et climat. Permettre la réalisation effective d’un plan climat développant la connaissance, la production et la consommation raisonnée de l’énergie.
• Ressources, territoires, habitats et logement. Favoriser des espaces s’appuyant sur des ressources vives au service des hommes, des autres espèces et de leurs habitats. Assurer des conditions de logement adaptées aux besoins de la population.
• Prévention des risques. Prévenir avec efficacité, de façon intégrée et permanente, l’ensemble des risques technologiques, accidentels, chroniques et naturels.
• Infrastructures et transports. Assurer la circulation des hommes et des marchandises en développant plus particulièrement les modes de transports alternatifs à la route.

L’organisation des DREAL

Les DREAL sont des services déconcentrés relevant du ministère de l’écologie, de l’énergie, du développement durable et de l’aménagement du territoire, MEEDDAT. Elles exercent leurs missions sous l’autorité du préfet de région et sous celle du préfet de département pour les missions relevant de sa compétence.

Les directeurs ainsi que les directeurs adjoints de chaque DREAL seront nommés par arrêté conjoint du ministre chargé du MEEDDAT et du ministre chargé du logement, après avis du préfet de région.

À la lecture de ce rapide panorama des changements touchant le paysage administratif français, un constat s’impose. Qui dit changement administratif dit apprentissage d’une nouvelle batterie de sigles. Citons-les, juste pour le plaisir. DREAL, MEEDDAT, DIRECCTE, RGPP.

Source : Pierre-Antoine Garcia, responsable du blog Acqualin

Découvrez les fiches pratiques « Techniques de l’ingénieur » :

DIAPORAMA – De nouveaux clichés de la Lune

Deux sondes destinées à l’étude de la Lune ont été lancées avec succès samedi dernier depuis Cap Canaveral, en Floride, après deux reports dûs au mauvais temps et à une avarie technique. Le voyage des sondes Grail A et Grail B devrait prendre moins de quatre mois, auquel s’ajouteront deux mois supplémentaires pour entrer dans l’orbite de l’astre et commencer la mission de cartographie des strates de notre satellite et de mesures de gravité sur l’astre.

L’occasion pour Instantanés Techniques de vous dévoiler quelques clichés de la Lune, de son pôle Nord aux traces laissées par les différentes missions Apollo, en passant par les très nombreux panoramiques réalisés à partir des photos prises lors des programmes Apollo. L’occasion aussi de retourner sur Google Moon, un service de « cartographie » lunaire proposé par le géant américain, à partir d’images satellites fournies par la NASA.

Le pôle Nord de la Lune :

Ce ne sont pas moins de 983 photos, prises pendant un mois par la sonde spatiale de la NASA « Lunar Reconnaissance Orbiter », qui auront été nécessaires pour réaliser cette image du pôle Nord de la Lune, alors que le pôle de notre satellite était au climax de son illumination.

Les panoramiques de la Lune, par les différentes missions Apollo

(Avertissement : vous devez disposer de Quicktime pour visionner les panoramiques)

Résultats du re-scan et de l’assemblage délicat des photos prises lors des différentes missions Apollo – la technique d’assemblage des panoramiques n’existait pas encore, les astronautes ne s’en sont donc pas souciés lors de leurs différentes prises de vue –, ces différents panoramiques, sur lesquels vous pouvez librement vous déplacer, sont saisissants.

Panoramique provenant des photos prises lors de la mission Apollo 11 (avec en bande son Neil Armstrong) :

http://www.panoramas.dk/moon/apollo-11.html

Panoramique provenant des photos prises lors de la mission Apollo 12 :

http://www.panoramas.dk/moon/apollo-12.html

Panoramique provenant des photos prises lors de la mission Apollo 14 :

http://www.panoramas.dk/moon/apollo-14.html

Panoramique provenant des photos prises lors de la mission Apollo 15 :

http://www.panoramas.dk/moon/apollo-15.html

Panoramique provenant des photos prises lors de la mission Apollo 16 :

http://www.panoramas.dk/moon/apollo-16.html

Panoramiques provenant des photos prises lors de la mission Apollo 17 :

http://www.panoramas.dk/moon/apollo-17.html

Les traces laissées sur la Lune par les différentes missions Apollo :

La sonde spatiale américaine « Lunar Reconnaissance Orbiter » a réalisé ces quelques clichés de la Lune, où l’on peut clairement distinguer les traces laissées par les différentes missions Apollo. Outre les traces laissées par les véhicules, les fameux « Rovers lunaires », est  indiqué sur les photos « ALSEP », lieu ayant servi de base à des expérimentations. Les photos choisies sont celles des missions Apollo 12 (novembre 1969) et Apollo 17 (décembre 1972).

Google Moon, la cartographie lunaire :

Pour conclure ce diaporama, jetez donc un coup d’œil sur le site, Google Moon, du géant américain Google, consacré à notre satellite, et basé sur le même principe de cartographie que son grand frère Google Earth. Les images sont fournies par la NASA, puis assemblées afin de donner ce résultat.

Par Rahman Moonzur

 

À lire aussi :

Juno : une sonde spatiale vers Jupiter

Des robots et logiciels pour des missions extraterrestres

DIAPORAMA – SeaOrbiter, le satellite des mers

Un nouveau souffle pour Galileo

Femmes et industrie : un mariage réussi ?

Motivations, formations, rémunérations, management, égalité professionnelle… L’association Elles bougent a voulu connaître l’avis et le ressenti de leurs marraines, ces ingénieures et techniciennes qui travaillent dans l’industrie des transports et de l’énergie, et qui militent pour encourager un plus grand nombre de jeunes filles à s’orienter dans des métiers scientifiques et techniques.

Globalement satisfaites, mais…

360 marraines sur les près de 500 que compte l’association ont répondu à cette enquête rendue public le 5 avril 2011 ans les locaux de Bosch France, à l’occasion de la Semaine de l’industrie. On y apprend que ces professionnelles travaillent en majorité en Ile-de-France, dans des fonctions de R&D, d’études et de conception, dans le management de projet ou encore dans l’ingénierie conseil.  Elles ont un niveau Bac+5, plus de la moitié sont cadres sans équipe et gagnent entre 40 et 60 KE. 55 % sont mères de famille et seulement 14 % travaillent à temps partiel.

« Ces femmes sont en majorité heureuses d’exercer des métiers traditionnellement masculins », analyse Guy Maugis, à la tête de Robert Bosch France et président d’honneur de l’association Elles bougent. Elles ont choisi leurs études et leurs orientations par goût pour les sciences (82 %) et pour les perspectives de carrière qu’elles permettent ».

… victimes de discrimination…

Le bilan de l’enquête est par contre plus mitigé lorsqu’est abordée la question de l’égalité professionnelle. En effet, si plus de la moitié des répondantes estiment être satisfaites de leur parcours professionnel, 41 % pensent aussi qu’elles pourraient occuper un poste avec un niveau de responsabilité plus élevée. Une réponse nuancée à corréler avec celle sur la discrimination sexuelle : 62 % des 31-65 ans pensent en avoir été victimes au moins une fois dans leur carrière. Au contraire, les 18-30 ans estiment à 55 % ne l’avoir jamais été. « Peut-être parce qu’elles sont trop jeunes pour en avoir fait les frais à ce stade de leur évolution professionnelle », commente avec prudence Marie-Sophie Pawlak, présidente de l’asssocation Elles bougent.

… et méfiantes.

La vigilance des femmes interrogées par l’association Elles bougent est aussi marquée lorsqu’il s’agit de faire confiance ou non à leur entreprise pour les promouvoir à des postes de direction. 46 % se disent méfiantes, 54 % comptent sur leur entreprise pour les encourager. Près de huit femmes sur dix ne mettent pas en doute leurs qualités et leurs compétences professionnelles et pensent ainsi décrocher des propositions ou des opportunités d’évolution. « De plus en plus d’entreprises ont des discours et des actions favorisant l’égalité professionnelle, en particulier celles qui sont partenaires de notre association », tient à préciser la présidente Marie-Sophie Pawlak. Les nouvelles générations de filles qui arrivent sur le marché du travail bénéficieront de plus en plus de cet élan ».

Et l’avenir ?

Les ingénieures et techniciennes ont confiance dans l’avenir industriel de leur secteur en France, « ce qui est plutôt rassurant face à la sinistrose ambiante », souligne Guy Maugis de Robert Bosch France, « même si elles estiment que les pays les plus prometteurs sont la Chine, l’Inde et le Brésil ». Par contre, les professionnelles du secteur automobile se montrent plutôt pessimistes et ne recommanderaient pas à un(e) jeune de le choisir, préférant les orienter vers l’énergie, les énergies renouvelables, l’aéronautique et le spatial. « Des choix plutôt étonnants alors que l’informatique et les NTIC sont deux secteurs fortement créateurs d’emplois », fait remarquer une « marraine » dans la salle.

« Cette enquête très généraliste est à affiner », estime Marie-Sophie Pawlak qui a laissé entendre qu’il serait bon aussi de connaître l’avis et le ressenti d’ingénieurs et techniciens… hommes !

Par Corinne Dillenseger / Maviepro.fr

À lire aussi :

Femmes ingénieurs : la bataille n’est pas encore gagnée !

Elles bougent pour faire connaître les métiers d’ingénieurs

Tu seras ingénieure ma fille !

Sciences : aider les filles exposées aux discriminations

Claudie Haigneré : « Toute société s’enrichit de sa diversité »

Participez aux formations Techniques de l’Ingénieur :

Formation ingénieur manager

Revue du Web #8 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • un chef d’entreprise tellement impliqué et confiant dans le verre à l’épreuve des balles que sa société vend qu’il accepte de se faire tirer dessus par l’un de ses employés ;
  • des camions et des voitures stoppés, voire détruits, par un filet, pouvant servir de barrage à la police ;
  • une vidéo explicative sur la manière dont est gérée et interprétée la coloration des images provenant du téléscope spatial Hubble, alors qu’une superbe photo de Saturne vient d’être publiée par la NASA ;
  • et enfin, le gadget (inutile ?) de la semaine, un serre-tête avec des oreilles de chat contrôlées par la pensée, fonctionnant plus ou moins bien…

Un patron confiant dans le verre blindé de sa société :

Pour commencer la revue du Web #8, voici la vidéo du patron de la Texas Armoring Corporation, Trent Kimball, se faisant tirer dessus par l’un de ses employés à l’aide d’un AK47 ! Positionné derrière un pare-brise dont le verre blindé, à l’épreuve des balles, est produit par sa propre société, Trent Kimball sursaute légèrement lors du premier impact puis paraît stoïque et calme jusqu’au bout de « l’attaque ». Fatigué par les clients qui lui demandaient sans cesse si son verre blindé fonctionnait correctement et était réellement à l’épreuve des balles, Trent Kimball décida de « mouiller la chemise » à l’aide de cette petite mise en scène. Le pare-brise résiste bien, même si l’on se rend compte qu’il a – évidemment – une limite. Le verre utilisé fait plus de 5 centimètres et demi d’épaisseur, en comptant les différentes couches :

Un filet capable d’arrêter un camion à 80 km/h :

La société américaine Barrier1 Systems a conçu toute une gamme de procédés permettant de stopper un véhicule. Sobrement appelé « The Vehicle Arestor », ce filet peut s’étendre jusqu’à près de 25 mètres, se déployer en deux secondes, et arrêter des véhicules qui vont aussi bien dans un sens comme dans l’autre. Il se rétracte presque tout aussi rapidement sous un couvercle situé au niveau de la route, couvercle pouvant supporter le passage de poids lourds sans encombre et protégeant le filet d’éventuels débris. Le « Vehicle Arestor » est capable d’arrêter un camion poids lourd roulant à près de 80 km/h, sans que l’on ait à remplacer quoique ce soit après l’impact. « Arrêter » est d’ailleurs un mot un peu faible, comme vous pouvez le constater dans la vidéo qui suit :

The Vehicle Arrestor from Barrier1 Systems, Inc. on Vimeo.

Photo de Saturne et explication de la coloration des images de Hubble :

La NASA a publié la semaine dernière une incroyable photo de Saturne et de ses anneaux, prise par la sonde spatiale Cassini en orbite autour de la planète géante, et durant une éclipse solaire. La lumière et les couleurs, irréelles, seraient une combinaison de la prise de vue de la sonde avec l’éclipse solaire et le reflet de la lumière intrinsèque émise par la planète. Cette photo rappelle en certains aspects la vidéo expliquant la création et le traitement des données récoltées par le télescope spatial Hubble, de l’agrégation de différents clichés à la superposition de ceux-ci, en passant par l’assignation d’une couleur par ordinateur à chacune des composantes et par le nettoyage du cliché final.

Le gadget (inutile?) de la semaine : des oreilles de chat contrôlées par la pensée

Pour conclure la revue du Web #8, voici deux vidéos introduisant « Necomimi », des oreilles de chat robotisées et contrôlées par la pensée. Présentées à Paris lors de la « Japan Expo » de cette année, le gadget de la société japonaise Neurowear permettrait d’exprimer et d’illustrer nos pensées ou notre état d’esprit à travers ce « nouvel organe ». Le serre-tête, à l’aide d’un récepteur d’ondes cérébrales, les fameuses ondes alpha, interprète les données et actionne le moteur contrôlant les oreilles de chat. Les oreilles sont censées se dresser lorsque le porteur se concentre, et sont censées se coucher lorsque le porteur se détend. « Necomimi » devrait pouvoir être commercialisé d’ici la fin de l’année.

La première vidéo est une vidéo de promotion du produit par la société Neurowear, avec une utilisatrice expérimentée. La seconde a été tournée lors de la Japan Expo 2011, les oreilles de chat fonctionnant correctement, mais non maîtrisé, le gadget semble bouger presque aléatoirement.

Par Rahman Moonzur

 

À lire aussi :

Revue du Web#7 : les vidéos de la semaine

Revue du Web#6 : les vidéos de la semaine

Revue du Web #5 : les vidéos de la semaine

Revue du Web #4 : les vidéos de la semaine

Modification du code minier : un écran de fumée ?

Les membres Groupe socialiste, apparentés et rattachés du Sénat, ont déposé fin juillet 2011 une proposition de loi visant à réformer le Code minier et interdire l’exploration et l’exploitation des gaz et huiles de schistes sur le territoire national. La loi adoptée le 30 juin 2011 par la majorité gouvernementale ne répond pas aux questions posées par la mobilisation citoyenne et se limite à l’interdiction d’une technique particulière d’exploration permettant ainsi la poursuite des recherches par d’autres moyens.

Elle ne tient pas compte du rapport d’information parlementaire déposé en juin, alors que ses conclusions vont dans le sens des dispositions défendues par les sénateurs socialistes, apparentés et rattachés. Par ailleurs, le calendrier initialement prévu par le gouvernement n’a pas été respecté. Le rapport final de la mission interministérielle n’est toujours pas publié et l’ordonnance de ratification de la réforme du Code minier n’est toujours pas inscrite à l’ordre du jour du Parlement.

A maints égards, la loi adoptée le 30 juin dernier par le vote de la seule majorité parlementaire et promulguée le 14 juillet dernier n’est pas satisfaisante. Tout d’abord cette loi ne possède encore aucun décret d’application et ne peut donc entrer en vigueur. Elle n’interdit nullement l’exploration et l’exploitation par recours à d’autres techniques que celle de la fracturation hydraulique. Elle interdit uniquement la fracturation hydraulique, la technique communément utilisée aujourd’hui pour récupérer, notamment, les hydrocarbures de schiste. La loi omet cependant de définir cette technique ce qui est source d’insécurité juridique.

En outre, la loi n’interdit, absolument pas le recours à d’autres techniques d’exploration de mines d’hydrocarbures de schiste. Or, d’autres techniques actuellement expérimentées aux Etats-Unis existent qui causeraient autant de dommages pour l’environnement et la santé que la technique de fracturation hydraulique. Qui plus est, la portée de l’article 1er qui prévoyait l’interdiction du recours à la fracturation hydraulique comme technique d’exploration et d’exploitation des mines d’hydrocarbures liquides ou gazeux sur le territoire national, ressort fortement atténuée par l’ajout de nouvelles dispositions. En permettant l’expérimentation pour évaluer la technique de fracturation hydraulique ou d’autres techniques alternatives, ces dernières portent en effet atteinte au principe d’interdiction, fondement même de son article 1er.

Enfin, elle n’abroge pas les permis litigieux. Du fait qu’il n’existe pas de distinction entre les différents types d’hydrocarbures, conventionnels ou non conventionnels « le titulaire d’une concession détient la faculté d’explorer les ressources en hydrocarbures de schiste du territoire qui lui a été accordé pour l’exploration d’un gisement traditionnel ». Il est donc nécessaire d’introduire explicitement une terminologie permettant d’identifier ces gaz et huiles de schiste afin de leur donner un véritable statut en vue de la réforme du code minier ; ce que recommande d’ailleurs le rapport de la mission parlementaire de François-Michel Gonnot et de Philippe Martin.

La productivité des puits et la taille des réserves seraient intentionnellement – et donc illégalement – surestimées par les producteurs afin d’attirer les investisseurs. In fine, des écrits émanant de géologues d’État, d’avocats d’affaires, d’analystes économiques ou encore de responsables industriels er révélés par le New York Times alertent sur une spéculation aveugle autour du gaz de schiste qui pourrait déboucher sur une bulle spéculative, semblable à la bulle Internet, voire à celle qui a coulé Enron. Certains messages soufflent que l’on frise le même type d’« incident ». « L’argent (des investisseurs) coule à flots », alors que les gaz de schiste « sont intrinsèquement non rentables ».

Les risques sanitaires, environnementaux et économiques que fait courir cette industrie aux régions concernées sont déjà bien documentés. Les effets négatifs à terme sont plus que considérables et auraient dû alerter des élus responsables et au service du bien public. Le code de l’environnement prévoit la participation du public, une enquête publique et une étude d’impact. Le Gouvernement n’avait même pas envisagé de reprendre ces obligations dans la version initiale de l’ordonnance du 20 janvier 2011 portant codification de la partie législative du code minier.
Il l’a fait le 19 avril. On peut penser que la pression populaire et les propositions parlementaires l’ont amené à revoir sa copie, au moins partiellement. Rappelons encore que la convention d’Aarhus sur l’accès à l’information, la participation du public au processus décisionnel et l’accès à la justice en matière d’environnement, signée le 25 juin 1998 par 39 États, est un accord international.

Source : Collectif Stop aux gaz de schiste

A lire également:

REACH : les news du mois de septembre (1/2)

Informations pour éviter les essais inutiles sur les animaux – 37 nouvelles substances concernées

(02/09/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • gazoles (pétrole), distillation directe (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 64741-43-1 et N° CE : 265-043-1)
  • gazoles (pétrole), hydrodésulfurés (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 64742-79-6 et N° CE : 265-182-8)
  • gazoles de distillation directe (pétrole), fraction à point d’ébullition élevé (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 68915-97-9 et N° CE : 272-818-8)
  • gazoles légers (pétrole), distillation sous vide tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 64741-58-8 et N° CE : 265-059-9)
  • gazoles légers sous vide (pétrole), hydrodésulfurés (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 64742-87-6 et N° CE : 265-190-1)
  • distillats lourds de distillation directe (pétrole) (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 68915-96-8 et N° CE : 272-817-2)
  • gazoles paraffiniques (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 93924-33-5 et N° CE : 300-227-8)
  • distillats légers (pétrole), hydrocraquage (tests proposés avec une large gamme de gazoles, distillation directe) (N° CAS : 64741-77-1  et N° CE : 265-078-2)
  • distillats moyens (pétrole), distillation directe (tests proposés avec une large gamme de gazoles, distillation directe) (N° CAS : 64741-44-2  et N° CE : 265-044-7)
  • distillats moyens de distillation directe (pétrole), large intervalle d’ébullition (tests proposés avec une large gamme de gazoles, distillation directe) (N° CAS : 68814-87-9 et N° CE : 272-341-5
  • distillats moyens (pétrole), hydrodésulfurés (tests proposés avec une large gamme de gazoles, distillation directe – carburant diesel sans additifs pour automobiles répondant aux spécifications du carburant en cours) (N° CAS : 64742-80-9 et N° CE : 265-183-3)
  • distillats moyens (pétrole), adoucis (N° CAS : 64741-86-2 et N° CE : 265-088-7)
  • distillats moyens (pétrole), hydrotraités (N° CAS : 64742-46-7 et N° CE : 265-148-2)
  • sulfate de cobalt (N° CAS 10124-43-3 et N° CE : 233-334-2)
  • carbonate de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 513-79-1 et N° CE : 208-169-4)
  • tétraoxyde de tricobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 1308-06-1 et N° CE : 215-157-2)
  • cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 7440-48-4 et N° CE : 231-158-0)
  • di(acétate) de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 71-48-7 et N° CE : 200-755-8)
  • dihydroxyde de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 21041-93-0 et N° CE : 244-166-4)
  • dichlorure de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 7646-79-9 et N° CE : 231-589-4)
  • oxalate de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 814-89-1 et N° CE : 212-409-3)
  • bis(2-éthylhexanoate) de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 136-52-7 et N° CE : 205-250-6)
  • cobalt, complexes de néodécanoate et de borate (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 68457-13-6 et N° CE : 270-601-2)
  • 4-oxopent-2-ène-2-olate de cobalt(II) (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 14024-48-7 et N° CE : 237-855-6)
  • oxyde de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 1307-96-6 et N° CE : 215-154-6)
  • propionate de cobalt(2+) (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 1560-69-6 et N° CE : 216-333-1)
  • dinitrate de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 10141-05-6 et N° CE : 233-402-1)
  • réaction en masse du cobalt, du cuivre et du fer (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CE : 912-664-7)
  • réaction en masse du sulfure de cobalt, du sulfure de nickel et du disulfure de trinickel (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CE : 910-663-6)
  • sulfure de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 1317-42-6 et N° CE : 215-273-3)
  • hydroxydeoxyde de cobalt (tests proposés avec le sulfate de cobalt (N° CE : 233-334-2)) (N° CAS : 12016-80-7 et N° CE : 234-614-7)
  • phosphate de trixylyle (tests proposés avec n’importe quelle substance équivalente) (N° CAS : 25155-23-1 et N° CE : 246-677-8)
  • phosphate de tris(méthylphényle) (N° CAS : 1330-78-5 et N° CE : 215-548-8)
  • 3-C12-14-(pair)-alkylamido-N,N-dimethylpropan-1-amino oxide (N° CE : 931-324-9)
  • alcools de lanoline (N° CAS : 8027-33-6 et N° CE : 232-430-1)
  • chlorure de tetrakis(hydroxymethyl)phosphonium, produits de réaction oligomérique avec l’urée (N° CAS : 27104-30-9 et N° CE : 500-057-6)
  • produit de la méthode d’absorption semi-sèches de désulfuration des gaz de combustion (SDA produit) (N° CE : 931-259-6)

Les informations sur ces substances sont à soumettre pour le 17 octobre 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Registre d’intention : trois nouvelles intentions

(05/09/2011)

Le registre d’intention pour l’annexe XV du règlement REACH comporte trois nouvelles substances pour des propositions de restrictions. Il s’agit du 4-nonylphenol, ramifié (N° CAS : 84852-15-3 et N° CE : 284-325-5), du nonylphenol (N° CAS : 25154-52-3 et N° CE : 246-672-0) et de l’éthoxylates de nonylphénol. Les dates de soumissoions sont prévues pour le 8 mars 212.
http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=Restriction&substance_state=current

Mise à jour de la liste des substances enregistrées

(07/09/2011)
La base de données de l’ECHA contenant des informations sur les substances enregistrées a été mise à jour le 7 septembre et contient 4416 enregistrements. 3838 substances phase-in publiables sont répertoriées sur un total de 5065 substances phase-in enregistrées.
Retrouvez toutes les informations sur :
http://apps.echa.europa.eu/registered/registered-sub.aspx

Un nouveau guide sur l’élaboration des fiches de données de sécurité

(08/09/2011)
L’Agence européenne des produits chimiques (ECHA) a publié de nouvelles directives sur l’élaboration des fiches de données de sécurité (FDS). Le document est maintenant disponible dans la section orientation du site de l’ECHA.
http://guidance.echa.europa.eu/guidance_en.htm
Vous pouvez également le retrouver sur :
http://guidance.echa.europa.eu/docs/guidance_document/sds_en.pdf

Risque chimique au travail : de nouvelles VLEP contraignantes en projet

(08/09/2011)
Deux projets de textes, un décret et un arrêté, portant sur les valeurs limites d’exposition professionnelle (VLEP) sont en projet.
La suite sur : http://www.actu-environnement.com/ae/news/VLEP-risque-chimique-decret-projet-13440.php4#xtor=ES-6

Clôture de la consultation sur l’évaluation des risques des mélanges chimiques

(09/09/2011)
La Commission européenne a lancé une consultation sur une approche d’évaluation des risques environnementaux et sanitaires des mélanges de produits chimiques. Le Comité scientifique pour la sécurité des consommateurs (CSSC), le Comité scientifique des risques sanitaires et environnementaux (CSRSE) et le Comité scientifique des risques sanitaires émergents et nouveaux (CSRSEN) viennent d’affirmer que les mélanges de produits chimiques ne sont pas neutres car ils interagissent et produisent des effets combinés, bien supérieurs aux effets de chaque composant pris isolément. Or, la législation européenne envisage les risques des produits chimiques isolément les uns des autres.

Les trois comités ont proposé des graphiques permettant de choisir la méthode d’évaluation des risques la plus appropriée pour un mélange et ils ont proposé des critères permettant de donner la priorité aux mélanges les plus préoccupants, notamment en jugeant la toxicité de leurs composants.
La consultation s’est clôturée ce 9 septembre.

Traçabilité des expositions aux CMR (produit cancérogène, mutagène ou toxique pour la reproduction) : un outil en ligne à expérimenter

(12/09/2011)
Sur la base du volontariat, les entreprises peuvent participer à la mise en place d’un outil en ligne d’évaluation des expositions collectives avant la généralisation du dispositif réglementaire de traçabilité prévu en 2013. Les entreprises volontaires et concernées par l’exposition de leurs salariés aux agents CMR peuvent fournir sur www.step-cmr.fr, les informations requises pour cette expérimentation (identifiant de l’établissement et de l’employeur, lieux de travail concernés par le CMR analysé (chantier, usine, atelier…), populations de travailleurs concernés (CDI, CDD, intérimaires…), démarche de substitution ou suppression engagées…).

Les résultats de cette expérimentation doivent permettre de construire des références pour la prévention des CMR secteur par secteur. Les pouvoirs publics utiliseront les enseignements des difficultés rencontrées pour la mise en place du dispositif de traçabilité qui devrait être généralisé par voie réglementaire en 2013.

Pour plus d’informations : http://www.step-cmr.fr/

Enquête sur l’impact du règlement REACH sur la capacité d’innovation de l’industrie chimique européenne

(14/09/2011)
La Commission européenne mène une étude approfondie sur l’impact du règlement REACH sur la capacité d’innovation de l’industrie chimique européenne. Cette enquête permettra de tirer les premiers enseignements de la mise en œuvre de REACH. Le Centre for Strategy and Evaluation Services (CSES) a été commandé par la Commission européenne pour mener cette étude. Cette dernière comprend une enquête en ligne à laquelle peuvent répondre les entreprises de l’Union européenne. Cette enquête est disponible en 22 langues. Vous êtes invités à contribuer à cet important examen en remplissant le sondage.

L’enquête devrait rester ouverte jusqu’au 7 Octobre 2011.

Par Céline Nectoux, ingénieur environnement CNRI

 

Découvrez les fiches pratiques Techniques de l’Ingénieur

Pour aller plus loin :

Participez aux formations Techniques de l’Ingénieur :

 

Les dernières NEWS REACH :

Et aussi :

Le futur « Windows 8 » de Microsoft conçu pour les PC comme les tablettes

« Windows 8 marche magnifiquement sur toute une gamme d’appareils, des tablettes aux ordinateurs portables de 10 pouces (25 cm), jusqu’aux ordinateurs tout-en-un avec des écrans haute définition de 27 pouces », a dit le président de la division Windows de Microsoft, Steven Sinofsky, durant une conférence destinée aux développeurs.

Le système doit notamment permettre de faire fonctionner plusieurs applications ensemble et de synchroniser les dossiers entre plusieurs appareils. En guise d’illustration, Steven Sinofsky s’est fait prendre en photo par une caméra montée sur ordinateur, et le cliché est apparu sur une tablette.

Le géant de Redmond (État de Washington, nord-ouest des États-Unis) a offert des prototypes de tablettes aux 5 000 participants à la conférence afin qu’ils puissent commencer à travailler sur ce programme. Les développeurs ne participant pas à l’événement pourront télécharger une version préliminaire de Windows 8 à partir de 03H00 GMT mercredi.

Steven Sinofsky a souligné qu’il s’agissait bien d’une version expérimentale, et pas d’un programme fini destiné à être diffusé en l’état auprès du grand public, et il s’est refusé à évoquer une date de lancement.

« Nous nous laissons guider par la qualité, pas par le calendrier, et pour l’instant nous nous concentrons sur les applications », a-t-il dit.

(Source et crédit photo : AFP)

À lire aussi :

Du nouveau sur Windows 8

Total ne lâche pas les gaz de schistes

Le 30 juin dernier, le Parlement français adoptait la loi interdisant l’exploration et l’exploitation des mines d’hydrocarbures liquides ou gazeux par fracturation hydraulique.

Ainsi, les groupes industriels ambitionnant de rechercher, dans le but de les exploiter, des hydrocarbures non conventionnels à l’aide de cette technique sont dans l’obligation d’abandonner leurs recherches. En effet, les permis exclusifs de recherche comportant des projets ayant recours à cette technique sont désormais abrogés.

Les modifications du code minier empêchant la mise en place d’un moratoire (aménagement de la loi voté le 19 janvier 2011), c’est un délai de deux mois qui avait été accordé aux titulaires d’un permis pour remettre un rapport précisant la technique employée pour mettre en œuvre les recherches et l’exploitation en sous-sol. C’est donc le 13 septembre 2011, au plus tard, que les industriels doivent effectuer cette démarche.

Après cette phase de dépôt des rapports, l’Etat aura un mois (jusqu’au 13 octobre 2011), pour publier au journal officiel la liste des permis finalement abrogés. C’est dans ce contexte plutôt contraignant que le groupe Total a publié un communiqué en date du 12 septembre, dans lequel le groupe pétrolier fait part de sa volonté de « préserver ses droits » à la recherche d’hydrocarbures liquides ou gazeux sur le site dit « de Montélimar ». En effet, en mars 2010, Total s’est vu attribué pour une durée de 5 ans les droits à l’exploration de ce domaine minier.

Concrètement, Total a établi un programme de recherche en accord avec la loi de juillet 2011, c’est-à-dire n’utilisant pas la technique de la fracturation hydraulique. Le groupe précise que la phase d’exploration préliminaire engagée en 2010 « ne comporte aucune opération sur le terrain ».
Aussi, Total affirme que « le programme d’exploration du permis de Montélimar contribuera, quels qu’en soient les résultats, à mieux connaître le sous-sol français ». Au-delà, aucune information relative à des alternatives à la fracturation hydraulique n’a été avancée par le groupe pétrolier, ce qui laisse les associations écologistes perplexes.

Très prudent dans ses déclarations, Total a tenu à souligner que les recherches actuellement menées visent uniquement à évaluer le potentiel du sous-sol français. Si ces recherches aboutissaient positivement, le groupe procèdera alors à des tests de production : « les techniques utilisées pour ces tests de production seront fonction des caractéristiques du (ou des) réservoir identifié et des techniques qui seront alors disponibles et autorisées par la loi », affirme le groupe dans son communiqué.

Rappelons qu’aujourd’hui, la seule technique connue d’extraction des gaz de schiste est la fameuse fracturation hydraulique, brevetée par l’entreprise américaine Halliburton.

Par P.T

A lire également:

Un véhicule invisible aux infrarouges ? C’est possible !

L’entreprise britannique BAE Systems, spécialisée dans le domaine de la Défense, a développé ce qu’elle présente comme un « manteau d’invisibilité », permettant de cacher aux caméras infrarouges n’importe quel véhicule lors d’une opération nocturne. Ce « manteau » est plutôt de type « carapace », car il recouvre le véhicule d’un réseau très dense de tuiles hexagonales, ayant la faculté de changer de température très rapidement.

Le système, du nom d’« Adaptiv », se base donc sur un réseau de tuiles dont la température est régulée à l’aide de caméras embarquées qui balayent l’arrière plan et l’environnement, et en déduisent une « signature » infrarouge que les tuiles reproduisent au mieux. Ce système fonctionne aussi lorsque le véhicule est en mouvement, le rendant invisible dans le spectre infrarouge et lui permettant même d’imiter d’autres objets. « La peau du [véhicule] devient une grande télévision infrarouge », explique Mike Sweeney, chef de la communication externe chez BAE. « Vous pouvez afficher ce que vous voulez dessus, même une vache, tandis que le reste du véhicule se fond dans le décor », ajoute-t-il.

Ce système protège le véhicule de tout dispositif de recherche ou de défense basé sur la spectroscopie infrarouge, rendant cette carapace efficace contre les missiles à tête chercheuse, les drones, etc. La technologie utilisée par les ingénieurs pour la conception de ces tuiles les rend tout aussi efficaces dans le camouflage sur d’autres longueurs d’ondes du spectre électromagnétique. Elles sont aussi très peu énergivores, notamment lorsque le véhicule est à l’arrêt en mode « reconnaissance », comparé aux précédents essais de système de camouflage, et sont extrêmement robustes, ajoutant ainsi une protection supplémentaire au véhicule.

Les ingénieurs de BAE Systems ont aussi pensé à varier à la fois la taille des tuiles et la résolution de celles-ci, pour permettre d’adapter la protection et l’étanchéité du manteau de tuiles en fonction de la taille du véhicule, voire du bâtiment. Un véhicule en territoire ennemi nécessitera une carapace particulièrement étanche et une résolution relativement haute pour pouvoir se mouvoir sans être repéré, alors qu’un bâtiment sensible ou un vaisseau de guerre situé à une plus grande distance n’ont pas nécessairement besoin de la couverture la plus parfaite, ni de la résolution la plus élevée.

Les recherches et le développement continuent, dans l’espoir de rendre cette technologie encore plus efficace, notamment sur d’autres parties du spectre électromagnétique. Des tests effectués plus tôt cet été par BAE Systems sur un véhicule de combat d’infanterie suédois, le CV90, se sont révélés concluants, autorisant même au tank de s’identifier pour éviter toute bavure liée à des tirs « amis », comme vous pouvez le constater dans la vidéo suivante :

Par Rahman Moonzur

 

À lire aussi :

L’antimatière optique pourrait rendre les objets invisibles

 

 

 

 

 

 

Toujours plus de propriétés pour le graphène

Au centre de très nombreuses recherches et études scientifiques ces dernières années, le graphène est un cristal bidimensionnel de carbone, composé d’une simple couche sans défaut, et dont les atomes sont arrangés sous la forme d’un treillage hyper-régulier, de type rayons de nid d’abeille. L’empilement de ces couches constitue le graphite, existant dans la nature. Le graphène est l’un des matériaux les plus résistants testés jusqu’à maintenant, possédant de remarquables qualités de conductivité, d’imperméabilité à la plupart des gaz, rendant potentiellement son utilisation à l’échelle nano très intéressante. Toutefois, sa production reste encore très problématique et onéreuse.

Une équipe de chercheurs de l’université américaine de Boulder, dans le Colorado, a fait une découverte sur ce matériau toujours plus surprenant : le graphène aurait, selon eux, de remarquables et inattendues propriétés adhésives. La découverte de cette nouvelle qualité pourrait bien aider à une élaboration et à une fabrication plus rapide du graphène, ainsi qu’à la conception d’appareils et de systèmes tels que des résonateurs ou des membranes servant à la séparation des gaz. Les tests démontrent que l’extrême flexibilité du graphène lui permet même de s’adapter à la topographie du plus lisse des substrats.

« La vraie excitation pour un scientifique comme moi se trouve dans la possibilité de créer de nouvelles applications exploitant la remarquable flexibilité et les nouvelles propriétés adhésives du graphène, de concevoir de nouvelles expériences, uniques, pouvant nous en apprendre plus sur les caractéristiques à l’échelle nano de cet incroyable matériau », explique le professeur Scott Bunch, du département d’ingénierie mécanique de l’université Boulder, et principal auteur de l’article paru dans l’édition du mois d’août de Nature Nanotechnology.

L’équipe de l’université Boulder s’est évertuée à mesurer l’énergie d’adhésion d’une à cinq feuilles de graphène, c’est-à-dire l’énergie nécessaire pour réaliser la séparation, avec un substrat en verre. Les résultats des mesures, couplés à leurs recherches sur la structure du « matériau miracle », montrent que ce que l’on appelle les « forces Van der Waals » (la somme des forces attractives et répulsives entre les molécules, utilisées en physique quantique) cramponnent les échantillons de graphène au substrat, tout comme les feuilles de graphène entre elles se transforment en échantillons multi-couches.

Les énergies d’adhésion en jeu entre le graphène et le substrat de verre seraient même bien plus grandes que celles normalement observées dans les structures micromécaniques standard, les chercheurs ayant plutôt observé une « interaction plus commune aux liquides qu’aux solides entre eux », explique le professeur Bunch. Il y aurait donc un grand intérêt à exploiter les propriétés du graphène pour créer des membranes ultrafines servant à la séparation des gaz, ou à la purification de l’eau. Sa structure unique et ses propriétés pourraient même lui permettre un jour de remplacer la silice en tant que base des appareils électroniques et des circuits intégrés.

Par Rahman Moonzur

 

À lire aussi :

Le graphène peut polariser la lumière

Une méthode simple pour fabriquer du graphène ?

Les défauts fleuris du graphène, une chance ?

Une nouvelle propriété du graphène mise en évidence

Un composite céramique 200 % plus résistant

« Nanomat training » formera les futurs experts en nanomatériaux

Les cardiologues supportent mieux les radiations des rayons X

Les médecins et praticiens dont le corps est régulièrement exposé aux rayons X dans le cade de leur fonction se seraient adaptés au niveau cellulaire pour se protéger des radiations : c’est en tout cas la conclusion d’une étude italienne, diligentée par le professeur Gian Luigi Rosso, chercheur au Conseil National Italien de Recherche (Italian National Research Council), et publiée dans le journal European Heart Journal. Les chercheurs soupçonnaient déjà cette capacité d’adaptation du corps humain à résister à l’exposition aux radiations.

Cette étude précise aussi que les cardiologues qui pratiquent la cardiologie interventionnelle, utilisant des cathéters guidés par rayons X lorsqu’ils réalisent des opérations du coeur, possèdent des niveaux de peroxyde d’hydrogène (H2O2 aussi appelé « perhydrol » ou « eau oxygénée ») dans le sang supérieurs à la normale, ce qui pourrait être un changement nocif. Mais les chercheurs ont aussi découvert qu’ils avaient un niveau de glutathion, un antioxydant protégeant les cellules, lui aussi largement supérieur au niveau habituellement observé. Des anomalies ont aussi été repérées dans le rôle des leucocytes, les globules blancs impliqués dans la réaction immunitaire, ici bien plus active.

La présence plus élevée de peroxyde d’hydrogène induirait une réponse de protection, le glutathion, ainsi que le nettoyage des cellules endommagées par les radiations, effectué par un enzyme (la caspase-3) lié aux leucocytes. Cette supposition se base sur une population de dix cardiologues et dix praticiens, dont l’exposition aux radiations a été extrapolée par les chercheurs. Des échantillons de sang ont été prélevés afin de tester les niveaux de peroxyde d’hydrogène, de glutathion et de l’enzyme caspase-3.

Les cardiologues interventionnels reçoivent une dose de radiations annuelle plus importante que les radiologues, essentiellement à cause de la manière dont ils travaillent avec les radiations. Alors qu’un radiologue n’est pas directement exposé aux radiations, le cardiologue doit lui se trouver près de la source de radiations pour pouvoir travailler correctement avec les cathéters. Le nombre d’interventions de ces praticiens est en constante augmentation depuis une vingtaine d’années.

Par Rahman Moonzur

Des biocarburants à partir de microalgues : comment ça marche ?

Il s’agit de produire des biocarburants, biodiesel et biokérosène, à partir des microalgues riches en huiles, dites lipidiques. Mais il reste encore beaucoup de chemin à parcourir avant que ces biocarburants puissent être développés à grande échelle. Interview :

Qu’appelle-t-on microalgues lipidiques ?

Daphné Lorne : Ce sont des algues microscopiques, vivant en milieu aquatique, qui produisent naturellement des lipides (huiles). Elles peuvent être cultivées en conditions autotrophes, c’est à dire que pour leur croissance elles n’utilisent que de l’eau, des sels minéraux, du CO2 et la lumière du soleil. A l’instar des plantes terrestres, elles fixent le CO2 en utilisant l’énergie solaire par le mécanisme de la photosynthèse. Certaines espèces de microalgues peuvent être cultivées en mode hétérotrophe à l’abri de la lumière et avec une alimentation en sucres. Cultivées dans certaines conditions (carence en certains nutriments par exemple) elles peuvent se mettre à produire et accumuler des lipides, principalement des triglycérides, dont la teneur peut atteindre jusqu’à 80 % de la matière sèche. Sur les centaines de milliers d’espèces d’algues existantes, 300 environ ont d’ores et déjà été identifiées pour leur richesse en huile.

Quels sont leurs avantages comme source potentielle d’énergie ?

Les algues sont cultivées sur des surfaces qui à priori n’entrent pas en compétition avec les surfaces agricoles. Elles ont des rendements en biomasse à l’hectare, ainsi que des teneurs en huile, supérieurs à ceux des plantes oléagineuses comme le colza ou même le palmier à huile : les résultats obtenus au stade du laboratoire laissent espérer des productivités d’huile par hectare 6 à 20 fois plus importantes. Autre avantage, la croissance des algues lipidiques nécessitant d’importantes quantités de CO2, on peut envisager de recycler ainsi le CO2 émis par des usines ou des centrales thermiques. De plus, la biomasse algale fournit aussi des produits annexes à haute valeur ajoutée – comme les protéines, les vitamines ou les oligo-éléments – qui peuvent être valorisés par ailleurs (agroalimentaire, cosmétique, pharmacie, etc.). Si les algues sont déjà utilisées comme matières premières pour la chimie de spécialités, il s’agit là de productions en petits volumes. Mais leur production en masse pour une utilisation comme source d’énergie fait face à des défis scientifiques, techniques et économiques, qui sont loin d’être résolus.

Comment les produit-on ?

Les microalgues, préalablement sélectionnées pour leur richesse en huile peuvent être cultivées massivement, soit dans de grands bassins de plein air, soit dans des photobioréacteurs (tubes transparents). Les algues sont récoltées régulièrement et l’huile est extraite selon différents méthodes (centrifugation, traitement au solvant, lyse thermique…). Ensuite on peut mettre en œuvre deux types de conversion de l’huile en biocarburant, identiques à ceux utilisés pour les huiles végétales classiques :

  • la transestérification, qui fait réagir l’huile algale avec du méthanol ou de l’éthanol, produit un ester d’huile algale ou biodiesel, tout à fait comparable à celui obtenu à partir des autres types d’huiles végétales. Il peut être mélangé au gazole en proportion limitée à une dizaine de pourcent volume.
  • l’hydrogénation catalytique qui fait réagir l’huile en présence d’hydrogène, suivie d’un hydrocraquage, produit des hydrocarbures qui peuvent être incorporés en quantité importante au gazole ou au kérosène.

Où en est la recherche ?

Nous n’en sommes qu’au stade des recherches en laboratoire. Il faut encore réaliser de nombreux progrès pour développer le processus de production à grande échelle et réduire les coûts (estimés actuellement à plus de 300 dollars le baril). Les bilans environnementaux et énergétiques représentent les enjeux majeurs. En effet, pour assurer la viabilité économique de la filière de production de biocarburants à partir de microalgues, il faut réduire fortement les consommations d’énergie sur l’ensemble de la chaine. Les recherches visent donc d’abord à sélectionner en laboratoire des souches robustes et à forte teneur en lipides. Il faut également développer des procédés de culture optimisés, assurant une productivité élevée, sur de longues périodes et pour de gros volumes. Les efforts doivent porter aussi sur les procédés de séparation eau/biomasse et d’extraction de l’huile qui sont particulièrement consommateurs en énergie. Enfin, pour assurer la rentabilité de la filière, il faut trouver des marchés de valorisation de masse pour les coproduits.

Et à IFP Energies nouvelles ?

À IFP Energies nouvelles, il nous semble important de mener au préalable une étude approfondie en termes de bilans technico-économique, énergétique et environnemental, afin de préciser les verrous, évaluer les marges de progrès attendus et définir les axes de recherche. Dans cet esprit, nous avons mis en place au niveau national un groupe de réflexion et de partage associant la grande majorité des acteurs clés du domaine (Airbus-EADS, Ifremer, INRA, Sofiprotéol…). Notre objectif est de fédérer les forces et de réfléchir aux orientations nécessaires pour construire une filière industrielle de production de biocarburants à partir de microalgues. C’est une filière prometteuse mais il reste à démontrer qu’elle est durable et économiquement viable.

Source : IFP

A lire également :