Développement des technologies de réalité virtuelle

La réalité virtuelle est un domaine d’activité technologique actif et prometteur d’applications multiples. Chaque année, les salons spécialisés offrent aux visiteurs des nouveautés étonnantes. De l’immersion en temps réel dans des enceintes volumiques à l’actuel essor de l’haptique – sensation physique d’un effort, ou des écrans tactiles avec 3D ajoutée, la poussée technologique reste soutenue et annonce sans cesse de prochaines avancées inconcevables il y a peu : projection holographique, miniaturisation de la projection…En simplifiant, on peut distinguer trois formes de base pour la réalité virtuelle (RV) :

  • La RV à base d’immersion, d’interaction en 3D qui ne s’applique qu’aux environnements virtuels proprement dits ;
  • La réalité augmentée, qui offre l’addition d’éléments virtuels sur un monde réel (en mixant des signaux sensoriels) ;
  • La réalité mixte, où un environnement virtuel se surimpose à des éléments réels.
Ainsi, la RV se conçoit déjà aisément comme une suite de familles technologiques immersives supportant une interaction intuitive avec l’homme et plus ou moins en temps réel. Ce n’est pas l’image ou l’aspect 3D qui bâtit la valeur centrale de la RV, mais une façon particulière de projeter, d’afficher et de manipuler des données, mieux, d’informer globalement et de rendre compte pour pouvoir agir. Ceci étant, où en est vraiment la réalité virtuelle aujourd’hui ? Quels sont ses principaux avantages, mais également, quels sont les principaux freins qu’elle rencontre ? De fait, que peut-on en espérer pour demain ? Petit voyage dans cette réalité de moins en moins virtuelle.

L’AUTEUR
Patrick CORSI, IKBM – International Knowledge-based Innovation Business Models (Bruxelles), Professeur associé ISTIA Innovation, Université d’Angers.Télécharger l’intégralité de l’article Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive

Daniel Mestre est le responsable scientifique du Centre de Réalité Virtuelle de la Méditerranée (CRVM). Le CRVM, première plate-forme technologique fondamentalement dédiée à l’étude du comportement humain en situation immersive, permet aux scientifiques de développer des projets de réalité virtuelle, dont certains trouvent des applications en milieu industriel. Egalement directeur de recherche au CNRS, Daniel Mestre revient sur les potentialités de la réalité virtuelle au niveau de la recherche, et nous présente les projets en cours au CRVM.

Techniques de l’Ingénieur : Qu’est-ce qui vous a poussé à travailler sur la réalité virtuelle ?

Daniel Mestre : Au départ, nous avons travaillé sur la réalité virtuelle surtout dans le but de faire de la recherche fondamentale. A ce niveau là, l’essentiel des recherches se base sur les interfaces homme/machine et homme/ordinateur, surtout au niveau de l’ergonomie de l’usage de ces interfaces, en référence à l’état de l’art des connaissances dans le domaine des contrôles sensorimoteurs. Nous consacrons beaucoup de temps à ces sujets en ce moment.

Quels sont les avantages de la réalité virtuelle ?

En comparaison de situations de laboratoire classiques, la réalité virtuelle permet d’avoir des situations beaucoup plus complexes et écologiques. L’intérêt est donc évident du point de vue de la généralisation de nos études au monde réel (il s’agit de faire « rentrer » le monde réel en laboratoire). Le côté interdisciplinaire de la réalité virtuelle (cette nouvelle discipline alliant informaticiens et neuroscientifiques) est aussi quelque chose d’intéressant pour nous, en termes de marge de manœuvre et d’ouverture au niveau de la recherche.

Vous travaillez beaucoup sur l’étude du comportement humain en situation immersive. Pouvez-vous nous expliquer quels types de projets sont conduits actuellement ?

Une de nos études vise à apporter une objectivation comportementale de la sensation subjective de présence en situation immersive (cette sensation d’avoir quitté le monde réel pour se situer dans le monde virtuel). A cette fin, une « affordance » (invitation à l’action) particulière a été utilisée pour une évaluation comportementale de la présence physique en environnement virtuel. La tâche du sujet consistait à franchir (en marchant) une porte virtuelle de largeur variable. En cas de présence, il était attendu que les sujets manifestent une marche frontale normale lorsqu’ils franchiraient des portes suffisamment larges, alors qu’ils seraient contraints de tourner le corps pour franchir des portes étroites. Les résultats indiquent que les postures locomotrices de sujets devant franchir une porte virtuelle ressemblent fortement à celles de sujets qui doivent franchir une porte réelle.Ensuite, nous étudions également les mécanismes d’orientation spatiale. Le sujet est ainsi en immersion dans un environnement spatiale mouvant. Le but est de voir à quel moment le sujet va se sentir penché et/ou orienter son corps en accord avec le monde virtuel, et d’analyser ce qui déclenche ces mouvements.

Vous conduisez également beaucoup de projets destinés à des applications pour les sportifs.

Tout à fait. Par exemple, nous avons développé un projet qui vise à analyser et à comprendre quels sont les éléments qui influencent un gardien de but de foot-ball dans ses déplacements d’interception lors d’un coup franc. Ainsi, le tireur est représenté par un avatar, ce qui nous permet de manipuler les informations relatives à son mouvement ainsi que de décorréler son mouvement avec la trajectoire de balle présentée. L’immersion du sujet dans la situation est facilitée grâce à la création fidèle de l’environnement virtuel (un stade de foot dans cet exemple). Les déplacements des avatars présentés aux sujets sont issus d’enregistrements cinématiques de mouvements de tirs de footballeurs de haut niveau. Le travail est ici encore fondamental, mais nous entrevoyons des applications dans le domaine de la formation.

Quels autres projets sont développés en recherche appliquée ?

Nous travaillons beaucoup sur le prototypage virtuel, avec divers partenaires. Bien que la réalité virtuelle reste pour le moment un domaine dont la maturité n’est avérée que dans des applications ciblées, on envisage maintenant sérieusement de remplacer des phases de maquettes réelles (par exemple chez PSA dans le cycle de conception d’un nouveau véhicule) par des maquettes virtuelles. Cela dit, il y a encore beaucoup de progrès à faire au niveau du réalisme des lumières par exemple. En effet, il est encore très compliqué de simuler de manière fidèle les lumières à l’intérieur d’une voitures, car les éléments à considérer sont trop nombreux. Au niveau de l’haptique également, nous avons encore beaucoup de problème pour obtenir des rendus fidèles à la réalité : faire toucher par un sujet réel un objet qui n’existe pas reste très compliqué. Il y a encore beaucoup de travail à ce niveau là. Par contre, sur certains aspects, nous avons fait des progrès incroyables. Au niveau de la vision et des sons par exemple, les résultats obtenus en simulation sont remarquables.

Mis à part l’automobile, quels autres secteurs pourraient trouver un intérêt dans l’utilisation du prototypage ?

On observe de grands développements dans le domaine de l’architecture. Mais pour l’instant, il s’agit plus de développements liés à des « démos » qu’autre chose. Les autres développements à l’étude se heurtent pour le moment à des freins importants. Par exemple, il est encore impossible de faire monter un escalier virtuel à un sujet. Donc pour le moment, les applications relatives à l’architecture sont encore à l’étude. C’est pour cela que nous essayons de convaincre le maximum d’architectes de travailler avec nous. D’ailleurs, plus généralement, travailler avec les industriels est une des nos raisons d’être.

Pouvez-vous nous parler des applications que vous développez au niveau médical ?

La thérapie virtuelle pour le traitement des phobies est une application très concrète de la réalité virtuelle au niveau médical. C’est pour l’instant une des rares applications aboutie au niveau médical (il existe également des techniques de formation). En ce qui concerne les projets, nous développons avec l’assistance publique de Marseille une application destinée à la formation, qui permettra aux praticiens de s’entraîner à réanimer des nouveaux-nés en moins de dix minutes. Mais il faut savoir que les applications de la réalité virtuelle à la médecine sont très compliquées à mettre en œuvre, notamment au niveau des interventions chirurgicales. En effet, pour l’instant, il s’avère très compliqué de récupérer l’imagerie médicale et de la traiter en réalité virtuelle, à cause du manque de précision actuel et des interfaces qui ne sont pas encore adaptées à la précision que nécessite tout acte médical. Le retour de l’information en temps réel pose également problème. Comme beaucoup d’autres pour le moment, ces techniques ne sont pas encore mûres.

Quelles avancées attendues permettront de passer un cap en termes d’applications, que ce soit au niveau médical, ou du traitement des informations en temps réel par exemple ?

L’holographie, par exemple, nous permettrait de résoudre les problèmes actuels que nous rencontrons en termes de résolution d’écran. et des contraintes que posent les écrans de projection eux-mêmes.

Travaillez-vous pour l’instant beaucoup avec les industriels ?

Au niveau industriel, tous les grands groupes ont investis dans la réalité virtuelle, pour voir les potentialités que renferme le domaine. PSA fait partie des entreprises qui se sont beaucoup investies. Saint Gobain Recherche est un autre exemple, dans la domaine architectural et domotique.

Existe-t-il une collaboration au niveau international dans le cadre des recherches sur la réalité virtuelle ?

Oui. Des équipes parviennent aujourd’hui à collaborer à distance sur des projets de réalité virtuelle. Ceci est surtout valable dans le domaine de la formation. Nous collaborons également à un projet d’infrastructure, VISIONAIR, qui a pour finalité de mettre en réseau des plates-formes de réalité virtuelle au niveau européen. Ceci nous permettra notamment de collaborer avec nos collègues allemands, qui sont très actifs en matière de réalité virtuelle, dans ses aspects techniques aussi bien que fondamentaux.

La France est-elle un acteur important de la réalité virtuelle au niveau mondial ?

L’INRIA, l’Ensam, ParisTech ou encore Clarté sont des organismes qui travaillent beaucoup sur la réalité virtuelle depuis quelques années déjà. Aujourd’hui, il est évident que les anglo-saxons restent les leaders de la discipline. Il ne faut pas oublier que la réalité virtuelle est née outre Atlantique. Mais si nous ne somme pas leader au niveau mondial, la France reste tout de même bien placée, et notamment au niveau européen. Aussi, on note qu’aujourd’hui, de plus en plus d’écoles d’ingénieur développent des formations en réalité virtuelle.Propos recueillis par P.TEn savoir plusLe CRVM : présentation du centreLe Centre de Réalité Virtuelle de la Méditerranée [CRVM], plateforme technologique de l’Institut des Sciences du Mouvement (Unité Mixte de Recherche associant le CNRS et l’Université de la Méditerranée), est issu de la collaboration de six laboratoire situés sur le campus Scientifique et Technologique de Luminy à Marseille). Le CRVM constitue un terrain de convergence et d’enrichissement réciproque entre les domaines des Sciences de la Vie, des Sciences et Technologies de l’Information et de la Communication et de l’Ingénierie. Le CRVM est, en France, la première plate-forme technologique fondamentalement dédiée à l’étude du comportement humain en situation immersive. La plate-forme est constituée d’u système de visualisation stéréoscopique avec une surface totale d’écran de 45 m², d’un ensemble de dispositifs de mesure du comportement permettant la capture de paramètres psychologiques, physiologiques et sensorimoteurs de l’utilisateur et d’un système informatique (grappe de PCs) permettant l’interaction en temps réel entre utilisateur et le monde virtuel. Sommaire du Cahier Réalité virtuelle> A la Une

  • Ces sujets de recherche qui font le buzz dans les labos

> Evénement – Laval Virtual 2010

  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)

> Comprendre

  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle

> Evaluer

  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique

> In situ

  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)

> Produits

  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Comment l’INRIA revisite les interactions à gestes

Laurent Grisoni est responsable de l’équipe de recherche MINT (méthodes et outils pour l’interaction à gestes) du centre INRIA Lille Nord Europe, qui a succédé à l’équipe ALCOVE, dont il était aussi membre. Il revient pour IT Online sur les recherches faites au niveau des interactions à gestes, en nous présentant quelques unes des applications développées à l’INRIA. Entretien.  

Techniques de l’Ingénieur : Quelle est la genèse du projet MINT (méthodes et outils pour l’interaction à gestes) ?
Laurent Grisoni : Ce projet est né de l’envie, de la communauté de recherche, tout comme du grand public, d’avoir des outils informatiques de plus en plus souples et adaptés aux personnes. Il repose sur trois axes de réflexions : le premier autour des usages, le second autour de l’algorithmique numérique permettant d’extraire la sémantique du geste, le dernier sur les technologies disponibles pour l’acquisition de ce geste.

Comment définir les interactions à geste ?
Les interactions à gestes peuvent être définies autour de ces cas d’usage, encore à inventer, où l’on pourrait se passer du clavier et de la souris d’ordinateur pour réaliser certaines tâches avec un système informatique (que l’on soit via un Smartphone, ou un grand écran). Pour certaines actions élémentaires, comme pointer quelque chose sur un écran, le clavier et la souris ne sont pas les périphériques les plus intuitifs. Pour arriver à proposer des alternatives, Il faut tenir compte des trois volets de réflexion cités plus haut.

Quels sont les objectifs de recherche de MINT ?
Le but du travail de l’équipe MINT est de rendre les interactions homme/machine aussi transparentes que possible. Pour cela, il est nécessaire d’appréhender les besoins des niches métiers potentiellement concernées, afin de cerner au mieux les usages pour lesquels son pourra obtenir un feedback utilisateur réel, nous permettant ainsi d’avancer dans notre propre réflexion.

Pouvez-vous nous donner un exemple ?
Nous avons à l’heure actuelle deux grandes axes de réflexion. Le premier autour d’outil d’interaction avancés pour la vente, où il s’agit de proposer aux clients des systèmes permettant de manière conviviale d’accéder, via un système d’interaction relativement peu encombrant, d’accéder en magasin à un catalogue plus large. Le second domaine d’application concerne la rééducation médicale, où nous travaillons à proposer aux médecins (notamment ceux de la fondation Hopale, basée à Berck-sur-mer et spécialistes nationalement reconnus en rééducation) des outils basés réalité virtuelle pour la rééducation des accidents vasculaires cérébraux.

Comment travaillez-vous pour évaluer la pertinence d’une application par rapport à une autre ?
Pour schématiser, trois axes de réflexion nous guident pour décider quelles applications vont faire l’objet de recherches. D’abord, nous devons, en tenant compte de ce que l’on est capable de faire (tant au point de l’application, qu’au point de vue de l’utilisation du matériel), être à l’écoute et comprendre ce que les gens veulent, en termes d’applications. Aussi, il nous est nécessaire de mener une réflexion sur les modèles numériques actuellement accessibles. Enfin, il nous faut savoir quelles sont nos possibilités au niveau technologique. Encore une fois, l’idéal pour nous et d’avancer scientifiquement tout en arrivant à des applications ciblées, qui collent à la réalité des métiers concernés. Sur le terrain, notre travail est donc d’essayer de réaliser des systèmes informatiques qui, d’une certaine manière, se font oublier, c’est-à-dire masquent leur complexité réelle, afin de simplifier le travail de la personne.

Qu’est-ce que cela donne sur le terrain ?
Nous sommes dans une logique proactive, ce qui implique la fabrication de démonstrateurs. Dans un premier temps, nous avons toujours des évaluations statistiques, pour une première évaluation de nos propositions en labo. Ensuite, parce que nos applications sont finalisées, nous pouvons proposer une évaluation plus large, moins contrainte, avec des utilisateurs finaux. Entre autre avec une psychologue de l’équipe, ces tests sont observés, analysés, et ils fournissent des informations sur les comportements des « testeurs ». A partir de là, nous pouvons améliorer la qualité des simulations, la finalité restant la transparence de l’interaction. Ce travail de collaboration avec les utilisateurs finaux pour tester les applications est important pour notre travail.

Par exemple ?
A coté des domaines d’application liés à la vente et à la rééducation cité plus haut, nous travaillons actuellement sur une application grand public qui permet de dessiner sur un grand écran via un gant de données en 3D. Cette application est intéressante pour deux raisons. D’abord conceptuellement, car si, dans une première approche, on la perçoit comme une application relativement standard (du type de l’application paint), on en est en fait assez loin, cette application permettant également de faire « tourner » son dessin. Cette application est un très bon exemple de ce que es gens l’appréhension d’une application se fait le plus souvent en tenant compte de ce que l’on connait. Notre travail est donc d’oublier les repaires existants et permettre aux utilisateurs d’aller au delà de ce que les outils actuels peuvent proposer, en imaginant des solution radicalement différentes.

Vers quelles professions les dispositifs que vous développez pourraient-ils trouver des applications pertinentes ?
Les médecins par exemple. On sait que certaines applications sont très utiles en termes de travail de rééducation. Nous menons en ce moment un projet, Reactive, financé par l’ANR pour la réeducation des gens ayant subi un accident vasculaire cérébral (AVC). Ce projet est porté par la fondation Hopale, et cette collaboration très positive pour nos recherches. Au niveau médical, l’objectif est de disposer de nouveau outil de rééducation, ainsi que d’outil pour évaluer objectivement la progression des patients, via une relation exercice de rééducation/patient totalement numérisée. Une idée en cours d’étude concerne aussi l’imagerie médicale (en collaboration avec l’équipe SHAMAN, de l’INRIA Lille Nord-Europe) pour une autre branche de la médecine, mais il est encore très tôt pour parler vraiment de ce projet.

Les métiers de l’informatique également ?
Bien sûr. Nous avons récemment proposé un petit système hardware, qui peut se voir comme un pad d’ordinateur pouvant faire varier son coefficient de frottement sous le doigt de la personne. Des outils découlant de ce brevet, pour l’informatique grand public mais aussi pour des outils d’aide, par exemple destinés aux mal-voyants, sont tout à fait envisageables.

Travaillez-vous sur d’autres domaines de la réalité virtuelle ?
Nous avons une très forte compétence historique dans le domaine de la 3D. Nos activités liés à la vente et à la rééducation relève toutes deux de ce que l’on appelle à l’heure actuelle les serious game. Les technologies utilisées dans les jeux vidéos peuvent être la source d’une multitude d’applications. Un exemple tout bête, très basique, est celui des applications que l’on trouve sur les sites internet de grandes marques d’ameublement. Ces applications permettent de modéliser son futur salon en y installant virtuellement des meubles. Ces applications sont aujourd’hui très perfectibles. On revient d’ailleurs ici sur la problématique des interactions naturelles. Les grandes enseignes doivent absolument proposer des systèmes qui s’adaptent aux utilisateurs si elles veulent que les applications soit véritablement utilisées, pour in fine, acheter un produit, par exemple. Là encore, les tests avec les gens sont capitaux. Il est indispensable de réussir à rendre l’application réellement utile pour donner envie à la personne de l’utiliser.

Développez-vous des collaborations au niveau national sur certains sujets de recherche en réalité virtuelle ?
Oui . C’est notamment le cas pour les serious game. Nous travaillons avec une PME locale (Idée3com), qui propose des applications pour la vente. Nous travaillons, avec leurs contraintes logicielles, à la proposition de systèmes d’interaction novateurs. D’une manière générale, nous tâchons, aussi souvent que possible, d’adopter une logique open-source. En tant qu’équipe de recherche, et aussi via la volonté politique de l’INRIA, cette logique permet une bonne diffusion des connaissances, sur certains créneaux techniques. Nous avons par exemple proposé un petit module permettant d’utiliser un modeleur de rendu bien connu de la communauté (Blender) aux systèmes multitouch (module BlenderTUIO).

Développez-vous des partenariats avec les industriels ?
Nous n’avons à l’heure actuelle avec les industriels aucun partenariat officiel, mais nous échangeons beaucoup, de manière constructive. Ils sont très intéressés. Beaucoup de métiers liés à la revue de projet et au design notamment, pour qui des dispositifs plus proches de la réalité métier peuvent être d’une grande utilité.Propos recueillis par P.T Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

10 mots pour parler le langage de la réalité virtuelle

Réalité virtuelle (RV)
« La réalité virtuelle est un domaine scientifique et technique exploitant l’informatique et des interfaces comportementales en vue de simuler le comportement d’entités 3D, qui sont en interaction en temps réel entre elles et avec un ou des utilisateurs en immersion pseudonaturelle dans un monde virtuel. »Définition extraite de : TISSEAU (J.), FUCHS (P.) et MOREAU (G.). – Introduction à la Réalité virtuelle. Le traité de la Réalité Virtuelle (3e édition), Fuchs P., Moreau G., Tisseau J. Eds, 3, 3-32 (2006).Les deux notions importantes pour définir la réalité virtuelle sont l’immersion dans un environnement virtuelle et l’interaction avec cet environnement en temps réel.
  • En savoir plus dans la base documentaire Le traitement du signal et ses applications
 

Réalité augmentée (RA)
« La réalité augmentée est un concept rendu possible par un système capable de faire coexister spatialement et temporellement un monde virtuel avec l’environnement réel. Cette coexistence a pour objectif l’enrichissement de la perception de l’utilisateur de son environnement réel par des augmentations visuelles, sonores ou haptiques. L’environnement peut être d’intérieur (« indoor ») ou d’extérieur (« outdoor »). L’utilisateur peut être présent dans l’environnement réel (réalité augmentée en vision directe sur site) ou peut le percevoir à distance (réalité augmentée en vision indirecte généralement hors site). […] Par exemple, la réalité augmentée permet la perception d’indices dans l’environnement (vue par transparence d’un objet modélisé par exemple) que l’utilisateur ne pourrait pas percevoir avec ses propres sens, d’où le terme « d’augmentation ». Cette assistance permet alors à l’utilisateur de réaliser des tâches complexes qu’il ne pourrait mener à bien autrement. »
  • Extrait de la base documentaire Le traitement du signal et ses applications
 

Haptique
Du grec « haptomai » qui signifie « je touche », l’haptique est la science du toucher. Dans le contexte de la réalité virtuelle, les systèmes haptiques visent à offrir à l’homme la possibilité d’interagir complètement avec des objets virtuels, tant d’un point de vue kinesthésique que tactile.
  • En savoir plus dans la base documentaire Innovation Informatique-Electronique-Telecom
 

Système de retour d’effort – © Laval Virtual 2009 / Jean-Charles Druais
 

Cave
Le terme Cave vient de l’anglais Cave automatic virtual environment. Il s’agit d’un environnement de réalité virtuelle immersif avec quatre, cinq ou six écrans plats formant un cube ou partiellement un cube. On parle aussi de visiocube. L’usager peut se déplacer et interagir dans cet environnement en trois dimensions.
  • En savoir plus dans la base documentaire Conception et Production

Personne travaillant dans une usine virtuelle dans la salle de réalité virtuelle (Cave) – © PSA Peugeot Citroën
 

Etat immersif
 L’immersion ou état immersif est un état psychologique dans lequel le sujet cesse de se rendre compte de son propre état physique. Il s’accompagne généralement d’une intense concentration et d’une notion perturbée du temps et de la réalité. Dans le domaine de la réalité virtuelle, on utilise également des systèmes immersifs pour plonger l’utilisateur dans l’environnement souhaité, par exemple grâce à un Cave et des systèmes haptiques.
  •  En savoir plus sur Wikipedia
 

Conception assistée par la réalité virtuelle (CARV)
La conception assistée par la réalité virtuelle (CARV) est le pendant de la CAO à la réalité virtuelle. La réalité virtuelle apporte une nouvelle approche lors de la conception d’un produit : permettre à un utilisateur de tester et de valider le produit, principalement à partir de critères subjectifs (esthétiques, ergonomiques, etc.). Deux fonctionnalités de la CARV sont très intéressantes pour le concepteur :• éviter, partiellement en général, la réalisation de prototypes réels, long à fabriquer et onéreux ;• faire varier des paramètres du produit sur le prototype virtuel pour l’optimiser en tenant compte de critères subjectifs.
  • En savoir plus dans la base documentaire Conception et Production
 

Gant de données
 Egalement appelé gant électronique, gant numérique ou gant sensitif, il s’agit d’un gant comportant des capteurs, permettant de saisir presque naturellement un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. Il est utilisé pour l’interface homme-machine dans la réalité virtuelle.
  •  En savoir plus dans la base documentaire Interfaces de localisation et de commande (chapitre sur les gants de données)
 

Stéréoscopie
La stéréoscopie (du grec stéréo- : solide, -scope : vision) est l’ensemble des techniques mises en œuvre pour reproduire une perception du relief à partir de deux images planes. Elle se base sur le fait que la perception humaine du relief se forme dans le cerveau lorsqu’il reconstitue une seule image à partir de la perception des deux images planes et différentes provenant de chaque œil.

Auto-stéréoscopie
Il s’agit d’un type de représentation d’image en relief ou stéréoscopique ne nécessitant aucun dispositif complémentaire – comme par exemple des lunettes 3D – pour restituer l’effet tridimensionnel. On distingue notamment les principes suivants. Auto-stéréoscopie à réseau lenticulaire : le relief est obtenu par un réseau de micro-lentilles placé à la surface de l’image. Auto-stéréoscopie à barrière de parallaxe : même système que l’auto-stéréoscopie à réseau lenticulaire, le réseau lenticulaire ayant été remplacé par un filtre qui distribue en alternance les points de vue destinés à l’un ou l’autre des yeux.Auto-stéréoscopie à écran holographique : un élément optique holographique est placé devant l’écran de visualisation. Les images pour les deux yeux sont projetées par un projecteur LCD et réfléchies par un miroir sur un écran convexe.
  • En savoir plus sur Wikipedia
 

Métavers
Contraction de meta universe, ce terme provient du roman Snow Crash, en français Le Samouraï Virtuel, écrit par Neal Stephenson en 1992. Il est maintenant largement employé pour décrire la vision qui sous-tend les développements en cours sur les univers virtuels 3D totalement immersifs.
  • En savoir plus sur Wikipedia 
 

Web 3D
Le Web 3D représente l’ensemble des contenus en 3D interactive intégrés à des pages Web. Tout ou partie de la navigation et de la recherche d’information s’effectue dans l’espace 3D, dans le navigateur (sans utilisation d’un autre logiciel).
  • En savoir plus : www.web3d.org 
Pour des traduction en anglais, allemand et espagnol, consultez le lexique des Editions Techniques de l’ingénieur.  Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

Réalité virtuelle : des acteurs plus structurés et mieux positionnés

De grands événements comme Laval Virtual, des associations comme l’AFRV, quelques grands champions comme Dassault systèmes ou PSA… le secteur de la réalité virtuelle (RV) est de plus en plus structuré et visible de l’extérieur. Et il n’est plus question du fameux « retard français ». Petit tour d’horizon des principaux acteurs qui le composent.En amont du secteur, la recherche française est au plus haut niveau, aux côtés des Américains, des Allemands ou encore des Japonais. « Nous disposons d’une force de recherche structurée en matière de réalité virtuelle », explique Guillaume Moreau, maître de conférences à l’Ecole centrale de Nantes, chercheur au laboratoire Cerma (Centre de recherche méthodologique d’architecture de l’Ecole nationale supérieure d’architecture de Nantes) et responsable communication de l’AFRV (voir encadré). Citons notamment les différents laboratoires de l’Inria et du CNRS ou encore le CERV de Brest. (cf. tableau ci-dessous).« La recherche française est visible au niveau international et bénéficie de liens avec les entreprises, indique Pascal Guitton, professeur à l’Université Bordeaux 1, responsable de l’équipe-projet IParla de l’Inria et président de l’AFRV. Depuis cinq ou six ans, les entreprises françaises de réalité virtuelle commencent aussi à être de plus en plus reconnues. » C’est le cas par exemple de Dassault Systèmes, Immersion ou Haption.  

Les principaux acteurs du secteur de la réalité virtuelle en France
Groupe Type Exemples
Entreprises Fournisseurs– logiciels– matériels– services – Dassault System, Immersion, des start-ups, des TPE, des spin-off de l’Inria (Golaem) ou du CEA (Arcure), etc.– Haption (périphérique de retour d’effort)– Consulting : JLX3D
Utilisateurs– grands industriels– quelques petites entreprises– médical– formation – EADS, PSA, Renault, DCNS, SNCF, CEA, Bouygues construction, Saint-Gobain, Renault Trucks, Sogitec, Nexter training, etc.– Archivideo (urbanisme)– Des CHU (rééducation, cyberthérapies)– Nexter training
Laboratoires InformatiqueSciences cognitives – Irisa et Labri (Inria), Ecole des Mines de Paris, CFTB, CERV, Limsi, Ensam de Cluny, Irit– Laboratoire mouvement et perception à Marseille, Institut de cognitique de Bordeaux
Autres secteurs Réalité augmentéeJeu vidéo – Total Immersion– Ubisoft, Blizzard Entertainment (Vivendi games), etc.
Quelques entreprises en pointe
Parmi les entreprises, il faut distinguer celles qui fournissent du matériel, des logiciels ou du service, de celles qui utilisent la RV pour la production ou la formation. Sur le marché des grands systèmes immersifs (centres de réalité virtuelle), trois leaders se sont imposés : Barco (entreprise belge), Immersion (société française créée en 1994) et Antycip Simulation (anglais). « En France, il se vend une dizaine de grands systèmes immersifs par an, note Jean-Louis Dautin qui dirige Clarté (Centre d’étude, de recherche et de conseil auprès des entreprises sur les technologies liées à la réalité virtuelle et à la réalité augmentée). Il y a six ans, il ne s’en vendait que un ou deux par an. » Concernant les systèmes de tracking et d’interaction, il s’agit encore de micromarchés mais qui commencent à se démocratiser. Haption est le seul en France à produire des dispositifs de retour d’effort. Quant au marché du logiciel, il est dominé par Dassault Systèmes avec son logiciel 3DVIA Virtools. « C’est un marché encore peu structuré. Il n’existe pas de normes ni de format de données pour une certaine compatibilité », affirme Jean-Louis Dautin.

Une démocratisation progressive
Globalement, les coûts des équipements ont quelque peu baissé. Grâce à l’industrie du jeu vidéo (lire l’article), la carte graphique est devenue très abordable. « On commence à voir des systèmes qui permettent de créer des solutions à coûts intermédiaires, dans les 2 à 300.000 euros. Le haut de gamme revient à 1 à 3 millions d’euros », remarque-t-il. Parallèlement, les nouvelles technologies ont apporté de nouveaux services plus proches des besoins des entreprises. Les utilisateurs ne sont plus forcément de grands groupes qui peuvent se permettre du sur-mesure. « On passe d’une situation artisanale à une industrialisation de la réalité virtuelle », commente Guillaume Moreau. Lors du salon Laval Virtual, certains industriels étaient présents dans des secteurs jusqu’alors peu intéressés par le sujet. « L’agroalimentaire commence à être concerné, par le biais de la communication et du marketing, mais aussi de l’aménagement des postes de travail », relève Jean-Louis Dautin. Par ailleurs, les sous-traitants de grands groupes, plus ou moins contraints, se mettent également à utiliser la réalité virtuelle. Un effet domino, qui n’en est encore qu’à ses débuts.

Photo vignette : Simulation de tâches d’assemblage (analyse ergonomique physique) sur la plate-forme Rhea de EADS, basée sur 3DVIA Virtools – © EADS
Corentine Gasquet   Une association française pour le secteurL’Association française de réalité virtuelle, augmentée, mixte et d’interaction 3D (AFRV) a vu le jour en novembre 2005. Fondée par une douzaine de chercheurs et de cadres de l’industrie, cette association loi 1901 entend fédérer la communauté française, académique et industrielle, autour de ces thèmes. Forte d’une centaine d’adhérents individuels, d’une vingtaine d’adhésions de laboratoires et d’une vingtaine d’adhésions d’entreprises, elle fédère des entreprises qui cherchent des clients, utilisent des solutions et veulent partager les expériences ou qui n’y connaissent rien mais s’intéressent au sujet. Elle réunit également des représentants d’organisations académiques intéressés par le réseau. Les chercheurs travaillent de plus en plus en mode projet et doivent trouver des partenaires dans le cadre des dossiers de financement de l’ANR. Ils cherchent également à partager leurs avancées et à discuter des projets très en amont. L’AFRV a aussi pour objectif de se faire connaître auprès de certains organismes, comme par exemple l’ANR. Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

Le jeu vidéo, un moteur puissant pour la réalité virtuelle

3,4 milliards d’euros. C’est ce que pèse le secteur du jeu vidéo en France, d’après une étude de PriceWaterhouseCoopers (juin 2009). L’Hexagone demeure ainsi le deuxième producteur de contenus derrière le Royaume-Uni. Au niveau mondial, le chiffre d’affaires du jeu vidéo atteignait 36,5 milliards d’euros en 2008. Après de très fortes croissances (environ 25 % par an en 2007 et 2008), les hausses devraient se limiter à 7 % par an d’ici à 2013. Le secteur de la réalité virtuelle est encore très loin d’une telle industrialisation.« 100 à 150 ingénieurs travaillent sur un jeu pendant trois ou quatre ans », explique Jean-Louis Dautin qui dirige Clarté (Centre d’étude, de recherche et de conseil auprès des entreprises sur les technologies liées à la réalité virtuelle et à la réalité augmentée). Un tel investissement doit se traduire par des millions de ventes pour être rentable. Au contraire, le marché de la réalité virtuelle pour les professionnels est constitué de micromarchés avec pour l’instant des applications dédiées qui atteignent au maximum dix exemplaires, ou qui se limite le plus souvent au sur-mesure. Cependant, les deux communautés ont des intérêts communs, notamment en matière de recherche.

Des systèmes plus astucieux
Le marché énorme du jeu vidéo a permis de réduire les coûts du matériel de réalité virtuelle. « Le jeu vidéo est un des moteurs pour la réalité virtuelle, grâce, par exemple, à la diffusion rapide des cartes graphiques », explique Pascal Guitton, professeur à l’Université Bordeaux 1, responsable de l’équipe-projet IParla de l’Inria et président de l’AFRV. On peut aujourd’hui faire de la réalité virtuelle avec un simple PC, alors qu’il fallait des machines de l’ordre de 150.000 euros auparavant. Idem, les techniques d’éclairage du jeu vidéo ont apporté beaucoup à la réalité virtuelle. Pour la recherche académique, les jeux vidéo peuvent constituer une source de créativité. « Les jeux vidéo utilisent des systèmes moins évolués mais plus astucieux. Ils font des raccourcis intéressants », indique Guillaume Moreau, maître de conférences à l’Ecole centrale de Nantes, chercheur au laboratoire Cerma (Centre de recherche méthodologique d’architecture de l’Ecole nationale supérieure d’architecture de Nantes) et responsable communication de l’AFRV.

Les serious games à la frontière entre les deux mondes
Pour l’instant, les deux communautés restent relativement distinctes. « Le jeu vidéo forme un monde très fermé avec un fort degré de confidentialité car très concurrentiel », commente Pascal Guitton. « Le monde du jeu vidéo est très à cheval sur ses technologies alors que le monde de la réalité virtuelle industrielle est très à cheval sur ses données », affirme pour sa part Jean-Louis Dautin. Cependant, les marchés et les opérateurs pourraient bien se rapprocher, notamment avec le développement des serious games. D’un côté la RV se démocratise. De l’autre, les acteurs du jeu vidéo se rendent compte que de nouveaux marchés s’ouvrent à eux. Les entreprises de jeu vidéo sont de plus en plus souvent associées à des projets de recherche, qu’elles financent en partie. Ainsi, le projet OpenVibe 2 réunit de nombreux partenaires, dont l’Irisa de Rennes, Clarté et Ubisoft. Le logiciel OpenVibe permet de concevoir et d’utiliser des interfaces cerveau-ordinateur (ICO) (lire l’article). Dans OpenVibe 2, les chercheurs cherchent à analyser l’activité cérébrale et à détecter sa concentration grâce à des capteurs. « Cela pourrait devenir une donnée dans un jeu vidéo, en introduisant par exemple un degré de difficulté ou de facilité selon le niveau de concentration », détaille Jean-Louis Dautin. D’où l’intérêt d’Ubisoft pour ce projet. « Un organisme médical est aussi associé pour utiliser le même principe pour rééduquer les enfants hyperactifs grâce à un serious games« . Sur un même projet, chercheurs académiques et ingénieurs du secteur des jeux vidéo travaillent ensemble, tout en ayant des objectifs presque contradictoires.Corentine Gasquet Sommaire du Cahier Réalité virtuelle > A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

La réalité virtuelle dans l’industrie : développement des produits et des processus

L’objectif de ce dossier est de dresser un état des lieux de l’utilisation des technologies de la réalité virtuelle dans l’industrie manufacturière, pour des usages de développement des produits ainsi que des processus et procédés industriels de fabrication de ces produits.Pourquoi l’industrie s’intéresse-t-elle aux technologies de la réalité virtuelle pour ses activités de conception ? Comment et dans quelles conditions ces technologies y sont-elles mises en œuvre ? Pour ce qui est des motivations d’usage, il faut aller chercher une bonne partie de la réponse du côté de ce qu’on appelle la maquette physique. Certes, elle est est le point de rendez-vous incontournable des équipes de conception et de développement. Mais elle présente de graves défauts sur chacun des sommets du fameux triangle : coût, délai, prestations. C’est pourquoi l’industrie, qui fait appel massivement au numérique, entrevoit dans la réalité virtuelle un axe ultime permettant de tirer tous les bénéfices de l’investissement numérique des bureaux d’études.Pour ce qui est des outils, force est de constater que l’industrie a su s’emparer de toute la panoplie des instruments de réalité virtuelle développés dans les laboratoires de recherche français et étrangers.Panorama des pratiques via quelques exemples majeurs.

L’AUTEUR
Jean LORISSON, Ingénieur Arts et Métiers, Directeur société V + R Conseil, ancien responsable de la réalité virtuelle de PSA Peugeot Citroën et cofondateur de l’Association Française de Réalité Virtuelle.Télécharger l’intégralité de l’article Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

« Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle »

Responsable d’une équipe de recherche sur l’usage industriel de la réalité virtuelle (RV), François Guillaume revient sur l’utilisation de la RV par EADS. Principal avantage de cette technologie, elle permet d’introduire l’humain dans le produit virtuel.

Techniques de l’ingénieur : Chez EADS, comment utilisez-vous la réalité virtuelle ?
François Guillaume :  » Nous l’utilisons principalement pour la conception de produits. Nous déterminons des plate-formes qui répondent aux besoins des ingénieurs dans le cadre de leurs projets. Nous intervenons à toutes les phases, de l’avant projet à la conception de la chaîne de montage. Nous n’y avons pas recours pour la formation car le coût des systèmes est encore trop élevé.

Comment évolue votre utilisation de la réalité virtuelle ?
Nous sommes à un tournant. Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle. Aujourd’hui, les ingénieurs sont demandeurs, la technologie répond bien à leurs besoins, elle est plus accessible financièrement et plus simple. Chez EADS, les temps de cycle sont longs. Par exemple, nous lançons un nouvel avion tous les 4 ou 5 ans. Or il y a 4 ou 5 ans, la RV était encore assez confidentielle. Cependant, tous les nouveaux produits ou les projets en cours expriment des besoins de RV. A ma connaissance, six ou sept produits majeurs, c’est-à-dire des programmes pour des avions ou des hélicoptères, se servent en ce moment de la réalité virtuelle.

De quel matériel disposez-vous ?
Nous possédons des grands écrans de 6 mètres de large et de 3 mètres de haut, avec un son stéréo, des systèmes de capture de mouvement et des casques de RV. En Allemagne, nous avons un Cave mais il sert surtout pour la communication et le marketing. Notre plate-forme s’appelle Rhea, elle est basée sur 3DVIA Virtools. Nos outils permettent de faire abstraction de la technologie, les ingénieurs qui travaillent avec ces outils ne sont pas des spécialistes.

Quels sont les avantages de la réalité virtuelle ?
Le principal avantage est de pouvoir injecter l’homme dans le produit virtuel. Tous nos produits sont conçus à l’aide de maquette numérique et de CAO. On perd donc le contact physique. Grâce à la RV, on peut construire un espace immersif pour se confronter au produit à l’échelle 1 et pour tester l’ergonomie de manière très simple avec des boucles très courtes. On peut rajouter des comportements, faire bouger des éléments. Deuxième avantage, on peut comparer différentes solutions. Auparavant, nous choisissions une ou deux solutions pour réaliser une maquette physique et cela prenait du temps. Aujourd’hui, nous pouvons tester quinze configurations en parallèle, assez loin dans le processus, sans coûts supplémentaires. Cela laisse plus de choix. On amortit très vite le coût du système. La maquette physique coûte cher, elle est partielle et longue à concevoir, donc rarement à jour.

Mise en contexte du produit pour étudier l’ergonomie visuelle d’un cockpit lors des phases d’atterrissage et de décollage, plate-forme Rhea, EADS – © EADS
Réalisez-vous toujours des maquettes physiques ?
Oui, les deux sont complémentaires. Nous avons aussi recours à la réalité augmentée. Nous réalisons une maquette physique partielle avec quelques éléments de base déjà validés, puis nous faisons évoluer le reste grâce à la réalité virtuelle.

Quels sont les inconvénients de la réalité virtuelle ?
Nous ne disposons pas de beaucoup de retours d’expérience. Il est donc parfois difficile de convaincre les directeurs de programme. Le ticket d’entrée est élevé et le retour sur investissement difficile à calculer faute de données. Une plate-forme revient à environ 200.000 euros, mais le coût le plus important, ce sont les hommes.

Quelles sont les limites ?
L’haptique sur le corps complet n’est pas possible pour l’instant. Par ailleurs, concernant le comportement des objets, nous avons besoin de modèles plus complexe, sur la flexibilité par exemple. L’éclairage constitue une autre limite. Par exemple, on ne peut pas étudier la visibilité d’un objet dans une soute avec un éclairage particulier. La réalité virtuelle est un outil qui permet des analyses sur ce qui est centré sur l’humain. Mais on ne peut pas tout valider en virtuel. Pour l’insertion d’une vis dans un trou, ce n’est pas forcément intéressant !Propos recueillis par Corentine Gasquet ParcoursFrançois Guillaume est ingénieur de recherche au sein de EADS innovation works. Il est en charge de l’équipe de recherche traitant de la thématique « Maquette numérique et réalité Virtuelle pour les processus industriels ». Ces principaux travaux de recherche actuels portent sur la mise en œuvre de mannequins virtuels pour les métiers de l’engineering et l’utilisation de l’haptique pour l’interaction avec de l’homme avec les environnements virtuels complexes. Il est co-fondateur et membre du conseil d’administration de l’Association française de la réalité virtuelle Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Quand la formation se décline au virtuel : l’exemple de GVT

GVT, generic virtual training, la solution de Nexter training, est né d’un besoin de l’armée de terre pour la maintenance du char Leclerc. « La réalité virtuelle nous a permis de proposer une solution plus économique avec un niveau de qualité relativement identique », explique Jean-François Pellarin, directeur général de Nexter training, filiale de Nexter, détenue par Giat Industries. Car le réel coûte cher, en immobilisation de matériel et en entretien, surtout lorsqu’il s’agit d’un char. « Au delà, la réalité virtuelle présente un deuxième avantage : celui de limiter le risque d’accident », continue-t-il. Par ailleurs, cette technologie est particulièrement bien adaptée aux jeunes diplômés ayant une culture du jeu vidéo. Les modules de formation se rapprochent de plus en plus des serious games. Depuis l’armée de terre, l’utilisation de la réalité virtuelle dans la formation a fait bien d’autres adeptes. Ainsi, en 2009, Nexter training a-t-il enregistré une hausse de 50 % de son chiffre d’affaires dans le domaine civil, grâce aux commandes de neuf nouveaux clients. Cette solution s’applique essentiellement à des process industriels (voiture, train, métro, avion, centrale nucléaire…). GVT est par exemple utilisé par la SNCF pour un module de formation sur la maintenance du « système WC eau claire » du TGV, ce qui lui a d’ailleurs valu de remporter le trophée de l’innovation du salon Laval Virtual (lire l’article). La solution intéresse également des organismes de formation qui commencent à étudier de près les technologies de réalité virtuelle. Les outils deviennent en effet plus accessibles financièrement. Ainsi, pour des scénarios simples, le coût de GVT est d’environ 10.000 euros. Quant au matériel nécessaire, selon les besoins, il peut se limiter à un simple PC. Reste qu’il faut réussir à intégrer avec cohérence ce type de solution dans l’ensemble de l’offre de formation d’une entreprise. GVT a été optimisé pour un apprentissage à la fois en matière de savoir (connaissances), de savoir-faire (maintenance, mise en œuvre) et de savoir-être (formation collaborative avec plusieurs personnes ensemble, y compris des personnes virtuelles). « Nous avons beaucoup travaillé la pédagogie avec des universitaires partenaires », indique Jean-François Pellarin. Ce qui est générique, c’est en effet le moteur pédagogique, la façon dont l’instructeur intervient ou encore la mémorisation des tâches.  En matière de formation, la question de l’efficacité fait l’objet de nombreuses recherches (lire l’article). Apprend-on aussi bien en virtuel qu’en réel ? Cela dépend bien sûr des objectifs de la formation. On peut devenir un grand pilote de Formule 1 sur un simulateur, on ne saura pas pour autant conduire en réel. Concernant GVT, Nexter training a mené un projet de recherche en partenariat avec l’Enib de Brest, qui fera l’objet d’une publication. Il s’agissait de déterminer si la formation avec GVT valait une formation classique. Pour cela, les chercheurs ont réuni deux populations d’intérimaires dans le domaine de la mécanique, non spécialistes, ayant un niveau Bac / Bac+2. 42 intérimaires ont été répartis en deux groupes de 21. Un groupe a reçu une formation sur un outillage complexe du char Leclerc de deux heures sur PC avec GVT. L’autre groupe a suivi un cours traditionnel, c’est-à-dire une formation avec des instructeurs sur matériel réel, pour un total de deux heures également. Chaque personne a ensuite réalisé une tâche en individuel sur du réel, avec contrôle des temps, le tout filmé. « Les temps de réalisation ont été presque les mêmes et la qualité des prestations sensiblement égale », conclut le directeur général. En matière de recherche, Nexter training travaille actuellement sur le collaboratif, le tutorat et l’utilisation d’humanoïde. C.G.

Images © Nexter training
 Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Réalité virtuelle et conception : méthodes

Les technologies de la réalité virtuelle apportent aux entreprises la maîtrise du temps réel et ouvrent de nouvelles perspectives :

  • Tests et essais impossibles à réaliser dans le monde réel ;
  • Multiplication des choix, des architectures, des combinaisons, des couleurs ;
  • Intégration des utilisateurs finaux dans l’équipe de conception (grâce à la simulation interactive, ils peuvent évaluer le futur produit) ;
  • Mise en scène des produits dans différents environnements ;
  • Ingénierie collaborative avec d’autres métiers, d’autres cultures ou d’autres pays avec un langage de travail commun : l’image interactive.
Tous les secteurs de l’industrie sont concernés : bâtiment, automobile, médecine, ingénierie, commerce, aéronautique, pétrole, etc. Le développement des réseaux d’échange d’informations autour de l’Internet est aussi un formidable média de développement de ces technologies.Mais comment se passe le développement d’un projet de réalité virtuelle dans une entreprise ? Quels sont les apports de la conception assistée par la réalité virtuelle et comment s’intègre-t-elle dans l’organisation de l’entreprise ? Quels sont les problèmes techniques à résoudre ? Existe-t-il des méthodologies pour conduire de tels projets ? Le point.
LES AUTEURS
Philippe FUCHS, Maître assistant à l’École des mines de Paris (EMP), Équipe Réalité virtuelle et réalité augmentée, centre de robotique, EMP ; Simon RICHIR, Ingénieur Arts et Métiers, Maître de conférences, ISTIA Innovation, université d’Angers.Télécharger l’intégralité de l’article Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

Prototypage virtuel d’une usine pétrochimique

Le prototypage virtuel est de plus en plus utilisé dans des domaines tels que l’automobile ou la construction. Gain de temps, d’argent et de main d’œuvre, las avantages de cette technique sont nombreux. Voyons concrètement comment le prototypage virtuel est utilisé au sein du bâtiment, avec l’exemple d’un projet de construction d’une usine pétrochimique.

Anne Pouliquen, Ingénieur Civil de l’Ecole Nationale des Ponts et Chaussées, est également Directeur du Département Installation, Civil, Matériel & Matériaux Technip France. Elle coordonne des études avec les centres d’opérations et d’ingénierie du groupe Technip. Fortement impliquée dans la réalisation de plusieurs projets, dirigeant plusieurs disciplines d’Etudes, Anne Pouliquen a développé une bonne connaissance des processus de l’ingénierie pétrolière, des interfaces entre intervenants, des outils de calcul et de conception, et du travail à distance entre différents centres du groupe Technip.

Au niveau de la construction, le prototypage virtuel intervient pour trois raisons. « Tout d’abord, Le virtuel et la modélisation sont des outils de calcul », précise Anne Pouliquen. Habituée à travailler pour des installations situées dans le Moyen Orient, elle travaille souvent sur des projets où tout est à faire (voir photo ci-dessous) : « D’un côté nous avons un site vierge qui nous est confié par le client (très souvent situé au Moyen Orient). Ces sites sont souvent situés en milieu désertique, sans moyen d’accès ni par la route, ni par voie portuaire. La plupart du temps également, il n’y a ni eau ni électricité. D’un autre côté, nous avons signé un contrat. Nous avons donc un planning contractuel, qui s’étend en général sur une quarantaine de mois. Dans cette période, nous devons construire pour le client une usine qui tourne et qui produit selon les exigences du client. Dès la signature du contrat, c’est une très grosse machine qui se met en branle ».

medium

L’exemple classique est un site en plein désert, où Technip est chargé de construire des usines. « Il nous arrive de devoir construire des installations portuaires avant toute chose, quand ces dernières ne sont pas préexistantes. La mise en place de ces infrastructures est nécessaire, puisque le transport des hydrocarbures se fait par bateau ou par pipeline », ajoute Anne Pouliquen.
Avant de commencer les travaux, une modélisation virtuelle de l’usine terminée est réalisée. Cette modélisation permet au client de visualiser en amont les contraintes (environnementales par exemple) auxquelles il sera confronté pour faire tourner son usine. Cela permet ainsi au client d’envisager à l’avance les contraintes d’exploitation.
Pour résumer, les moyens à mettre en œuvre sont conséquents, que ce soit au niveau des ressources humaines, de l’organisation du projet ou encore de la mise en marche du planning. Mais Technip s’appuie donc également sur des outils de calcul, de modélisation virtuelle, qui vont intervenir :

  • pour les calculs ;
  • pour la modélisation virtuelle de l’usine ;
  • pour le travail en réseau ;
  • pour la construction.

Les calculs interviennent dans les procédés, dans la définition des équipements, et au niveau des calculs de flexibilité de tuyauterie. Tous ces calculs sont le fruit du travail des ingénieurs. Anne Pouliquen explique : « sur un projet d’usine pétrochimique, nous allons utiliser pour ces calculs plus d’une centaine de logiciels différents. Ainsi, au niveau des procédés, qui traduisent le besoin exprimé par le client, des logiciels vont nous permettre d’anticiper chaque étape de la transformation chimique, en modélisant pour ces étapes des données comme la pression et la température des fluides par exemple. Cela permet d’étudier le comportement des fluides dans les cas critiques pour optimiser les équipements de tuyauterie critiques ».

C’est la CFD (Computage fluid dynamics) qui va permettre de modéliser le comportement dynamique des fluides au cours de leur transformation en usine. Un exemple avec la photo ci-dessous à gauche. Il est impératif de définir précisément la forme d’un des appareils utilisé au sein de l’usine, par la technique du maillage. Plus le nombre de mailles est important, plus la modélisation est fine. Ensuite, on simule l’entrée d’un fluide dans cet appareil, ici un hydrocyclone, et la CFD opère des calculs sur chaque maille (l’hydrocyclone est modélisé par 388.000 mailles dans le cas présent). Ici, le but est de faire passer un fluide par la tubulure horizontale. A l’entrée dans l’appareil, le gaz contenu dans le fluide doit aller vers la sortie (en haut), tandis que les particules non désirées, plus lourdes, sont récoltées au fond. Le résultat de la simulation est illustré par la photo ci-dessous à droite.

medium

medium

Une fois la mise en place définitive des procédés, les résultats sont transmis vers les ingénieurs mécaniciens, qui vont devoir réaliser les appareils, avec le souci que ces appareils fournissent les performances définies à travers les procédés. « Là encore, on utilise des logiciels de modélisation pour valider le choix des ingénieurs, valider la durée de vie des appareils, leur performance. D’autres logiciels vont nous permettre de vérifier que les appareils sélectionnés pour la construction de l’usine vont avoir des caractéristiques particulières, comme la résistance au vent pour les appareils de grande taille. La résistance aux séismes est aussi quelque chose que l’on modélise, selon l’emplacement géographique de l’usine. Une fois que tout cela est modélisé, on extrait de la modélisation des plans, et ces plans vont nous permettre de consulter des fournisseurs d’abord, puis d’acheter l’équipement. Ces appareils sont très couteux, et sont livrés parfois plusieurs dizaines de mois après commande. Dans l’optique de réalisation d’une usine en quarante mois, il est donc appréciable de pouvoir faire ces calculs de besoin le plus rapidement possible ».

Enfin, au niveau du choix des tuyauteries, fondamental étant donné la nature chimique des fluides avec lesquels Technip travaille, les ingénieurs modélisent également par logiciel les contraintes auxquelles elles seront soumises selon différents cas de charge. Le logiciel Cesar, le plus utilisé pour ces problématiques, permet de simuler des cas de surpression, de sous-pression, sur la tuyauterie. Les résultats de cette modélisation vont fournir les données permettant ensuite de valider l’épaisseur des tuyaux et la pertinence de leur emplacement. Ce logiciel permet également de modéliser la tuyauterie au sein de la maquette principale de l’usine.
Il est pertinent de s’attarder sur le modèle 3D utilisé. Il s’agit d’un reflet de la réalité future, dans le sens où il est dimensionné à l’échelle. Mais c’est également un modèle dit intelligent : en effet, tous les éléments qui constituent la modélisation ne sont pas des images, chacun étant répertorié dans une base de données commune au projet qui répertorie tous le matériel autorisé sur le contrat.

La mise en œuvre de la modélisation

« Pour modéliser, on part du plus gros vers le plus petit. On va donc commencer par modéliser les plus gros équipements, pour être certain que l’espace nécessaire à leur installation est suffisant. On va ensuite modéliser les plus grosses structures, puis les plus gros tuyaux, en allant vers le plus petit. Les maquettes 3D ne sont pas une nouveauté. Cela fait longtemps que l’on fait du modélisme. Aujourd’hui, la modélisation a progressé, pour aller vers le prototypage virtuel en trois dimensions ».
Pour illustrer cette avancée, voyons l’exemple de la modélisation d’une plate-forme off shore. Après avoir modélisé la structure et les appareils, un avatar, dimensionné de façon adéquate, va pourvoir arpenter la station virtuelle et nous donner des informations quant à l’accessibilité des appareils, par exemple.

Ensuite, on ajoute au modèle la charpente secondaire, qui n’a aucun rôle de soutien, mais qui va servir au déplacement du personnel au sein de la station. La structure de la station et la charpente secondaire vont être modélisés dans des couleurs différentes, car les informations relatives à ces deux parties de la station sont répertoriées dans des fichiers différents : cela permet d’avoir des informations partielles sur les structures, indépendamment les unes des autres.

Les étapes suivantes (voir les deux photos ci-dessous, à différentes étapes de la modélisation) vont permettre d’installer les structures suivantes (charpente tertiaire, bardage, appareils secondaires, tuyaux…). Chaque discipline a une couleur différente. Toutes les disciplines vont donc pourvoir travailler de façon autonomes les unes par rapport aux autres. Cependant, cette autonomie est relative, sachant que chaque décision a des répercussions immédiates sur les décisions des autres disciplines, en termes d’aménagement. Il faut une coordination de tous les instants, car les différentes disciplines sont obligées de travailler sur un espace réduit.

medium

medium

A chaque étape de la construction virtuelle, il est nécessaire de vérifier que l’avatar peut se déplacer dans l’usine et y effectuer les travaux d’usage avec un espace de manœuvre suffisant.
Une fois la maquette finie, on a de 20.000 à 30.000 tonnes de matériel modélisé, que l’on peut traiter séparément à travers le logiciel de modélisation.

Anticiper les étapes de la construction grâce au prototypage

L’utilité du modèle 3D pour les ingénieurs est de plusieurs types :

  • L’ensemble de l’usine est représenté en un seul endroit : modèle commun toutes disciplines, consultable à tout moment, et offrant une vision d’ensemble de la structure ;
  • Il reflète les évolutions des études : dimensions d’équipements, conséquences des calculs, changements de clients ;
  • Il permet d’anticiper la construction ;
  • Il facilite les revues d’opération et de maintenance avec le client ;
  • Il possède une fonction d’extraction des plans ;
  • Il est la source des listes de matériel pour achat ;
  • Il autorise le travail en multi-centre ;
  • Il fournit une aide à la détection des interférences.

« Le problème des interférences est d’ailleurs un enjeu très important. Les équipes travaillant séparément, il peut arriver que du matériel différent soit placé par deux équipes au même endroit sur le prototype virtuel. Le fait de travailler en virtuel permet de corriger ces erreurs simplement », précise Anne Pouliquen.

Le travail en multi centre est également une source de gain de temps et d’argent : « nous avons l’habitude de partager un contrat en plusieurs entités. Ainsi, plusieurs centres géographiquement éloignés vont pouvoir travailler sur un même prototype numérique, sans problème. Régulièrement, on réplique le modèle numérique de la structure pour mettre à jour toutes les modifications réalisées dans les différents centres. Cela implique des canaux de communication performants entre les différents centres. Grâce à tous ces outils, et aux outils de communication moderne, le soleil ne se couche jamais sur notre projets ».

Par P.T

 

Pour comprendre et gérer la sécurité

Le CNPP (Centre national de prévention et de protection) qui a pour vocation de développer, diffuser et évaluer les connaissances et savoir-faire en matière de sécurité des personnes, du patrimoine matériel et immatériel et de l’environnement, dans toutes les activités et tous les milieux, vient de publier un nouvel ouvrage  » La fonction sécurité : Guide pour la gestion de la santé, de la sécurité, de la sûreté et de l’environnement. « Ce livre de quelques 480 pages a été conçu pour aider et renseigner tous ceux qui ont des missions relatives à la sécurité des biens et des personnes dans une entreprise ou un organisme, qu’ils soient chargés du service sécurité, chefs d’entreprises (PMI et PME), responsables de formation, responsables de travaux ou de services généraux, membres d’un CHSCT ou impliqués d’une manière ou d’une autre dans la sécurité de leur entreprise.Pratique, concret et facile à consulter, ce guide permet de comprendre les principes de la gestion de la sécurité qui fournit des outils pour construire sa propre poli¬tique ainsi que des informations sur les réglementations applicables.Très transversal, il est articulé autour de dix parties qui permettent d’appréhender l’ensemble des questions relatives aux risques d’accidents lors des travaux et déplacements, à la lutte contre la malveillance, à la prévention des risques pour l’environnement, à l’emploi de produits dangereux, aux risques routiers et à la sécurité incendie.Les aspects financiers (diminution des coûts entraînée par une politique de sécurité efficace) et juridiques (responsabilités pénales et civiles) sont également traités en détail.

Des prototypes en couleur avec une imprimante 3D

L’excellence en matière de conception est un objectif majeur pour le groupe Cisco Consumer Business Group (produits électroniques grand public). Aussi la société a-t-elle récemment établi un Centre de Conception européen à Copenhague, au Danemark. Ici, elle poursuit la vénérable tradition de la conception scandinave : fonctionnalités, simplicité, prix abordable et esthétique de conception. Cette tradition impose que l’ingénieur tienne son prototype entre les mains, qu’il en sente physiquement les proportions et qu’il s’assure que la forme s’adapte parfaitement à la fonction.Les prototypes traditionnels sont longs à fabriquer et leur création est coûteuse. La plupart des technologies de prototypage rapide automatisé reviennent tout aussi cher et la réalisation des modèles doit être externalisée, ce qui allonge donc les délais et complique le procédé. Et, bien que de nombreux concepteurs se fient à des images écran 2D et à elles seules, elles sont tout simplement insuffisantes pour créer la qualité que le groupe Cisco Consumer Business Group exige. Le défi, par conséquent, est de maintenir les normes esthétiques les plus élevées tout en respectant les dates limites dans le marché hautement compétitif de l’électronique.Pour atteindre ces objectifs, Cisco a fait appel à la technologie d’impression 3D de Z Corporation qui l’aide à créer rapidement et de façon peu coûteuse le modèle dont la société a besoin. Une imprimante ZPrinter 450 crée des objets physiques à partir de données de conception assistée par ordinateur 3D d’une façon très similaire à celle dont une imprimante 2D de bureautique (elle produit des prototypes en l’espace de quelques heures au lieu de semaines, pour un cinquième du coût).

« Nous obtenons des prototypes dans des délais très courts »
Surtout, Z Corp. est la seule société à fabriquer une imprimante 3D capable d’imprimer plusieurs couleurs simultanément. Or, la couleur est essentielle pour bien visualiser l’aspect des modèles.  » Il est surprenant de voir comment mon équipe est capable de transformer les boîtiers monochromes d’antan, déclare Eskild Hansen, chef du centre européen de conception de Cisco. Comme la conception est très importante, l’impression 3D est un élément primordial de notre stratégie de développement de produits. »Cisco utilise la ZPrinter 450 pour créer 10 modèles par semaine en moyenne, à partir de fichiers CAO 3D sous SolidWorks soumis par les concepteurs de Cisco de par le monde.Les concepteurs se partagent les modèles projets, ils les marquent au crayon, révisent les conceptions sous le logiciel SolidWorks, impriment de nouveaux modèles et répètent le cycle en fonction des nécessités. L’étape de test « grandeur nature » est une nécessité absolue, selon Eskild Hansen, qui précise :  » Nous obtenons des prototypes dans des délais très courts, nous les peaufinons rapidement, nous en créons de nouveaux et nous adaptons ainsi la conception de nos produits. »Par Marc Chabreuil

Consommation d’énergie réduite de 27 % grâce à un variateur de vitesse

Comment réduire la facture énergétique d’une chaîne de machines de moulage par injection ? Tel était le problème auquel était confronté le premier fournisseur européen d’emballages en plastique rigide fournissant une gamme de bouteilles et de bocaux à large ouverture en polyéthylène téréphtalate (PET) pour l’agroalimentaire. Celui-ci devait en effet contourner une contrainte majeure.  » Ses machines de moulage par injection-étirage-soufflage étaient actionnées par des pompes hydrauliques dont les moteurs étaient réglés à une vitesse constante afin de répondre à la demande hydraulique maximale, correspondant aux étapes du procédé où les moules s’ouvrent et se ferment. Mais ce système était inefficace car la consommation d’énergie restait constante (et élevée) alors que la puissance véritablement appelée fluctuait « , explique Stephen Anderson, directeur de Proplas, une société anglaise qui aide les entreprises à renforcer leur efficacité et à élaborer des projets d’économie d’énergie, particulièrement dans le domaine des machines de moulage par injection de tous types. La solution proposée par Proplas consistait à équiper les moteurs des pompes de variateurs de vitesse Allen-Bradley PowerFlex 700 de Rockwell Automation qui offrent deux vitesses de fonctionnement prédéfinies : une vitesse supérieure lorsque la demande hydraulique est maximale (à l’ouverture et à la fermeture des moules), et une vitesse inférieure pendant les périodes de moindre demande.  » Nous avons effectué un certain nombre d’essais avec la société afin de démontrer le potentiel de ce système. Et nous l’avons convaincue que d’importantes réductions de la consommation d’énergie et des coûts associés étaient réalisables, indique Stephen Anderson. On nous a alors demandé d’installer des variateurs sur 13 des machines de moulage par injection-étirage-soufflage de la société. «  » Dans cette application, la question du couple disponible était primordiale. En effet, la demande de couple se caractérise par des pics qui peuvent faire disjoncter de nombreux variateurs précise Stephen Anderson. Les variateurs PowerFlex ont développé dans l’application réelle le même couple que celui prévu sur la fiche technique. Ceci nous a permis d’opter pour un produit moins consommateur d’énergie sans crainte de disjoncter ou de faire caler le moteur. Nous avons ainsi pu réduire encore davantage les coûts énergétiques du client. » Rockwell Automation a d’ailleurs aidé Proplas à exploiter au mieux ses ressources en collectant et en analysant de façon efficace les données, et en corrigeant rapidement les inefficacités et les erreurs.Pour le client, ce projet a représenté d’importantes économies d’énergie. La consommation électrique de chaque machine avant modification était de 40kW. L’installation des variateurs a contribué à la réduire à 11kW. Si l’on considère que chaque kilowatt représente une économie de 500 livres sterling, le projet représente pour le client une économie de plus de 5.000 livres sterling par machine, avec un retour sur investissement de 14 mois seulement.Par Marc Chabreuil

L’industrie mondiale des composites : structure, tendances et innovation

Selon le groupe JEC, qui vient de publier l’étude  » The worldwide composites industry : Structure, Trends and Innovation « , la croissance des volumes de l’industrie des composites est directement liée à l’augmentation du PNB des différents pays. Ces 50 dernières années, l’industrie mondiale des composites a enregistré un taux de croissance annuel moyen d’environ 8 % en volume. Cette rapide progression repose principalement sur la force d’innovation du secteur. Des innovations toujours plus nombreuses qui ont permis à l’industrie des composites de s’imposer sur de nouveaux marchés et de s’y développer plus rapidement que les applications industrielles classiques. Parallèlement, les composites prennent le pas sur un nombre croissant de matériaux en raison de leur légèreté, de leur résistance et des autres avantages qui font leur compétitivité. Au delà, l’étude du groupe JEC fait ressortir que les matériaux composites s’ouvrent à de nouveaux challenges. Notamment en termes de suivi et d’évolution des matériaux. La création de matériaux intelligents, capables de générer une évaluation de leur état et d’auto-réparer les éventuels dommages subis serait une étape majeure dans le développement des marchés composites. La Nasa a, par exemple, développé des prototypes de matériaux composites capables de résoudre eux-mêmes des problèmes de déformation, de fissures ou encore de délaminage. Une fois activée par la chaleur, l’effet mémoire de la structure du polymère entre en action et lui permet de retrouver sa forme initiale et de combler lui-même ses brèches. La question du recyclage de ces matériaux ouvre aussi une nouvelle voie de recherche et d’innovation.

Innovation et réglementation tirent le marché
L’industrie des composites a commencé à se développer à la fin des années 30, sous l’impulsion d’innovations marquantes telles que les premières fibres de verre, puis dans les années 50, avec les premières fibres de carbone. De nouvelles innovations majeures tirent aujourd’hui la croissance du marché, apportant des améliorations techniques, économiques et qualitatives tout au long de la chaîne de valeur. L’économie mondiale traverse actuellement une grave crise dans toutes les régions du globe. Cependant, malgré un contexte économique peu favorable à la croissance, le marché des composites reste un marché en pleine expansion, notamment du fait de nouvelles régulations vertes, et surtout, grâce à sa capacité à innover pour répondre aux besoins d’un marché toujours plus exigeant en termes de ratio coûts/qualité/durabilité. L’industrie des composites poursuivra sa croissance à un rythme soutenu sur le long terme.“L’importance du marché des composites dans un pays dépend principalement de son niveau de développement économique. Par exemple, le volume des composites aux Etats-Unis est autour de 9 à 10 kg par habitant, contre 3 à 6 kg dans les autres pays occidentaux et est le même, voire inférieur à 2 kg, au Brésil, en Russie, Inde et Chine. Les composites ont un bel avenir dans ces pays ! « , indique Frédérique Mutel, Présidente-Directrice-Générale de JEC. Toutefois,  » l’Europe a le plus haut taux d’automatisation : 83 % des procédés en Europe contre 68 % en Asie par exemple. La technologie européenne est largement représentée sur JEC avec une augmentation importance des exposants dans le domaine des logiciel européens et des entreprises spécialisées dans les solutions d’automatisation et de robotique « , poursuit-elle.Pour la période 2009 – 2014, le groupe JEC prévoit :l’expansion du marché asiatique : les marchés composites indiens et chinois voient leurs industries en forte progression à travers le développement d’industries locales et le soutien de firmes internationales. Ils investissent donc dans des centres de recherche et de développement des matières composites ; la croissance mondiale du marché éolien : il représente à lui seul 5 % du marché des composites et est apparu comme l’un des marchés les plus positifs en terme de croissance durant la dernière décennie avec une croissance en volume d’en moyenne 10 % par an. Cette progression est due notamment au développement de nouvelles règlementations vertes ; la poursuite de la pénétration des matériaux composites dans le secteur aéronautique : le souci d’allégement favorisera le développement de nouveaux appareils commerciaux contenant une plus forte proportion de composites (l’industrie aérospatiale devrait ainsi connaître une croissance de 11 % par an en volume entre 2009 et 2014).

La modernisation du poste de travail : un enjeu grandissant

Le poste de travail est plus que jamais au centre de toutes les attentions au sein des directions des systèmes d’information. En effet, véritable outil stratégique, il est au cœur des processus d’échanges et de travail dans l’entreprise. En ce sens, il doit permettre d’être toujours plus productif et réactif. Oui mais voilà, force est de constater qu’il est également un mauvais élève sur le plan de la consommation énergétique. En effet, particulièrement énergivore, le poste de travail reste le plus consommateur d’énergie au sein du système d’information. Une étude du Gartner de septembre 2007 montrait que le PC est responsable de 40 % des émissions de GES (gaz a effet de serre) quand on prend en compte tout le matériel informatique.

Les bonnes questions à se poser
En ce sens, les entreprises doivent se poser la question de l’optimisation des consommations et de l’adéquation de leurs stations de travail au regard de leurs besoins. Ont-elles réellement besoin de PC surpuissants pour faire tourner des applications bureautiques ou professionnelles ? Autant de questions qui peuvent les conduire à repenser la gestion de leur parc et à s’orienter, par exemple, vers des clients légers. Mais, avant toute chose, il convient de définir ce que nous entendons par client léger. Au sens matériel, un client léger est un ordinateur qui, dans une architecture client-serveur, n’a presque pas de logique applicative. Il dépend du serveur central pour le traitement. Au sens logiciel, un client léger peut être perçu de deux façons :
  • un client léger est un navigateur Internet, présentant à l’utilisateur des applications publiées sur un serveur central à partir de son poste local (poste léger) et permettant d’y accéder via une interface Web ;
  • un client léger est un agent paramétrable, déployé sur un poste local (poste lourd), permettant à l’utilisateur d’accéder à des applications publiées sur un serveur central via des accès client-serveur.
Plus généralement, une infrastructure reposant sur des clients légers est basée sur la centralisation d’applications ainsi que sur la mise à disposition de celles-ci à des utilisateurs finaux. Cette infrastructure peut être déployée dans un data center interne à l’entreprise ou bien déportée dans un data center externe.

Les principaux avantages
Au-delà de toutes les vertus techniques liées à la mise en œuvre d’une infrastructure de type client léger (haute disponibilité, sécurité, administration facilitée, etc.), un tel dispositif permet notamment de réduire significativement le coût lié à la consommation de postes de travail. A titre d’exemple, le groupe Reed a réduit la consommation énergétique de ses PC de 80 %, en remplaçant 4.500 PC et 400 ordinateurs portables par des clients légers. Comparons les consommations énergétiques annuelles :
  • PC : 343,73 kWh
  • client léger : 44,47 kWh
  • client léger + serveur + air conditionné : 161,61 kWh.
Au-delà de ce dispositif, il est également possible de repenser le mode de gestion de son parc de postes de travail. N’oublions pas que plus de 50 % des utilisateurs avouent ne jamais éteindre leur PC, alors que le simple fait d’éteindre son ordinateur peut permettre à une entreprise disposant d’un parc de 1.000 PC, d’économiser plus de 120.000 euros chaque année en coût énergétique. Ainsi, au-delà de l’information délivrée aux collaborateurs sur ce point, il peut être judicieux de déployer des dispositifs permettant d’éteindre et de rallumer automatiquement les postes de travail à certaines heures.Bien entendu, de nombreuses autres actions permettent également d’optimiser les dépenses liées à la consommation d’énergie des postes de travail. Conscientes de ce phénomène, les DSI, qui sont désormais largement sensibilisées aux apports d’une bonne gouvernance orientée Green IT, déploient massivement des projets dédiés à moderniser leur approche du poste de travail. A n’en pas douter ces chantiers stratégiques devraient se positionner, à très court terme, comme un must have au sein des entreprises et des administrations.

Par Adrien Porcheron, Directeur Général de Dotgreen

Les promesses industrielles de la surfusion

La surfusion est un état de la matière qui ne peut se produire qu’avec un liquide très pur et ne contenant pas de germes cristallins. La pureté extrême du liquide ne permet pas à la cristallisation de prendre, autrement dit au liquide de geler, alors que la température est inférieure à son point de congélation. Les nuages de haute altitude sont un bon exemple de ce phénomène : ils sont constitués de minuscules gouttelettes d’eau qui, en raison de la pureté de l’air, ne forment pas de glace malgré de très basses températures. L’arrangement des atomes, très chaotique, et l’absence de germe cristallin pour déclencher le processus de cristallisation sont à l’origine du phénomène. Qu’un avion traverse le nuage et les gouttelettes d’eau vont s’accrocher à sa structure, qui possède des impuretés, déclencher très rapidement le processus de cristallisation et former de la glace. C’est pour cette raison que certains avions sont équipés de systèmes de dégivrage.

A l’origine, une structure pentagonale

Si la surfusion a été découverte dès 1724 par Fahrenheit, de nombreuses questions sur son mécanisme restent encore aujourd’hui sans réponse. Actuellement, les théoriciens postulent que la structure interne des liquides pourrait être incompatible avec la cristallisation. Des modèles théoriques suggèrent que les atomes dans les liquides s’organisent en pentagones. Or, pour former un cristal, il faut une structure qui puisse être répétée périodiquement, de façon à remplir tout l’espace, ce que la forme pentagonale ne permet pas. Couvrir sans interruption un plancher avec des pavés pentagonaux est impossible alors que cela l’est avec des pavés triangulaires, rectangulaires ou hexagonaux. Pour que la cristallisation puisse avoir lieu, la structure pentagonale doit être cassée afin que les atomes se réarrangent.

Jusqu’à aujourd’hui, la preuve expérimentale que ces structures pentagonales pouvaient être la cause de la surfusion n’avait pas été apportée. En étudiant par rayonnement synchrotron un alliage de silicium et d’or à l’état liquide, les chercheurs ont pu prouver que l’ordre pentagonal était à l’origine de la surfusion.  » Nous avons étudié ce qui se passe dans un liquide en contact avec une surface sur laquelle une structure de symétrie 5 peut être réalisée (une surface de silicium 111 avec un revêtement spécial), explique Tobias Schülli, premier auteur de l’article paru dans la revue Nature du 22 avril 2010. Nos expériences montrent qu’une surfusion très importante, inobservée dans ces alliages jusqu’à aujourd’hui, se produit sur une telle surface. Nous avons fait la même expérience avec des surfaces de silicium présentant une symétrie 3 ou 4 et dans ces cas, la cristallisation a eu lieu à des températures bien plus élevées. »

De nouvelles applications industrielles

C’est au cours de travaux sur la croissance de nanofils de semi-conducteurs que les chercheurs ont découvert cette propriété des liquides qui favorise la surfusion. En observant le premier stade de croissance de nanofils, ils ont pu constater que l’alliage métal/semi-conducteur utilisé restait liquide à une température bien inférieure à son point de cristallisation, et ont décidé d’explorer le phénomène. Ces alliages liquides attirent beaucoup l’attention car ils permettent la croissance de structures semi-conductrices à des températures de croissance faibles.

Les nanofils de semi-conducteurs sont des candidats prometteurs pour de futurs dispositifs. A titre d’exemple, les chercheurs travaillent sur l’intégration de nanofils de silicium en nanoélectronique ou dans les cellules solaires photovoltaïques, ce qui permettrait d’augmenter le rendement de ces dernières. La surfusion pourrait aussi avoir des applications métallurgiques. Elle permettrait de mettre au point certains alliages à plus basse température.

Palmarès des brevets : l’automobile creuse l’écart

PSA Peugeot Citroën, Renault, L’Oréal. Les trois « champions » occupent cette année encore la tête du palmarès 2009 des brevets publiés en France, réalisé par l’INPI. Dans le top 25 des publications, les grands secteurs industriels français sont représentés (automobile, cosmétique, aéronautique, électronique, chimie, télécommunications) ainsi que trois organismes de recherche (CEA, CNRS, IFP). Ce classement concerne les brevets déposés entre le 1er juillet 2007 et le 30 juin 2008, le délai légal de publication étant de 18 mois. Il ne reflète donc pas les conséquences de la crise économique actuelle. En comparant les différentes éditions du palmarès, on constate que les principaux déposants restent les mêmes. Cependant, leur poids dans le total des brevets déposés augmente fortement. Alors que le nombre de brevets publiés a tendance à légèrement baisser ces dernières années, les premiers du classement occupent une place de plus en plus importante. Ainsi, les 20 premiers déposants représentent près de 40 % des brevets publiés en 2009. En 2002, les 20 premiers du classement des déposants représentaient un peu plus de 20 % du total des dépôts.Numéro 1 du classement depuis trois ans avec 1.265 brevets déposés par la voie nationale, PSA Peugeot Citroën a connu une croissance de 25 % par rapport à 2008. Il a aussi creusé l’écart puisqu’il devance de 30 % son concurrent Renault. Cette performance s’explique notamment par un « système motivant de reconnaissances des inventeurs » (cf. l’article dans Les Echos). En 2007, année à prendre en compte à cause du décalage de 18 mois entre dépôt et publication du brevet, PSA Peugeot Citroën a consacré 2,075 milliards d’euros à la RetD, ce qui représentait 3,5 % du chiffre d’affaires de la branche automobile. Mais la tendance est depuis à la baisse : 2,045 en 2008 et 1,950 en 2009. Les efforts de recherches se concentrent principalement autour de trois axes :

  • la réduction des émissions de CO2 au travers du contrôle moteur et de la dépollution ;
  • des véhicules attractifs avec des innovations pour l’habitacle intérieur ;
  • la sécurité au travers de systèmes de freinage toujours plus performants.
Renault, deuxième du classement, a déposé presque deux fois plus de brevets que L’Oréal. A noter que le groupe a enregistré une forte réduction de ses investissements RetD qui pourrait se répercuter dans les prochains palmarès. Ainsi, ses dépenses sont passées de 2,235 milliards d’euros en 2008 à 1,64 milliards en 2009, soit une baisse de plus du quart. Au niveau européen, les champions nationaux ne sont pas toujours les mieux positionnés. D’après les chiffres de l’Office européen des brevets (OEB), PSA Peugeot Citroën occupe la 57e place pour les demandes enregistrées par l’OEB en 2008, Renault la 71e et L’Oréal la 87e. Dernier du top 25 de l’INPI, General Electric arrive 19e à l’échelle européenne.C.G. Pour aller plus loinBases documentaires :
  • Veille technologique – Application au suivi des brevets
  • Propriété intellectuelle
  • Réalité virtuelle dans l’industrie – Développement des produits et des processus
IT online :
  • La mutation nécessaire du secteur automobile
  • RetD : panorama et tendances d’une fonction en transformation
INPI :
  • Les statistiques de l’INPI

 

Quelles relations entre l’enseignement supérieur et la recherche ?

Alors qu’universités, écoles, organismes publics de recherche, administrations centrales et agences font l’expérience de leurs propres réformes, l’avenir de chacun demeure lié à celui des autres. Il leur reste à inventer ensemble des formes nouvelles d’organisation, d’échange et de travail. Des établissements d’enseignement supérieur et de recherche plus autonomes, aux moyens renforcés, sont appelés à se déployer dans le cadre de pôles plus ou moins intégrés. Il leur faut articuler leurs activités de recherche avec des organismes qui se reconfigurent eux-mêmes en profondeur. La répartition des rôles en matière de programmation de la recherche, enjeu stratégique, oscille entre tradition historique française et modèle contractuel dominant dans d’autres pays. Des contours institutionnels aux statuts individuels, les transformations en cours esquissent un système dont l’avenir n’est pas encore déterminé.Dans le cadre de la plate-forme de prospective FutuRIS animée par l’ANRT, un groupe de travail présidé par François Ailleret, Directeur Général honoraire d’EDF et Président de l’Institut Pasteur, et composé d’experts et de responsables des institutions concernées a , dans le rapport  » Devenir des relations entre l’enseignement supérieur et la recherche : cinq questions-clés, trois scénarios  » , élaboré une représentation partagée des transformations actuelles du système français de recherche et de ses avenirs. L’objectif de ces réflexions est de contribuer à l’avènement d’un système français rénové et équilibré, suite aux réformes récentes et aux repositionnements des acteurs.Dans ce rapport, FutuRIS décrit une situation en évolution rapide et suggère une interprétation ouverte des mutations actuelles. Cinq questions-clés expriment les incertitudes dont dépendra largement la trajectoire à venir du système français de recherche et d’innovation. Sur cette base, trois scénarios synthétisent leurs évolutions et leurs effets possibles à l’horizon 2020 dans le paysage de l’enseignement supérieur et de la recherche.

Alimentation récupératrice d’énergie piézo-électrique

Solution complète à récupération d’énergie, optimisée pour des sources de faible puissance, incluant les capteurs piézoélectriques, le LTC3588-1 de Linear Technology intègre un redresseur en pont, à faibles pertes, avec un convertisseur abaisseur à haut rendement. Il récupère l’énergie des vibrations ambiantes via des capteurs piézo-électriques et la convertir ensuite en une tension de sortie régulée pour l’alimentation des microcontrôleurs, des capteurs, des convertisseurs de données et composants de transmission sans fil. Le LTC3588-1 est conçu pour servir d’interface directe avec une alimentation en alternatif ou piézo-électrique pour redresser un signal sinusoïdal et emmagasiner l’énergie récupérée dans un condensateur de stockage externe, tout en dissipant toute énergie en excès via un régulateur parallèle interne. Il fonctionne sur une tension d’entrée comprise entre 2,7 V et 20 V, ce qui lui ouvre une grande variété de capteurs piézo-électriques, ainsi que pour d’autres sources d’énergie à haute impédance de sortie.

Optimiser le rendement au maximum
Son convertisseur DC/DC abaisseur, fournit un courant continu jusqu’à 100 mA en sortie ou même des impulsions de charge plus élevées. La tension de sortie peut être programmée à une des quatre tensions fixes pour alimenter un transmetteur sans fil ou un capteur. Le courant de repos est de seulement 950 nA avec la sortie régulée (sans charge), ce qui optimise au maximum le rendement de l’ensemble.Un mode d’arrêt en cas de sous tension permet à la charge de s’accumuler dans le condensateur de stockage jusqu’à ce que le convertisseur abaisseur puisse transférer une partie de l’énergie emmagasinée sur la sortie. Toutefois, il ne s’agit pas d’un état de sommeil : le LTC3588-1 régule la tension de sortie en ne consommant que 950 nA de courant de repos tout en chargeant en continu le condensateur de stockage.Par Marc Chabreuil

Comment Lanxess fait la chasse au CO2 et au N2O

Entre 2007 et 2009, le groupe chimique de spécialités Lanxess a déjà réduit de plus de 50 % ses émissions directes de gaz nuisibles au climat qui sont passées de 3,5 millions à 1,5 million de tonnes d’équivalent CO2 entre 2007 et 2009. Cette année verra la mise en service de 4 centrales de cogénération brûlant de la bagasse, de la biomasse ou du gaz naturel et une deuxième unité de réduction du protoxyde d’azote.« Cette année, nous continuerons à agir dans la droite ligne des bons résultats obtenus jusqu’à présent, en menant une offensive mondiale de réduction des émissions et en mettant en service quatre unités de production d’énergie respectueuses des ressources naturelles », a déclaré Rainier van Roessel, membre du directoire de Lanxess AG.

Production d’énergie neutre en CO2 pour une centrale brésilienne à la bagasse

La première étape est l’inauguration de la nouvelle centrale de cogénération produisant de l’électricité et de la vapeur sur le site de Porto Feliz, au Brésil. Le Groupe y produit sous la marque Bayferrox des pigments minéraux essentiellement utilisés dans le BTP, l’industrie des peintures et vernis, mais aussi dans les matières plastiques, les toners et le papier. Il a investi environ 8 millions d’euros dans la construction sur son site d’une centrale fonctionnant à la bagasse, le résidu fibreux du traitement de la canne à sucre par l’industrie sucrière.Grâce à l’utilisation de ce combustible renouvelable et respectueux de l’environnement, la production d’énergie est absolument neutre en CO2, puisqu’elle ne dégage que le CO2 fixé par la plante pendant sa croissance. Le démarrage de la nouvelle centrale dont le rendement atteint 90% marquera la suppression quasi complète des émissions de gaz nuisibles au climat sur ce site de Lanxess. En 2010, les émissions annuelles seront inférieures d’environ 44 000 tonnes de CO2 au niveau de 2002.

Biomasse et gaz naturel pour la cogénération en Inde et en Belgique

Trois autres centrales de cogénération assurant une production d’énergie respectueuse des ressources naturelles entreront en service en 2010 en Inde et en Belgique. Ces projets représentent un volume d’investissement total de plus de 70 millions d’euros répartis sur plusieurs années. La centrale en construction à Nagda, en Inde, affranchira les unités de production du site de tout approvisionnement externe en électricité. La centrale, qui produira 4 MW d’électricité et jusqu’à 45 t/h de vapeur, brûlera de la biomasse et réduira à zéro les émissions nettes de dioxyde de carbone. Lanxess construit actuellement sur son deuxième site de production indien de Jhagadia, une nouvelle usine de résines échangeuses d’ions, qui produira sa propre énergie dans une unité avec un combustible respectueux de l’environnement, le gaz naturel.Enfin, il modifiera aussi cette année l’approvisionnement en énergie de son site belge de Zwijndrecht. L’entreprise mettra ainsi en service avec le groupe énergétique belge Electrabel une centrale de cogénération au gaz naturel qui approvisionnera l’unité de production de caoutchouc de Lanxess en vapeur et en électricité. Cette centrale qui aura un rendement de 90 %, réalisera par rapport à la solution actuelle des économies de CO2 de 80.000 tonnes par an.

Neutralisation de la quasi-totalité du N2O en Allemagne

Dès 1992, l’unité de production d’acide adipique de Krefeld-Uerdingen était dotée d’une installation de fractionnement thermique du protoxyde d’azote (N20), un gaz 310 fois plus nocif pour le climat que le dioxyde de carbone. Dans l’installation, le protoxyde d’azote issu du flux de gaz émis par la production d’acide adipique est d’abord fractionné, lors d’une première phase de combustion à des températures élevées dépassant les 1 000 °C, en ses composants (oxygène et azote). Les résidus encore présents sont entièrement éliminés dans une chambre de combustion en aval. La chaleur dégagée produit de la vapeur exploitée dans le réseau du pôle de chimie.Cette installation était dimensionnée pour traiter l’intégralité du flux de gaz hilarant généré par la production d’acide adipique mais des opérations de maintenance et des pannes techniques ont parfois provoqué des arrêts du système et donc une émission de protoxyde d’azote. Ce volume résiduel entrait toutefois dans le cadre des émissions allouées mais Lanxess n’en a pas moins décidé de construire une seconde installation de réduction thermique voisinant avec la première. La nouvelle unité de réduction de gaz hilarant, officiellement inaugurée en mars 2009, complète l’unité existante (les 2 installations fonctionnent en parallèle, compensant ainsi d’éventuelles défaillances). Elle neutralise chaque année quelque 5 000 tonnes de gaz hilarant, soit annuellement 1,5 million de tonnes d’équivalent CO2. Comme l’a récemment confirmé l’autorité allemande de régulation des marchés de droits d’émission (DEHSt), Lanxess décompose avec ces deux unités pratiquement l’ensemble du gaz hilarant produit, soit, en fonction du niveau d’utilisation des capacités, de 5 à 10 millions de tonnes d’équivalent CO2 par an. Résultat, l’objectif fixé pour l’Allemagne, une réduction de 80 % d’ici 2012 par rapport à 2007, est déjà atteint, les émissions annuelles étant passées d’environ 1,9 million de tonnes d’équivalent CO2 à moins de 0,3 million de tonnes.Marc CHABREUIL

Fiches d’exposition des salariés : les conseils d’un médecin du travail

Comment bien remplir une fiche d’exposition des salariés et assurer un suivi dans le temps de chaque poste ? Christian Guenzi, médecin du travail chez Total Petrochemicals et coordonnateur des programmes d’hygiène industrielle revient sur son expérience et apporte quelques conseils clés. Il insiste notamment sur la nécessité de bien respecter les règles de statistique pour réaliser les prélèvements des différents groupes homogènes d’exposition. Autant d’éléments qu’ils détaillera, le 30 juin à Paris, dans le cadre du rendez-vous du risque chimique intitulé  » Risque chimique 2010 : comment s’organiser pour tenir les délais ? « , organisé par Techniques de l’Ingénieur en partenariat avec Quick-FDS (voir l’encadré).

Techniques de l’Ingénieur : Quels sont vos conseils pour bien remplir une fiche d’exposition des salariés ?

Christian Guenzi : Il faut s’assurer d’une certaine validité statistique de la métrologie faite. On ne peut pas se contenter d’un ou deux prélèvements tous les deux ou trois ans. C’est le sens du décret du 15 décembre 2009. Dans mon établissement, nous effectuons environ 500 prélèvements par an sur le site. Pour un groupe homogène d’exposition, c’est-à-dire un ensemble de salariés dans des conditions d’exposition similaires, cela revient à 7 valeurs par an. Chaque prélèvement se fait auprès d’un échantillon de salariés.

Quels sont les écueils à éviter ?

Le premier écueil est de ne pas avoir un nombre de prélèvements suffisant. Ensuite il faut veiller à la validité de la méthode déployée pour le prélèvement et l’analyse. Les prélèvements sont effectués en interne ou en externe mais ils doivent toujours être validés par un organisme extérieur pour tous les produits à valeur limite contraignante. Par ailleurs, il est souvent difficile d’avoir une évaluation très fine pour un produit avec un seuil de détection et une valeur limite proches. Par exemple, si le seuil de détection est à 0,1 ppm (parties par million) et que la valeur limite est à 0,5, la marge d’erreur est forte. Si la valeur limite est à 100, on pourra plus facilement tirer des conclusions en termes de probabilité de dépassement de la VLEP (valeurs limites d’exposition professionnelle). Il faut veiller également à couvrir les activités non récurrentes de maintenance en particulier et associer les sous-traitants et entreprises extérieures à la démarche d’évaluation des risques.

Comment les résultats sont-ils diffusés ?

Le CHSCT a accès au résultat. Au niveau médical, le service de santé envoie aux salariés concernés leur résultat personnel. Lorsqu’on constate des dépassements, on est amené à remettre en perspective les résultats avec le salarié. On échange avec le responsable d’atelier pour comprendre ce qui s’est passé et chercher à éviter les dépassements. Le service HSE et le service de santé assurent l’archivage et la traçabilité des résultats. Un logiciel spécifique d’hygiène industrielle permet de réaliser les calculs statistiques et d’éditer les fiches individuelles d’exposition. Enfin, le bilan annuel est largement diffusé au niveau de l’établissement.

Comment est assuré le suivi au cours de la carrière du salarié ?

Les fiches individuelles d’exposition apparaissent dans le dossier médical. Si un salarié change d’établissement, le dossier le suit avec son accord. S’il quitte l’entreprise, le médecin du travail est tenu de remettre une fiche médicale de liaison à son nouveau médecin du travail. En cas de fin de carrière ou de fin d’activité, on remet une attestation d’exposition au salarié pour son suivi médical et pour faire valoir ses droits en cas de problème.

Comment le médecin du travail se positionne-t-il par rapport au responsable HSE (hygiène, sécurité et environnement) ?

Le médecin du travail et le responsable HSE travaillent en tandem au cours des différentes étapes : évaluation du risque, établissement du plan de contrôle, interprétation et diffusion des résultats. Pour que cela se passe au mieux, il faut bien se connaître. Chez Total Petrochemicals, je suis dans une situation privilégiée car toujours sur le même site avec les mêmes interlocuteurs et une certaine constance dans l’organisation. C’est plus difficile pour un médecin intervenant dans plusieurs entreprises avec des cultures et des pratiques propres.

Vous êtes chargé de coordonner les programmes d’hygiène industrielle. Est-ce un rôle courant pour un médecin du travail ?

C’est une évolution de notre métier, qui n’est plus uniquement basé sur un rôle médical mais qui comporte aussi une dimension d’animation d’une équipe pluridisciplinaire. Pour un médecin, il s’agit d’une compétence particulière à acquérir qui n’est pas ou peu développée dans sa formation médicale. Son degré d’intervention sur la partie prévention primaire dépendra de sa disponibilité, des compétences qu’il aura acquises et de sa motivation. Cela dépendra également du type d’activité des entreprises dont il a la charge, il pourra être nécessaire d’avoir une orientation plus ergonomique ou de se spécialiser dans le risque radiologique, on ne peut évidemment pas tout faire. Pour le risque chimique il faut au moins être capable d’interpréter et de critiquer, au besoin, les résultats d’évaluation des risques qui nous seront présentés.

Propos recueillis par Corentine Gasquet

Formation Techniques de l’Ingénieur

Christian Guenzi reviendra sur toutes ces questions dans le cadre du rendez-vous du risque chimique qui aura lieu le 30 juin à Paris intitulé « Risque chimique 2010 : comment s’organiser pour tenir les délais ? », proposé par Techniques de l’Ingénieur.

Pour aller plus loin

Dans IT online :

  • Comment établir une fiche d’exposition des salariés
  • Comment Safran adapte sa gestion des FDS aux exigences de REACH
  • Gestion du risque chimique : comment mettre en oeuvre vos obligations ?
  • Le rôle primordial des FDS
  • Gestion du risque chimique : quelles sont les exigences incontournables ?

Dans les bases documentaires :

  • Toxicologie industrielle – Détection et surveillance
  • Prévention des risques professionnels – Acteurs de la prévention

La virtualisation : économie, écologie et performance

Baisse des coûts, effort de rationalisation des ressources et forte flexibilité sont autant d’atouts de la virtualisation. Pré-requis majeur de toute solution de haute disponibilité, elle s’étend maintenant au poste de travail dont elle simplifie les déploiements et la maintenance. Cependant, avertit Frédéric Favelin, responsable RetD chez CELESTE, les contraintes d’utilisation et les performances rendent sa généralisation parfois complexe si le très haut débit n’est pas au rendez-vous.La virtualisation est une technologie inventée par IBM dans les années 60 pour permettre aux mainframes d’effectuer des traitements « multitâches ». Or, pour compenser les investissements nécessaires à cette technologie et amortir les serveurs, les entreprises voulaient en optimiser l’utilisation, avec le partitionnement par exemple.Dans les années 80-90, l’architecture des systèmes d’information a évolué : les mainframes ont été remplacés par des serveurs moins puissants et moins coûteux grâce à une architecture distribuée. L’adoption généralisée de Windows et l’émergence de Linux comme systèmes d’exploitation serveurs ont fait des serveurs x86 la norme de l’industrie.Toutefois, au début des années 2000, le besoin d’avoir une architecture matérielle partagée s’est avérée forte sans réelle offre matérielle sur le marché : sont alors apparues les techniques de virtualisation. Une dizaine d’années plus tard, ce processus aboutit à des architectures dites de cloud computing, permettant la dématérialisation de l’ensemble des ressources informatiques de l’entreprise.

La virtualisation : de multiples technologies
On définit la virtualisation par un système matériel et/ou logiciel faisant fonctionner plusieurs systèmes virtuels sur un seul système physique, appelé système hôte. Il existe plusieurs types de virtualisation :
  • les isolateurs : ce système permet d’isoler l’exécution des applications dans des zones d’exécution. Cette solution est très performante, l’exécution étant directement effectuée sur le système hôte, mais elle ne permet pas de virtualiser complètement le système – les environnements n’étant pas complètement isolés. Cette solution est uniquement présente dans le monde UNIX et on peut donner comme exemples chroot, solaris containers ;
  • la virtualisation en espace utilisateur : cette solution exécute un système dans le même espace que votre utilisateur et sa performance est relativement médiocre. Elle est uniquement présente sur les systèmes Linux et est utilisée pour le développement de noyau (par exemple : User Mode Linux) ;
  • les machines virtuelle : c’est en réalité un logiciel qui émule ou virtualise une machine réelle : il permet la simulation du comportement réel d’un système d’exploitation sur des architecture différentes mais sur un même système hôte. Le logiciel virtualise et/ou émule également le matériel: les systèmes d’exploitation démarrés sur la machine croient dialoguer directement avec le matériel. Même si le logiciel a un coût en performance assez lourd, l’avantage principal de ce système est de faire fonctionner en parallèle des systèmes d’exploitation hétérogènes sur une même machine (isolation totale). Prenons comme exemple Virtual Box (Sun) ;
  • la para-virtualisation : technologie actuellement la plus mature et la plus performante, le système de para virtualisation ou hyperviseur fonctionne comme les machines virtuelles mais c’est le système d’exploitation qui émule directement la machine virtuelle (Xen / Citrix). L’inconvénient reste de ne pouvoir distinguer ce qui est émulé ou non (cad relevant du système hôte) ;
  • la virtualisation matérielle : mise en œuvre par les fabricants de processeurs ou de machines, cette technologie permet la virtualisation sans système hôte. Très performante mais peu flexible (versus la para virtualisation) et onéreuse, elle consiste en solutions ou serveurs propriétaires extrêmement liées à l’architecture matérielle. C’est donc une machine dédiée qui ne sert qu’à la virtualisation.
Usages et utilisations de la virtualisation
L’augmentation des performances des machines physiques assure le succès actuel de la virtualisation. En effet, la machine physique pouvant accueillir de plus en plus de machines virtuelles, les coûts d’infrastructure des entreprises s’en trouvent véritablement allégés. D’autre part, la réduction drastique du nombre de machines physiques représente un aout sur le plan environnemental et notamment en termes de consommation électrique.Baisse des coûts, effort de rationalisation des ressources, autant d’avantages renforcés par une forte flexibilité car les ressources physiques allouées à un service peuvent être adaptées facilement en les démarrant ou les restreignant.L’enjeu réel de la virtualisation n’en reste cependant pas moins puisqu’elle est un pré-requis majeur de toute solution de haute disponibilité. Virtualisation et haute disponibilité deviennent en effet difficilement dissociables : les services non inter-dépendants sont isolés et peuvent être basculés d’une machine à une autre, de façon transparente pour les utilisateurs et sans rupture de service. Les solutions de sauvegarde externalisée sur des machines répliquées en miroir en sont le meilleur exemple.

Quelques précautions à prendre
Avant de s’engager dans un projet de virtualisation, il s’avère nécessaire de bien identifier les pré-requis que cette technologie exige :
  • une bonne évaluation de la puissance nécessaire au serveur hôte (processeurs, mémoire vive), sachant que le système de virtualisation consomme à lui tout seul de 5 à 10 % des ressources d’un serveur ;
  • une sauvegarde renforcée des données / machines physiques : si une machine physique chute, plusieurs services deviennent indisponibles ;
  • une connexion haut débit sécurisée au débit garanti dans le cadre d’un projet de virtualisation avec client léger
A noter que certaines applications nécessitant de fortes ressources matérielles ne peuvent pas être virtualisées. C’est le cas de la messagerie Exchange (mais il existe d’autres messageries virtualisées) ou de certains moteurs de base de données.Aujourd’hui la virtualisation présente avant tout un avantage économique grâce au partage et la mutualisation des ressources physiques. Par exemple, on estime que dans un data center privé ordinaire, le taux d’utilisation moyen est de l’ordre de 10% alors qu’il atteint 35% avec une utilisation généralisée de la virtualisation, soit 3 fois plus d’économies. Si le monde des serveurs est déjà gagné à la virtualisation, elle s’étend maintenant au poste de travail dont elle simplifie les déploiements et la maintenance. Cependant si l’engouement est similaire à ce qu’il a été pour les serveurs, les contraintes d’utilisation et performance rendent sa généralisation parfois plus complexe si le très haut débit n’est pas au rendez-vous. Et évidemment reste le chantier énorme et innovant de la virtualisation des réseaux sur les infrastructures de télécoms.Par Frédéric Favelin, responsable RetD chez CELESTE

Un biocapteur ultra-rapide détecte et quantifie les protéines

Le groupe d’électronique japonais Fujitsu vient de présenter un tout nouveau capteur biologique qui fait appel à une méthode électrochimique inédite. Capable de détecteur la présence et la quantité de protéines 100 fois plus rapidement que les méthodes classiques et exigeant des échantillons 100 fois moins importants, ce biocapteur devrait permettre d’anticiper les risques médicaux, d’améliorer la sécurité alimentaire et d’accélérer la prévention sanitaire.L’apparition de nouvelles maladies infectieuses, comme le virus H1N1 ou le syndrome respiratoire aigu sévère (SRAS), a mis en évidence l’importance d’un diagnostic rapide et précis. Par ailleurs, suite aux recherches actuelles visant à identifier les protéines à l’origine de maladies comme le diabète et le cancer, on prévoit que la détection du type, de la quantité et de la taille des protéines permettrait de diagnostiquer une maladie et d’appliquer un traitement approprié. D’où les efforts portant sur le développement de technologies susceptibles de détecter rapidement et précisément des protéines qui agissent comme des marqueurs pour certaines maladies.Jusqu’à présent, la détection des protéines exige un processus en plusieurs étapes, ce qui, par voie de conséquence, entraîne des coûts, des prélèvements d’échantillons, comme le sang, et des délais important. Les laboratoires de Fujitsu et l’équipe du docteur Abstreiter de l’Institut Walter Schottky du Technische Universität München (TUM) qui collaborent depuis 2001 au développement de technologies de biocapteurs, ont adopté une approche totalement nouvelle qui permet de diviser par 100 les délais d’analyse et le volume des échantillons. La méthode qu’ils viennent de développer, permet, grâce à un champ magnétique, d’analyser et de visualiser les variations du mouvement d’une chaîne ADN à l’extrémité de laquelle sont venues se fixer les protéines recherchées.

Une technologie encore en phase de recherche
Sachant que, dans une solution aqueuse, l’ADN est chargé négativement, une électrode alternativement positive et négative attire et repousse alternativement la chaîne ADN. Une teinture fluorescente appliquée à son extrémité permet de visualiser ce mouvement : elle devient brillante quand l’ADN est repoussé loin de l’électrode et très pâle quand l’ADN est attiré par à l’électrode. La technologie de Fujitsu consiste donc à analyser les variations du déplacement de la chaîne ADN qui est freiné ou bloqué par la présence des protéines-cibles, ce qui permet de déterminer la présence ou l’absence de ces protéines. En alternant rapidement la polarité de l’électrode, on peut aussi en déduire leur quantité.Cette technologie en est encore en phase de la recherche. « Il reste encore bien des étapes avant d’arriver à un stade commercial » a reconnu l’un de ses concepteurs, Michihiko Aki du Fujitsu Laboratories’ Nanoelectronics Research Center qui pense aussi à des applications dans le domaine de la sécurité alimentaire pour la prévention des intoxications par détection de protéines nocives, ou dans les situations sanitaires d’urgence pour la détection rapide de la propagation de maladies infectieuses. Avec l’assistance de Fujitsu, l’équipe du TUM pourraient commercialiser ce futur biocapteur dans le cadre de l’incubateur EXISTE dirigé par le Ministère Fédéral allemand d’Économie et la TechnologieMarc CHABREUIL

L’historisation embarquée des données de production

Un module d’historisation installé directement dans le châssis d’un contrôleur d’automatisme enregistre à haute cadence les performances de la machine contrôlée et permet aux responsables de production d’établir des tableaux de bord et des indicateurs de performances.Pour améliorer la qualité de la production, accélérer la mise sur le marché et respecter les exigences réglementaires, il est impératif de disposer d’informations de production précises et temps réel, permettant notamment de réduire les risques d’arrêt des machines. D’où le développement par Rockwell Automation de FactoryTalk Historian ME, un système d’historisation embarqué, durci, conçu pour l’acquisition de données directement sur la machine. Il se loge dans le fond de panier du contrôleur d’automatisme Control Logix Allen-Bradley et assure, à vitesse élevée, la collecte en temps réel des informations de l’équipement. Destiné à la saisie de données distantes dans des environnements difficiles et des conditions de communication instables (puits, plates-formes de forage et autres emplacements inaccessibles jusqu’à présent) FactoryTalk Historian ME s’auto-configure, en sélectionnant les variables significatives devant être historisées. Son temps d’installation est donc réduit de manière significative. La configuration et l’édition de rapports sur les données acquises par le module se font via une simple interface Internet.

Le risque de perdre des données réduit
Sans aucune pièce en mouvement, n’utilisant ni système d’exploitation ni PC, FactoryTalk Historian ME enregistre avec sécurité et précision les données. Si la connexion avec l’historique de l’usine est perdue, à cause de l‘indisponibilité du réseau ou d’un autre système, le risque de perte de données est réduit car les données sont mémorisées dans le module FactoryTalk Historian ME et seront transmises lorsque la liaison sera rétablie. Il est même possible d’estimer le volume mémoire restant disponible afin de déterminer si la machine peut continuer la production en cours (batch) en assurant l’intégrité de l’ensemble des données.Grâce à sa connexion en fond de panier, FactoryTalk Historian ME communique directement avec les contrôleurs de la machine. Il n’est ainsi pas limité par le débit du réseau et acquiert les données à des fréquences pouvant atteindre 10 msec, soit une vitesse d’acquisition au moins 10 fois supérieure à celle d’un système d’historisation classique. Il peut ainsi fournir des informations beaucoup plus fines qu’un système d’historisation classique connecté sur un réseau et permet l’analyse pertinente de séquences d’événements. FactoryTalk Historian ME peut fonctionner de façon autonome (il est capable de collecter les données de 1 à 4 contrôleurs présents dans un même châssis) mais peut aussi évoluer vers une historisation des données de production à l’échelle de l’usine. Les responsables de production peuvent ainsi afficher l’état et les performances de machines indépendantes ou de lignes de production complètes, afin de réaliser en temps réel des comparaisons par rapport à des standards, identifier un lot critique… En utilisant la même technologie, les responsables peuvent établir des tableaux de bord qui confrontent les indicateurs clé de performance de production (ICP ou plus, en anglais KPI pour Key Performance Indicator) de différents sites et comparer les performances de production à l’échelle de l’entreprise. Il est ainsi possible d’améliorer la cohérence et la qualité des produits, la consommation d’énergie et d’autres facteurs influençant les résultats globaux de production. Marc CHABREUIL

L’aluminium-lithium séduit la Nasa

Après deux ans d’études des différents matériaux, notamment les composites, ce sont les alliages de faible densité d’Alcan Aerospace Transportation and Industry (Groupe Rio Tinto) qui ont été choisis pour le module habité Orion, le futur vaisseau spatial habité destiné à s’arrimer à la station internationale ISS. Cette étape est l’un des nombreux points de passage obligés dans le cycle de vie de ce projet d’ingénierie particulièrement complexe, avant le lancement de la fabrication de la structure. Cette décision confirme que ces nouveaux alliages constitueront un matériau clé du programme conçu par la NASA et destiné à remplacer la navette spatiale actuelle, ouvrant ainsi, une nouvelle ère de l’exploration de l’espace. Après avoir sélectionné les matériaux, la NASA va désormais passer à la phase d’examen critique de la conception d’Orion.L’utilisation des alliages de faible densité permet de combiner une fiabilité et une sécurité éprouvées dans l’espace tout en diminuant les risques de retard pouvant survenir lors de la certification de nouveaux matériaux. Les qualités intrinsèques de faible densité, de grande robustesse, de rigidité et les propriétés mécaniques des alliages d’aluminium-lithium assureront un gain de poids significatif au meilleur coût.Deux alliages sont référencés comme ayant un rôle clé dans la construction du module de commande qui enverra les astronautes dans l’espace et assurera leur retour sur Terre en toute sécurité :

  • Al-Li 2195, utilisé depuis 1998 dans les applications spatiales, notamment les réservoirs externes des navettes. Cet alliage sera utilisé pour les structures de chargement appelées longerons.
  • le nouvel alliage innovant Al-Li 2050, développé exclusivement par Alcan et utilisé pour la toute première fois dans l’espace. Combinant ténacité et résistance avec une réduction de densité de 4 %, il sera notamment utilisé pour les châssis, les nervures et les profilés de fenêtre.
Les premières livraisons d’alliage 2050 pour Orion, à partir de l’usine de Ravenswood (Etats-Unis), ont commencé en décembre dernier ; celles de l’alliage 2195 depuis les usines de Montreuil-Juigné et Issoire (France) vont démarrer prochainement.

Halte aux vérifications de sécurité factices

Depuis des années, l’Afim s’inquiète de la dérive de politiques d’achat qui mettent à mal les organismes de contrôle et qui conduisent à des rapports de vérification dénués de pertinence qui ne garantissent plus la sécurité et la santé des personnes et des équipements. Une récente analyse de la Cram des Pays-de-la-Loire concernant la sécurité sur un parc de 300 Plates-formes Élévatrices Mobiles de Personnel (PEMP) en service semble justifier ses inquiétudes. En effet, cette opération a mis en évidence de nombreuses anomalies : absence de la notice d’utilisation, du carnet de maintenance, du rapport de contrôle, de la vérification d’adéquation avant usage, de formation des utilisateurs…De graves dérives dans la réalisation des vérifications périodiques réglementaires de ces nacelles ont été aussi constatées. Des essais en charge sont effectués avec des charges très largement en deçà de leur charge maximum d’utilisation (CMU), mais aussi des essais en charge sont réalisés, non pas avec des lests inertes, mais avec des personnes ! De telles pratiques sont dangereuses pour les salariés présents dans le panier lors des essais. Mais elles ont aussi un caractère factice car les organes de sécurité n’ont pas été sollicités dans les configurations d’essais réglementaires (limiteur de charge, limiteur de moment, limiteur de dévers).Si cette enquête de la Cram des Pays-de-la-Loire attire l’attention sur les nacelles, elle conduit l’Afim à s’interroger sur les autres vérifications. Qu’en est-il de la réalité des vérifications des autres appareils de levage (ponts roulant, palans, chariots élévateurs…), des essais des dispositifs à courant résiduel et des mesures des continuités de terre dans le cadre des vérifications des installations électriques, des essais des dispositifs de sécurité sur les presses, des appareils à pression, des ascenseurs… ?A force de rechercher la baisse des prix des vérifications obligatoires, les donneurs d’ordres exposent leurs salariés à des accidents parfaitement évitables. Et ils s’exposent en cas d’accident à être condamnés par la jurisprudence pour avoir acheté des prestations de vérification à des prix non compatibles avec la bonne exécution du travail à réaliser.Laisser croire qu’un bien a été vérifié sans en avoir la certitude vide de son sens toute politique de prévention. On ne vérifie pas les équipements pour satisfaire à une exigence réglementaire, mais d’abord pour garantir la sécurité de leur utilisation.Malgré la conjoncture actuelle, l’optimisation de la maintenance ne peut pas conduire à faire l’impasse sur les vérifications périodiques les réduisant à un acte anodin dont la finalité serait la simple signature d’un registre de sécurité. Ces vérifications sont plus que jamais, le garant de la maîtrise des risques.

Les vérifications de sécurité factices mettent les intervenants en danger, pas les acheteurs
La sagesse commande que chacun s’enquière de la réalité de la situation et du sérieux avec lequel sont réalisées les vérifications réglementaires. Combien d’équipements de manutention disposent de leur carnet de maintenance correctement renseigné ? Qui est responsable de la mise à disposition des charges d’essais et dans quelles conditions ces charges sont conservées ? L’analyse des réserves liées à la vérification des installations électriques est-elle faite ? Combien de réserves sur la continuité des circuits de terre et depuis quand ? Voila les questions que chaque responsable doit poser pour évaluer la situation et remettre les choses en ordre.Quelques rappels ne sont pas inutiles. Une obligation de vérification périodique de sécurité ne se délègue pas à un organisme de contrôle, mais elle s’assume avec lui :
  • en lui préparant toute la documentation nécessaire ;
  • en lui donnant les moyens d’assurer sa mission (charges, moyens d’accès…) ;
  • en lui donnant accès aux locaux ou aux équipements à vérifier ;
  • en l’accompagnant dans sa démarche…
Cette prescription réglementaire n’est pas une assurance ou une prise de risque partagée avec un tiers, mais bel et bien un acte technique visant à apprécier si une réparation ou un échange est nécessaire pour assurer la sécurité des personnes et des équipements.C’est au travers d’une véritable relation de partenaire que l’entreprise pourra progresser en confiance avec l’aide du vérificateur dans la mise en place d’une authentique politique de management de la prévention des risques. Quel sens a une certification OHSAS 18001 si la politique du moins disant conduit à des vérifications factices !S’accommoder du caractère factice des vérifications c’est jouer avec la sécurité et la vie des intervenants ! Une politique de prévention efficace exige :
  • des compétences adaptées aux vérifications de sécurité avec des techniciens qualifiés de niveau III (BTS ou DUT) dont les taux horaires doivent correspondre à ces qualifications ;
  • l’avis des services en charge de la maintenance et de la sécurité qui doit primer sur celui des achats ;
  • des organismes de contrôle qui refusent des marchés conduisant inévitablement à des vérifications factices.
Par Marc Chabreuil

Ressorts de compression : une résine concurrence le métal

Lee Spring Company LLC, un des principaux fabricants mondiaux de ressorts mécaniques depuis 1918, vient devancer ses concurrents grâce à sa nouvelle technologie utilisant un matériau plastique technique. Les ressorts en composite plastique LeeP sont en effet moulés à partir de la résine Ultem de SABIC Innovative Plastics. Figurant parmi les premiers ressorts jamais fabriqués en plastique technique hautes performances, ces ressorts de compression offrent des avantages majeurs par rapport aux ressorts en alliage métallique traditionnels.La constante de rappel (une fonction du module en cisaillement), la durée de vie (résistance à la fatigue) et la résistance au fluage étant des mesures de performances clés pour ces ressorts de compression, « jusqu’à présent, les thermoplastiques avaient rarement été utilisés dans les ressorts hautes performances. Nous sommes donc aventurés dans un territoire quasiment inexploré avec Lee Spring », confie Shawn Lee, responsable marketing produits, chez SABIC Innovative Plastics qui a apporté un support technique dédié à ce projet, notamment l’analyse prédictive, la caractérisation des matériaux et l’optimisation des moules.

Des applications très diversifiées
Selon Steve Kempf, PDG de Lee Spring, « la liste de préférences de nos clients intègre la résistance, la thermostabilité, la résistance à la corrosion, les propriétés non-magnétiques, l’isolation, la stabilité dimensionnelle, la faible toxicité à la flamme et la recyclabilité. Nous avons opté pour la résine Ultem en raison de ses excellentes performances globales associées à une résistance extraordinaire. Elle répond à l’éventail complet des besoins des clients, en une seule offre de produit. » Par exemple, dans les applications marines, les ressorts LeeP offrent une plus grande durée de vie en raison de sa résistance à l’eau salée. Dans le secteur des appareils médicaux, ils évitent d’avoir recours aux blindages qui sont nécessaires pour les ressorts métalliques susceptibles d’interférer avec l’imagerie de diagnostic.D’autres secteurs d’activité peuvent tirer parti de ces nouveaux ressorts comme les produits et équipements médicaux , les appareils de dosage pharmaceutique, les équipements dans l’industrie alimentaire et d’emballage, les produits de l’aéronautique, les équipements électroniques et électriques, les systèmes de purification d’eau et les intérieurs automobiles. La faible inflammabilité et la faible toxicité garantissent la sécurité environnementale. De plus, la résine Ultem est recyclable et conforme à la plupart des réglementations internationales, notamment RoHS et REACH.Marc CHABREUIL

Record de puissance pour une biopile

De manière générale, améliorer les performances des dispositifs électrochimiques (capteurs, biopiles, actionneurs…) nécessite de concevoir des électrodes dont les matériaux répondent à des exigences de plus en plus strictes. Le transport de matière dans l’électrode doit-être le plus faible possible et la surface spécifique des matériaux qui constituent l’électrode doit, elle, être très importante, pour augmenter la surface réactionnelle. Comment jouer avec ces deux paramètres pour augmenter la quantité de courant fournie par la pile ?La limitation du transport de masse peut notamment être diminuée en réalisant des électrodes de petite dimension appelées micro-électrodes. Pour augmenter la surface spécifique de l’électrode, un défi des recherches actuelles est d’augmenter sa porosité. Ceci revient à augmenter la surface réactionnelle de l’électrode sans toucher à ses dimensions. C’est une première que l’équipe « Biopiles » et l’équipe «Nanotube » du Centre de recherche Paul Pascal (CRPP) du CNRS qui, après avoir réalisé une biopile capable de produire de l’électricité à partir de la photosynthèse d’un cactus (voir ici), ont réalisée en mettant au point de nouvelles microélectrodes à base de fibres de nanotubes de carbone de grande porosité, donc, présentant une grande surface spécifique (≥ 300 m²/g), et dont le diamètre ne mesure que quelques microns. En utilisant ces fibres à l’anode et à la cathode, les chercheurs viennent de mettre au point la biopile glucose/O2 la plus puissante et la plus petite réalisée à ce jour, générant un courant électrique d’une puissance inégalée de 740 µW/cm² à + 0,57V contre, habituellement, entre 1µW/cm² et 50 µW/cm².

10 fois plus stable que des fibres de carbone
Pour mettre en évidence les performances de cette biopile, les deux équipes pilotées par Nicolas Mano et Philippe Poulin ont tout d’abord étudié la réduction de l’O2 et établi des comparaisons avec les meilleurs systèmes concurrents réalisés avec des fibres de carbone. Après modification avec des bioélectrocatalyseurs (polymère + enzyme), il a été possible de réduire l’O2 à une densité de courant de 1,5 mA.cm² sur une fibre de nanotubes de carbone alors qu’on obtenait seulement 0,3 mA.cm² en utilisant une fibre de carbone « classique ». De plus, une fois modifiées, les fibres de nanotubes se sont montrées 10 fois plus stables que des fibres de carbone. Ces résultats démontrent clairement les avantages de telles électrodes : augmentation de la surface spécifique de l’électrode, et de la densité de courant limite, amélioration des transferts électroniques entre l’enzyme et l’électrode et de la stabilité du système.Ces nouvelles électrodess constituent ont un progrès considérable pour la réalisation de futurs dispositifs comme des capteurs bioélectrochimiques ou des biopiles pour l’alimentation de capteurs médicaux ou d’appareils électriques portables (communication, électronique).

Le stockage des produits chimiques

Chaque mois, Techniques de l’Ingénieur s’associe aux Editions Tissot, spécialiste depuis 35 ans en droit du travail, pour faire le point sur une question particulière relative à la gestion des risques chimiques (voir l’encadré). Ce mois-ci, focus sur le stockage des produits chimiques. Comment repérer les incompatibilités ? Quelles règles de stockage respecter ? Le point.

 

La manipulation et le stockage des produits chimiques utilisés dans l’entreprise présentent des risques comme l’incendie et l’explosion, mais peuvent aussi être dommageables pour la santé. Des précautions sont donc à prendre. Voici les principales étapes à respecter.

original

Détails de la procédure

Etape 1 – Lister tous les produits

L’objectif de cette 1ère étape est de lister, puis d’identifier, les caractéristiques des produits chimiques stockés et utilisés sur le site. Il est nécessaire de se reporter :

  • à l’étiquetage de votre produit ;
  • à la rubrique 10 de la Fiche de données de sécurité (incompatibilité du produit et sa réactivité).

 

original

Il peut parfois arriver que l’étiquetage du produit ne corresponde pas aux informations de la Fiche de données de sécurité (FDS). En cas de doute, demandez à votre fournisseur. Cela peut être dû à une erreur d’étiquetage ou de rédaction de la FDS, à une évolution de la composition du produit et peut-être des caractéristiques, etc.

Etape 2 – Repérer les incompatibilités

Pour repérer les incompatibilités des produits, il est nécessaire de se reporter à un tableau pour comparer leurs caractéristiques. Cela permettra d’identifier les produits que vous pourrez stocker ensemble et donc de penser à l’aménagement du stockage des produits chimiques.

Il existe trois catégories de produits :

  • les produits pouvant être stockés ensemble (symbole +) ;
  • les produits ne pouvant être stockés ensemble que si certaines conditions sont appliquées, comme par exemple de faibles quantités (symbole O) ;
  • les produits ne pouvant pas être stockés ensemble (symbole –).

original

Etape 3 – Stocker les produits en tenant compte de leur incompatibilité

Si un produit comporte plusieurs risques, la priorité est à prendre en considération selon l’ordre suivant :

  • comburant ;
  • inflammable ;
  • corrosif ;
  • toxique ;
  • nocif / irritant.

Attention au cas particulier des acides, qui doivent impérativement être stockés séparément des bases.

original

Télécharger le livre blanc

 

Notre conseil

Veillez à ce que les étiquettes ne soient jamais enlevées des emballages
Ne transvasez pas non plus les produits hors de leur emballage d’origine : vous risqueriez de ne plus savoir quels sont les risques associés au produit.

Respectez quelques règles simples
Les produits dangereux sont à stocker dans des zones convenablement aménagées (rétention, aération, etc.) et dont l’accès est limité (sous clef par exemple). Les produits incompatibles sont séparés physiquement.
Les produits chimiques doivent être rangés dans des zones identifiées afin d’éviter les mélanges.
Privilégiez les petits conditionnements afin de limiter les transvasements, les quantités stockées et donc les conséquences des incompatibilités.

Source : Schémas commentés santé sécurité au travail > Le stockage des produits chimiques
Editions Tissot : droit du travail – convention collective syntec

Ce sujet vous intéresse ?

– Téléchargez gratuitement notre dossier consacré au CHSCT : la réduction des accidents de travail et des maladies professionnelles
– Quelles démarches accomplir lors d’un accident du travail ? [Les salariés accidentés du travail ou atteints d’une maladie professionnelle > démarches accident travail]
– Télécharger gratuitement la convention collective Syntec

 

 

En partenariat avec les Editions Tissot

Spécialiste en droit du travail depuis 35 ans, les Editions Tissot vous proposent de découvrir leurs publications en santé sécurité au travail et les conventions collectives relatives à votre domaine d’activité.

Liste indicative de produits chimiques incompatibles

(En raison du grand nombre de substances dangereuses, cette liste est limitée aux exemples les plus courants)

original

Symboles présents sur les étiquettes de produits dangereux

original

 

Découvrez les formations Techniques de l’Ingénieur :