Sources et détecteurs aux fréquences térahertz

Les applications aux fréquences térahertz connaissent actuellement un développement sans précédent. Traditionnellement réservées à quelques applications très spécifiques, notamment la radioastronomie millimétrique et submillimétrique, les technologies térahertz s’invitent dans un champ de plus en plus large d’activités allant des techniques de l’environnement aux biotechnologies. Un essor que l’on doit en grande partie à la forte évolution de ces technologies au cours de ces dernières années, et notamment, grâce aux micro et nanotechnologies qui les ont rendu plus accessibles d’un point de vue technique et économique.Le point sur les technologies mises en œuvre et les mécanismes qui les sous-tendent. L’AUTEURDidier LIPPENS, professeur à l’université des Sciences et Technologies de Lille, dirige le groupe Dispositifs Opto et Micro-Électronique quantique (DOME) à l’Institut d’Électronique de Microélectronique et de Nanotechnologie (IEMN). Il préside également le comité de pilotage du réseau d’excellence Européen MÉTAMORPHOSE sur les métamatériaux.

Télécharger l’intégralité de l’article

Sommaire cahier térahertzA la Une :

  • « Nous n’avons pas encore trouvé la killer application »
  • « Le térahertz suscite beaucoup d’enthousiasme car il faut tout inventer »

Comprendre :

  • Le térahertz décrypté
  • Sources et détecteurs aux fréquences térahertz

Dans les labos :

  • Amplifier les impulsions térahertz grâce à la commutation de gain
  • Dotfive, objectif 0.5 térahertz

 

Un film alimentaire concilie performances et environnement

Inaugurée  début mai, la nouvelle ligne de production de groupe Toray, implantée à Saint-Maurice de Beysnost (Ain), est dédié à la fabrication de films polypropylènes bi-orientés (BOPP) pour l’emballage alimentaire. Le film Torayfan constituera le produit phare de cette unité d’une capacité de 20.000 t/an. En effet, il présente des propriétés barrières record et répond à des critères exigeants de performance environnementale. Le Torayfan a une incidence sur la qualité des produits conditionnés. Il permet en effet de conserver la fraîcheur des aliments plus longtemps avec à la clé, un allongement de leur durée de conservation grâce à une barrière à l’humidité inférieure à 0,15 gr/m2/j contre 0,6 gr/m2/j pour un film traditionnel et une barrière à l’oxygène inférieure à 15 CC/m2/j contre 60 CC/m2/j pour un film traditionnel. Ces performances permettent de mieux isoler les aliments des contaminants extérieurs et de la lumière. De plus, avec une température de scellage abaissée à 85°C au lieu, habituellement, de  105°C, et  une efficacité d’environ 5N/25mm, il offre des performances de scellage améliorées, ce qui permet d’accélérer le processus d’emballage. Alors que les standards du marché se situent en moyenne autour de 20 microns d’épaisseur, Torayfan est proposé avec des épaisseurs de 12.5, 15 ou 17.5µm. C’est au niveau de ce paramètre que l’aspect environnement entre en ligne de compte. En effet, un film de polypropylène bi-orienté (BOPP) de 15 µm permet de réduire de près d’un quart le poids d’un mètre carré d’emballage. Autre innovation, ce film de nouvelle génération est conditionné en bobines de 1.000 mm alors que, là encore, les standards du marché ne dépassent pas 800 mm. Avec pour résultat 23.000 mètres linéaires supplémentaires par bobine.Les conséquences de ces deux évolutions sont directes sur l’ensemble de la chaîne d’approvisionnement provoquant cumulativement, pour l’ensemble des acteurs impliqués, une réduction significative des coûts et de leur empreinte carbone, sans sacrifier les performances du produit.Ainsi, chez Toray Films Europe, pour une production annuelle de 25 millions de mètres carrés, les approvisionnements amont en polypropylène et matières premières diverses seront réduits de 237 t, soit 23 %. Pour les transformateurs, l’épaisseur de Torayfan et son conditionnement en bobines de 1.000 mm auront une incidence directe sur la production, le nombre de bobines diminuant de 852 unités. Les changements de bobines sur la ligne pourront alors être effectués à une fréquence moins soutenue, les opérations de raccords et les déchets induits par ces manipulations s’en trouvant ainsi diminués. Enfin, au niveau du client final, le nombre de bobines de complexe livrées (600 m linéaires) diminuera sensiblement.Enfin, les caractéristiques du film Torayfan auront aussi des conséquences sur le poste transport tout au long de la chaîne : -10 % pour l’approvisionnement de Toray en matières premières et -12 % pour les livraisons au transformateur (soit une réduction des émissions de CO2 d’environ 17 t pour une rotation moyenne des camions de 1.500 km), sans compter  -40 % pour la livraison du complexe chez l’utilisateur final.Par Marc Chabreuil

Comment réduire de 11 dB(A) le bruit d’un transpalette électrique

Le Groupe Jungheinrich a introduit sur le marché une nouvelle option pour son transpalette électrique à timon  EJE 116 « Silent Drive » qui est plus particulièrement destiné en particulier aux commerces de détail dans le secteur alimentaire. Une série de modifications a permis de ramener le niveau sonore de 70 dB(A) à 59 dB(A), une valeur certifiée selon la norme PIEK  / Pays-Bas. Un gain considérable  qui on considère que, subjectivement, le volume sonore diminue de moitié tous les 8 à 10 dB.Pour que ce chariot ne soit pas plus bruyant qu’un lave-linge lors de ses déplacements et levées de charge, différentes mesures ont été prises. Au niveau de la conception de l’EJE 116 « Silent Drive »,  les ingénieurs Jungheinrich ont accordé une importance particulière au niveau sonore de la pompe. Non seulement ils ont opté pour une nouvelle pompe hydraulique ultra-silencieuse mais, en plus,  ils l’ont découplée du châssis,  ce qui limite les bruits liés aux vibrations. En outre,la pompe s’arrête automatiquement dès que la hauteur de levée maximale est atteinte, ce qui supprime des bruits inutiles.Par ailleurs, une série de modifications a également contribué à la réduction du  niveau sonore. Par exemple, la fréquence de résonance du chariot a été modifiée grâce à un revêtement des carénages qui atténue ces résonances : le capot moteur et le coffre à batterie ont ainsi été insonorisés. Les roues motrices, les roues porteuses et les galets stabilisateurs d’une dureté 75 shore, donc particulièrement « souples », permettent d’amortir les chocs. Par ailleurs, le galet tandem qui équipe le transpalette permet aussi de diminuer les chocs au sol. Une triple roue porteuse spéciale, disponible en option, réduit le bruit d’impact sur les sols carrelés ou les sols comportant de multiples joints.  Facilement manœuvrable, même en espace restreint, grâce à une partie motrice courte (L2) de 494 mm, le chariot EJE 116 est particulièrement adapté aux opérations de chargement et déchargement de camions mais aussi au transport de palettes (jusqu’à 1 600 kg) sur courte distance. « Dans le cas des livraisons au petit matin pour les commerces situés dans les quartiers d’habitation, par exemple, l’option « Silent Drive » est un choix judicieux. Le même avantage vaut pour les clients des supermarchés qui font de la mise en rayon dans les heures d’ouverture » explique Stefan Hirt, Responsable Gestion produits pour les chariots à timon chez Jungheinrich.

M Chabreuil

Liste candidate : les bonnes pratiques de PSA

Dans le cadre de la réglementation REACH, les fabricants doivent communiquer tout au long de la chaîne d’approvisionnement sur les substances de la liste candidate à l’autorisation (30 substances jugées substances extrêmement préoccupantes). Ils ont aussi une obligation de notification auprès de l’ECHA. Une fois que la liste des substances soumises à autorisation (Annexe XIV) sera publiée, ils devront soit substituer la substance, soit obtenir une autorisation. PSA Peugeot Citroën a mis en place un groupe de travail depuis 2006 qui réunit les experts HSE, les services techniques, les achats, la direction juridique… Le service auquel appartient Laurent Sarabando doit déployer le plan d’action du groupe de travail et gérer tous les échanges avec l’extérieur. Pilote Reach, il revient sur l’expérience du constructeur concernant la liste candidate.

Techniques de l’ingénieur : Quelle est le contexte propre à l’industrie automobile ?
Laurent Sarabando : Nos chaînes d’approvisionnement s’avèrent longues et complexes, comprenant trois à cinq niveaux, voire plus. Nous travaillons avec environ 1.500 fournisseurs de rang 1, qui eux-mêmes ont en moyenne 500 fournisseurs de rang 1. Nos produits contiennent une grande diversité et quantité de pièces. Par ailleurs, les pièces de rechange ont une durée de vie de 10 à 15 ans après la fin de la production d’un véhicule. Nous fabriquons des produits à haute valeur technologique qui nécessitent un temps de développement de 3 ans en moyenne, et on peut difficilement reconcevoir des pièces majeures du véhicule en-dehors de la phase de développement de celui-ci.

Quelles substances de la liste candidate sont-elles susceptibles de concerner le secteur automobile ?
Il y en a très peu. Ce sont surtout les phtalates qui pourraient poser problème. Cependant, la liste candidate connaît des révisions une ou deux fois par an. Il faut donc se structurer dans la durée et travailler en étroite collaboration avec nos équipementiers.

Comment le secteur fait-il face aux enjeux de REACH ?
D’un point de vue réglementaire, nous sommes soumis à des obligations depuis longtemps, notamment depuis 2003, sur les véhicules hors d’usage (VHU), avec des obligations de collecte et de transmission d’informations. Pour y répondre, à l’instar des autres constructeurs automobiles, PSA a mis en place un processus informatisé de collecte des données relatives à la masse, la matière et les substances sur l’ensemble des pièces constitutives du véhicule. Nos fournisseurs appliquent ce processus et renseignent l’ensemble des informations nécessaires dans l’application informatique dédiée. Le processus et l’outil associé de collecte nous permettront donc de répondre à REACH.

Comment suivez-vous l’évolution de la liste candidate ?
Nous devons anticiper au maximum les nouvelles entrées dans la liste candidate. Lorsqu’une substance pose une problématique technique (pas de solution alternative mâture), l’industrie automobile participe aux consultations nationales ou à celles de l’ECHA pour faire remonter ces informations et faire entendre nos difficultés. Par ailleurs, il faut se préparer au plus tôt pour pouvoir substituer les substances ou si besoin mener des études de solutions alternatives.

Vous devez informer vos fournisseurs lorsqu’une substance est introduite dans la liste candidate. Comment cela se passe-t-il ?
Via notre processus de reporting, nous générons des alertes lorsqu’une substance est introduite en demandant aux fournisseurs de la transmettre à toute la chaîne. Cela se concrétise par des envois de mails, et des mises à jour des fiches produits en cascade. Nous cherchons ensuite à inciter toute la chaîne d’approvisionnement à ne pas utiliser ces produits. Cela passe par des spécifications techniques et des clauses d’achats. Les fournisseurs hors Europe n’étant pas soumis à cette réglementation, les différents documents contractuels mentionnent donc bien cette obligation.

Quelles sont vos obligations envers vos clients ?
Nous devons répondre à toutes les demandes des clients au sujet de l’utilisation des substances dans un délai de 45 jours. Nous avons donc dû nous organiser au niveau de notre réseau commercial. Nous utilisons l’outil de remontée d’information donc nous disposons pour les questions techniques. Pour l’instant nous ne recevons que très peu de demandes. Propos recueillis par Corentine GasquetLaurent Sarabando, pilote REACH pour PSA Peugeot Citroën, animera une partie de la formation RISQUE CHIMIQUE 2010 : comment s’organiser pour tenir les délais ? organisée par Techniques de l’ingénieur. Rendez-vous le mercredi 30 juin ! En savoir plus

L’identification des produits dangereux

Chaque mois, Techniques de l’Ingénieur s’associe aux Editions Tissot, spécialiste depuis 35 ans en droit du travail, pour faire le point sur une question particulière relative à la gestion des risques chimiques (voir l’encadré). Ce mois-ci, focus sur l’identification des produits dangereux. L’étiquetage des produits dangereux est en perpétuelle évolution. Il a pour but d’informer et de protéger les employés susceptibles d’être exposés aux risques que représentent ces produits, mais également de fournir des indications sur leur impact environnemental. A partir du 1er décembre 2010, le nouveau système européen de classification et d’étiquetage devient obligatoire.

Etape 1 – Identifier les produits dangereux de l’entreprise

Tous les produits utilisés dans l’entreprise doivent être parfaitement connus. Pour répondre à cette nécessité, la liste des produits, leurs lieux de stockage et d’utilisation, la quantité dans chacun de ces lieux doivent être établie.

Etape 2 – Etiqueter les contenants

L’étiquetage prescrit par le règlement européen CLP (Classification, labelling and packaging) du 31 décembre 2008 requiert les informations suivantes :

– identité du fournisseur ;
– identificateurs du produit ;
– pictogrammes de danger : il existe 9 pictogrammes associés à chaque catégorie des classes de danger ;
– mentions d’avertissement : « DANGER » ou « ATTENTION » ;
– mentions de danger : ancienne phrase R pour les risques encouru ;
– conseils de prudence : ancienne phrase S pour les règles d’utilisation ;
– section des informations supplémentaires ;- quantité nominale pour les produits mis à disposition du grand public (sauf si cette quantité est précisée ailleurs sur l’emballage).

Etape 3 – Former vos salariés

Le chef d’entreprise doit former le personnel aux risques auxquels il est exposé. En particulier, les salariés exposés à des substances dangereuses, des agents cancérigènes, mutagènes ou toxiques pour la reproduction, ou à des agents biologiques doivent recevoir une formation et une information quant aux précautions à prendre.

Etape 4 – Instituer une veille règlementaire

L’évolution de la législation dans ce domaine est permanente. Il est nécessaire, sur la base de l’inventaire de surveiller les exigences concernant les produits proprement dit (limitation des utilisations, changement des niveaux d’exposition) mais également la loi (transport, étiquetage, fiches de données de sécurité, REACH, …).

A ce sujet, la circulaire DGT 2010/03 du 13 avril 2010 réaménage le dispositif concernant les contrôles techniques des valeurs limites d’exposition professionnelle (VLEP) et le contrôle des valeurs limites biologiques (VLEB).Dans cette optique, l’aide d’organismes spécialisés ou d’abonnements adaptés s’avèrent très efficaces. Il est important de ne pas négliger l’apport provenant des fournisseurs qui sont logiquement les mieux informés s’ils sont réellement des acteurs importants dans la fabrication ou la distribution de produits dangereux.

Etape 5 – Mettre à jour la documentation interne

Surveiller les nouvelles lois et règlementation est une obligation, les transcrire dans la documentation interne en est une autre. Les fiches de poste, les fiches d’instruction, les procédures, les étiquetages internes, etc. doivent régulièrement être revues pour être en ligne avec la loi.

Notre conseil : limitez les transvasements

  • L’utilisation des produits dangereux dans l’emballage d’origine est toujours préférable au transvasement dans un récipient propre à l’entreprise.
  • Les avantages sont nombreux, ils permettent de supprimer les dangers lors de la manipulation, de ne pas prendre le risque d’un contenant ne résistant pas au produit, d’introduire une erreur lors du ré-étiquetage. Le fournisseur du produit est souvent à même de vous livrer dans des contenants adaptés à votre utilisation.

Source : Schémas commentés santé sécurité au travail > L’identification des produits dangereux Editions Tissot : droit du travail – convention collective syntec

En partenariat avec les Editions Tissot

Spécialiste en droit du travail depuis 35 ans, les Editions Tissot vous proposent de découvrir leurs publications en santé sécurité au travail et les conventions collectives relatives à votre domaine d’activité. Découvrez également les programmes de formation santé sécurité au travail.

Quand l’automatisation concilie mouvements complexes et précision

Pour mettre en évidence la qualité de ses produits à base de cacao et pour se positionner comme fournisseur prestigieux, un fabricant de chocolat réputé fait estampiller sur son conditionnement un emblème doré. Pour qu’il soit toujours placé au même endroit, des machines sont nécessaires afin de concilier avec précision les tâches de commande et de mouvement complexes. Pour ce faire, il a fait appel à la société de construction de machines Ungerechts Maschinenbau GmbH qui s’est spécialisée dans la fabrication de poinçonnages en forme de fenêtres et de machines à fabriquer des sachets de différents formats destinés à la production d’emballage. Dans cette entreprise, il s’agit presque toujours de gérer la coordination d’un nombre important et variable d’entraînements. Depuis des années, cette société basée à Mönchengladbach, en Allemagne, a opté pour les produits de la série Pilz Motion Control (PMC) de Pilz qui permet de réaliser des solutions globales pour l’automatisation de machines, de leur fonctionnement au mouvement d’entraînements hautement dynamiques, en passant par la commande et en incluant tous les aspects de sécurité.  » Nous apprécions tout particulièrement la grande précision des systèmes PMC, en combinaison avec la technique de régulation et la technique d’asservissement de Pilz « , souligne Rainer Ungerechts, dirigeant de l’entreprise. Dès la phase de conception de la nouvelle machine d’estampillage à chaud sur film, le choix s’est donc naturellement porté sur Pilz, basé à Ostfildern, en Allemagne. Le cahier des charges était clair : apposer, lors de la procédure d’estampillage à chaud, à un emplacement prévu, un film doré sur un matériau continu composé de sachets et recouvert de papier. Autre exigence : contrairement aux systèmes existants, la précision devait être nettement améliorée et les chutes devaient être sensiblement minimisées. Au cœur de la machine se trouvent un système d’enroulage et de déroulage du matériau composé de sachets et du film doré ainsi qu’une unité d’estampillage à chaud du film. Ce qui, à première vue semble très simple, recèle en fait de nombreux défis : le matériau d’emballage qui sort du rouleau est déjà imprimé et comporte des marquages indiquant la position exacte de la fin de l’estampillage doré. Dans le cas présent, il fait 33 cm de largeur, la machine pouvant accepter des rouleaux dont la largeur peut atteindre 1 m.L’entraînement du rouleau impose le rythme : il est le maître dans le système et tire vers l’avant le film à 80 m/min, de manière constante. Tous les autres entraînements se comportent comme des esclaves et s’ajustent en fonction de celle du rouleau. Un  » pantin  » situé sur la bande de papier s’assure que ce dernier est correctement tendu. La valeur de consigne pour l’enroulement du rouleau est déterminée par une saisie du diamètre du rouleau.

Les données de consigne introduites par l’opérateur
Le process est exécuté dans l’unité d’estampillage à chaud du film. Avec une vitesse constante, le matériau composé de sachets effleure l’estampilleur qui est activé à intervalles réguliers et applique, avec la précision d’un orfèvre, à l’emplacement prévu, le film doré de forme arrondie et large de 7 cm, nécessaire pour l’emblème. Avec la même précision, l’estampillage en relief suit, empreignant un relief dans le film doré appliqué précédemment. Parallèlement, un capteur contrôle en continu la position et procède au réajustement automatique en cas d’écart éventuel. Techniquement, les entraînements du rouleau de film doré et l’estampilleur fonctionnent à la même vitesse que la bande de film composée de sachets, à savoir précisément avec le temps nécessaire pour appliquer une impression sur une  longueur de 42 mm. Le cylindre d’estampillage dont la circonférence est de 350 mm effectue d’abord une rotation sans contact avec une vitesse constante, avant d’accélérer pour atteindre la vitesse de synchronisation nécessaire pour entrer en contact avec le matériau d’emballage. Ensuite, l’estampilleur se détache du papier et passe en mode veille. Au conditionnement suivant, la procédure reprend quoique, en réalité, cela se passe tellement vite que les différentes phases peuvent à peine être perçues par l’œil. Conjointement avec des variateurs de puissance PMCtendo DD, des moteurs synchrones PMCtendoAC de Pilz veillent à ce que le démarrage et le freinage soient rapides et précis et à ce que la position soit absolument exacte.L’élément central de la solution d’entraînement est le système de commande PMCprimo 16+ de Pilz qui peut également réaliser des tâches complexes de commande et de mouvement de plusieurs axes. D’une manière simple, l’opérateur saisit sur le terminal de commande les données de consigne (par exemple, la longueur des sachets, la position du morceau à estampiller, etc.) et le système calcule les profils de mouvement pour le temps de fonctionnement.  » Une modification est de ce fait effectuée rapidement, l’usure et les chutes sont moindres et la précision ainsi que la productivité augmentent « , souligne Rainer Ungerechts. dirigeant de la société Ungerechts Maschinenbau GmbH.En sa qualité de fournisseur de solutions et de prestations de services, Pilz a pris en charge, en étroit partenariat avec Ungerechts Maschinenbau GmbH, la planification matérielle, la création logicielle et la mise en service. Le développement du prototype de la machine d’estampillage sur film chaud ayant convaincu la société Ungerechts Maschinenbau GmbH, la production en série devrait débuter prochainement.

La simulation 3D pour des moteurs moins énergivores et polluants

Le fonctionnement parfois instable d’un cycle à l’autre d’un moteur 4 temps, dans certaines conditions, est un phénomène dont les causes exactes restent aujourd’hui mal comprises. Face à une demande croissante de réduction de la consommation et des émissions automobiles, il est devenu  nécessaire d’aller au-delà des approches classiques de contrôle pour comprendre les raisons de ce phénomène et le maîtriser. Les variations cycliques limitent en effet l’exploitation de tout le potentiel des nouveaux concepts de motorisation comme les moteurs downsizés (le downsizing consiste à réduire la cylindrée du moteur en lui associant une suralimentation adaptée pour maintenir des performances comparables à celle du moteur d’origine tout en obtenant des gains en consommation et en émissions de CO2).Pour améliorer, de façon significative, la compréhension et la modélisation des variations cycliques dans les principaux types de moteurs à allumage commandé en vue d’une limitation des impacts négatifs de ces phénomènes sur la consommation et les émissions polluantes, le projet de recherche européen LESSCCV (Large-Eddy & System Simulation to predict Cyclic Combustion Variability in gasoline engines) qui a été sélectionné dans le cadre du 7ème PCRD,  vient de démarrer. D’une durée de 3 ans, pour un budget de 3,2 M€, dont près de 2 M€ de subvention de la Commission européenne, ce projet coordonné par l’Institut Français du Pétrole (IFP) rassemble 7 autres partenaires, centres de recherche, éditeurs de logiciels et universités : AVL List GmbH (Autriche), FEV Motorentechnik GmbH (Allemagne), LMS-Imagine (France), Ricardo UK Limited (Royaume-Uni), Université Technique de Prague (Rép. Tchèque), Polytechnique de Milan (Italie), University of Western Macedonia (Grèce). Les travaux menés dans le cadre de LESSCCV s’appuieront, en particulier, sur l’expertise de l’IFP dans les domaines de la simulation 3D aux grandes échelles « Large Eddy Simulation » (LES) et de la simulation système. Pour le faire, l’Institut utilisera un supercalculateur disposant de 1832 processeurs, avec une puissance totale de 17 Teraflops.

Simulation 3D : les  approches complémentaires RANS et LES
L’approche 3D utilisée à ce jour pour les simulations de la combustion dans les moteurs à piston est de type RANS (pour Reynolds Averaged Navier Stokes). L’hypothèse sous-jacente est que le fonctionnement du moteur peut être décrit statistiquement par un seul cycle moteur moyen. Conceptuellement, celui-ci est le résultat d’une moyenne de phases d’un grand nombre de cycles consécutifs. En simulation 3D, la résolution des équations de Navier-Stokes moyennées statistiquement permet alors d’obtenir, via la réalisation d’un seul cycle moteur, une évaluation directe des principales caractéristiques du cas considéré (travail fourni, polluants générés). Avec les puissances de calcul actuelles, des simulations RANS peuvent être réalisées en quelques heures, ce qui permet une utilisation industrielle. Elles permettent alors de comparer entre elles différentes configurations, et d’aider à identifier celles présentant le meilleur potentiel. Malgré leur intérêt comme outil de conception et d’optimisation avancé, les approches de type RANS présentent des limitations inhérentes à leurs hypothèses de base. En particulier, elles ne sont applicables qu’aux cas présentant de faibles variations autour de la moyenne. Or, en présence de fortes variations cycliques comme celles qui sont l’objet du présent projet, une telle hypothèse n’est pas vérifiée, un cycle moyen ne pouvant alors plus suffire à décrire correctement les caractéristiques du cas étudié.Depuis quelques années, l’évolution continuelle des puissances de calcul (et en particulier des machines parallèles) a permis de développer une nouvelle approche de la simulation 3D, basée sur la technique de la Large Eddy Simulation (LES). Celle-ci n’est pas basée sur une approche statistique, mais consiste à distinguer les échelles de l’écoulement résolues sur le maillage de calcul, de celles qui ne le sont pas, et qu’il faut donc modéliser. Formellement, ceci est réalisé via l’application d’un filtrage spatial aux équations de Navier-Stokes, les équations résultantes étant résolues par des méthodes numériques présentant une qualité suffisante, combinées avec des modèles dits de sous-maille permettant de rendre les effets des phénomènes non résolus. Cette approche a fait ses preuves pour la prédiction de phénomènes instationnaires inaccessibles aux méthodes RANS, telles les instabilités acoustiques dans les brûleurs des turbines à gaz notamment. Elle peut être considérée comme une « expérience numérique » qui permet d’approfondir les résultats obtenus en RANS, en fournissant une vue détaillée sur des réalisations filtrées d’un ou plusieurs cycles moteur afin d’optimiser entre autres les aspects variabilités cycliques ou transitoires entre points moteur stables. En fournissant des informations détaillées non accessibles via les approches classiques, la LES permettra  d’acquérir une compréhension de base des interactions entre les nombreux phénomènes physico-chimiques impliqués dans l’apparition des variations cycle-à-cycle des moteurs. Cette compréhension pourra ensuite être capitalisée sous forme de modèles qui, intégrés dans des codes de simulation système, permettront de reproduire les effets de ces variations cycliques. Ces outils de simulation système serviront à développer et tester des stratégies de contrôle-commande visant à limiter les impacts négatifs des variabilités qui n’auront pu être éliminées par optimisation de la conception de la chambre de combustion.

Le polyamide et la protection des piétons

Suivant les traces de l’Opel Corsa et de l’Opel Insignia, l’Opel Astra s’est dotée quelques mois plus tard d’un renfort de pare-choc avant en matière plastique Ultramid CR de BASF. Et la nouvelle version du monospace Opel Meriva, elle-même lancée au Salon de l’Automobile de Genève en mars 2010, adopte à son tour un renfort de pare-choc en Ultramid. Ce composant est conçu pour satisfaire à la toute dernière législation sur la protection des piétons et exige à ce titre des matériaux extrêmement performants. Le polyamide a été spécialement optimisé pour son comportement au crash et a déjà fait ses preuves sur d’autres pièces automobiles. 

Si, en 2006,  le renfort de pare-choc de l’Opel Corsa était une nouveauté en matière de protection des piétons, les ingénieurs chargés du développement de l’Opel Insignia ont pu s’inspirer de cette expérience antérieure pour dessiner un composant particulièrement mince et léger, capable de s’ajuster à l’espace disponible. Ils sont parvenus à prendre en compte simultanément la forme et la fonction pour chaque application. Étant donné les concepts stylistiques totalement différents des Opel Astra et Meriva, d’une part, et Insignia, d’autre part, chacun de ces modèles possède des lignes avant différentes. Par conséquent, aucune des quatre pièces ne ressemble à l’autre.

BASF a mis au point toutes les versions du renfort de pare-choc par informatique, en s’aidant de son programme de simulation ULTRASI. Entretemps, l’évolution constante des possibilités de cet outil a permis de combiner et d’automatiser des données exactes sur les caractéristiques spécifiques d’un composant donné, à l’aide de méthodes d’optimisation numérique. Inaugurée pour l’Opel Insignia, la technologie dite de morphing, c’est-à-dire l’optimisation de la forme en phase de calcul, est devenue la norme du logiciel BASF pour de telles pièces. Sa capacité de prédiction nettement plus précise évite la plupart du temps d’avoir à construire des prototypes multiples et coûteux. De nos jours, il serait difficile de se passer de tels outils informatiques pour concevoir des composants en matière plastique aux caractéristiques exigeantes.

Une comparaison effectuée avec un renfort de pare-choc en polypropylène modifié choc (PP) provenant d’un autre constructeur automobile a montré que le renfort en Ultramid B3WG6 CR de l’Opel Insignia est environ 50 % plus léger que la version en PP (1 kg contre 1,6 kg) et 50 % plus étroit au point le plus large. Des études complémentaires menées sur les deux pièces montrent que le renfort Opel présente une rigidité et une absorption d’énergie près de trois fois supérieure. Compte-tenu du prix du matériau, un renfort en Ultramid CR offre donc à l’utilisateur final un gain de poids d’environ 66 %, pour un coût et une absorption d’énergie équivalents. Une qualité importante, en particulier lorsque la place est comptée et les critères de poids très stricts.

Un système innovant d’absorption d’énergie primé par la SPE

Déjà, il y a quelques mois, parmi les systèmes automobiles en matière plastique qui ont reçu un prix « Society of Plastics Engineers » (SPE) Division Automobile 2009, la catégorie « Compartiment Motopropulseur » comptait une solution innovante pour laquelle BASF a non seulement fourni la résine Ultramid, mais également apporté des méthodes complexes de développement.

Pour le moteur 6 cylindres diesel 3 l de la BMW Série 7, Montaplast et BASF ont développé conjointement un cache-style actif avec filtre à air intégré, occupant ainsi la 2ème place sur le podium dans la catégorie « Compartiment Motopropulseur« . Grâce à l’analyse modale assistée par ordinateur, à l’optimisation empirique de géométrie et à l’analyse dynamique de composant menée chez BASF, ainsi qu’à un système innovant d’absorption d’énergie de Montaplast, il a été possible de remplir le cahier des charges exigé pour cet organe. Les grandes pièces en thermoplastique sont fabriquées en Ultramid B3WGM24 HP, un matériau résistant et stable dimensionnellement qui possède, de plus, de bonnes caractéristiques d’amortissement acoustique et offre une telle qualité de surface que le cache-style pourrait passer pour un objet design.

Le système d’absorption d’énergie pour la protection des piétons en cas de choc se compose de deux parties : les deux coques télescopiques du corps en Ultramid sont élastiques mais suffisamment rigides pour pousser, en cas de collision frontale, plusieurs éléments coniques dans des bagues de géométrie spéciale en Elastollan (TPU – polyuréthane thermoplastique, Elastogran). Dans ce cas, le TPU ne joue pas uniquement le rôle de matériau jointif mais également d’absorbeur d’énergie intégré  Si l’énergie dégagée par la collision dépasse un certain seuil, le molleton inférieur du filtre à air s’écrase, et joue le rôle ainsi d’amortisseur supplémentaire. On obtient donc un système d’absorption graduée d’énergie qui, comparé aux caches-style dits « actifs », offre des avantages considérables en terme de coût, intègre plusieurs fonctions, présente un bel aspect et se monte facilement sans outils, par simple encliquetage. Montaplast fabrique cette pièce inédite et son filtre à air intégré par la technique de moulage par injection bi-composant (Ultramid et Elastollan).

Par Marc Chabreuil

La RFID encore loin du raz-de-marée

« Nous étions étonnés que nos clients ne manifestent pas plus d’intérêt autour de la RFID, ce qui nous a poussés à mener cette enquête », explique Nicolas Desombre, manager senior chez PricewaterhouseCoopers. Intitulée « Perception et utilisation des solutions de radio-identification (RFID) dans les entreprises françaises », elle met en évidence un intérêt pour cette technologie de la part des entreprises, qui pourtant hésitent à franchir le pas. D’après les résultats récoltés auprès d’un peu moins de 50 entreprises, 29% des sondés ont un projet RFID ou sont en train d’étudier sa mise en place. « L’étude a conforté l’idée que tout le monde se dit prêt à démarrer mais que l’on n’observe pas encore de raz-de-marée, poursuit Nicolas Desombre. Cela fait des années que l’on annonce des projets à grande échelle, alors que l’on s’en tient à des projets encore limités. » Cependant, la RFID est considérée comme une technologie inévitable dans le futur par 71% des entreprises interrogées. « L’effet domino aura-t-il lieu ?, se demande le consultant. On peut très bien imaginer une concertation dans une branche comme l’aéronautique ou l’automobile. Si la sécurisation de la chaîne devenait un véritable enjeu, cela provoquerait des investissements massifs. Pour l’instant, je ne vois pas vraiment de secteur prêt à se lancer. Il existe des innovations locales d’optimisation de flux, mais elles sont rarement connectées avec le reste de la chaîne. » 52% des entreprises estiment que la RFID ne sera utilisée que si une pression externe l’oblige. Le retour sur investissement attendu pour un projet RFID est court. 66% des sondés ont pour objectif un ROI de 1 à 3 ans. « Le besoin de projets à ROI relativement court peut être lié à la période de crise, commente-t-il. Mais il peut aussi signifier que les entreprises ne considèrent pas la RFID comme un enjeu stratégique majeur qui pourrait justifier un investissement à ROI plus long. Avec un ROI cible aussi court, nombre de projets RFID risquent de ne pas être retenus. »Parmi les principaux freins à la mise en place d’un projet RFID, on retrouve logiquement le coût initial de mise en place (un quart des entreprises) et le coût des tags (21%). Autre difficulté, le manque de visibilité sur les bénéfices et le ROI (20%), un argument souvent mis en avant par les experts du secteur (lire l’interview de Laurent Gonzalez de Fil RFID).  Le principal objectif évoqué par les entreprises mettant en place un projet RFID est de tracer les biens, aussi bien en interne qu’en externe. La RFID contribue également à améliorer la chaîne logistique, à répondre à la pression des clients ou encore de réduire les délais d’inventaire. Grâce à cette enquête, PwC a également dressé un portrait robot des projets RFID types au sein des entreprises interrogée.Portrait robot

  • Des projets sous la responsabilité du DSI, d’une durée moyenne de 21 mois, avec un retour sur investissement de moins d’un an.
  • Un objectif visé d’optimisation des processus de gestion des flux physiques en entrepôt ou en production et l’amélioration de leur traçabilité.
  • Des projets réalisés en internes ou en collaboration avec les clients, sur une échelle nationale voire européenne.
  • Le recours à un prestataire généralement nécessaire.
  • Les technologies généralement utilisées :– les tags utilisés durant ces projets sont le plus souvent apposés sur les palettes ;– les unités taguées ont, en moyenne, une valeur comprise entre 10 et 100 euros ;– ce sont des tags passifs qui peuvent assurer les mêmes fonctions que des codes barre ;– les lecteurs utilisés sont généralement mobiles ;– les fréquences des technologies RFID utilisées peuvent aller de la basse fréquence aux micro-ondes ;– des middlewares permettent ensuite d’intégrer les données aux systèmes d’information.

L’enquête met en avant les bonnes pratiques sur chacun des volets d’un projet.Bonnes pratiques

  1. Anticiper les gains / impacts sur les systèmes d’informations et les potentiels problèmes techniques.
  2. Démontrer le ROI dès le début de la chaîne de valeur et bien prendre en compte les coûts d’optimisation des infrastructures informatiques en plus de celui des achats des étiquettes et des lecteurs.
  3. Mettre à disposition des documents de référence sur l’utilisation du matériel et les procédures opérationnelles (collage, chargement…).
  4. S’assurer de la bonne formation et de la sensibilisation des opérateurs.
  5. S’assurer de l’intérêt et de la participation à ce projet des autres maillons de la chaîne logistique (fournisseurs, clients).
  6. S’assurer de la conduite d’une véritable réflexion sur la gestion des données. A savoir, quelles données doivent être sauvegardées ? Traitées en temps réel ? Détruites ? Traitées en temps différés ?
  7. Prévoir une implantation si possible isolée des perturbations électromagnétiques.
  8. Réaliser régulièrement des audit des installations par les opérationnels sur site.
  9. Définir une bande passante de taille adéquate pour transporter les données.

L’étude, dont c’est la première édition, sera publiée tous les deux ans. Elle a été réalisée auprès d’un peu moins de 50 entreprises, surtout françaises, avec un chiffre d’affaires moyen de 4 milliards d’euros. 28% des entreprises proviennent du secteur de la distribution, 13% des l’agroalimentaire et 13% de la production industrielle.CG A lire aussiDes snowparks nouvelle génération grâce à la RFID« La RFID atteint un certain degré de maturité », une interview de Laurent Gonzalez – Fil RFID, suivie d’un encadré sur le retour d’expérience d’Edifret La RFID toujours porteuse de promesses

Des plaques en vitrocéramique sans métaux lourds

La société allemande Schott qui a renforcé en 2009 ses travaux de recherche et développement pour ses plaques de cuisson en vitrocéramique, tout particulièrement dans le domaine du développement durable,  a été distinguée par le prix allemand de l’innovation dans la catégorie « Grandes entreprises ».  Le résultat de ces travaux s’est matérialisé sous la forme de plaques de cuisson en vitrocéramique produites sans les métaux lourds,  arsenic et antimoine, grâce à un procédé de mélange des cristaux de quartz et d’une technique vitrification qui ont fait l’objet d’un  brevet déposé par l’entreprise mayençaise. Ainsi, Schott épargne 180 tonnes par an de ces métaux lourds toxiques qui sont traditionnellement employés dans ce type de fabrication et contribue activement à la réduction de l’utilisation de ces substances.« La méthode de production écologique appliquée par Schott constitue une véritable innovation. Ce procédé permet de conserver la production des plaques de cuisson vitrocéramiques Ceran  en Allemagne, malgré le renforcement des directives en matière d’utilisation de substances dangereuses », telle est une partie de la justification du jury selon  Frank Riemensperger, président de Accenture Holding GmbH & Co. KG. En effet, alors que de nombreuses entreprises externalisent leur production à l’étranger, Schott conserve son site de production à Mayence et garantit avec ses produits « made in Germany» de nombreux emplois locaux. Toujours grâce à la recherche et au développement, la société Schott a également mis au point une caractéristique unique : au lieu des traditionnelles LED rouges présentes sur les plaques de cuisson,  elle peut aujourd’hui utiliser des LED bleues pour l’affichage. Une innovation qui permet un design personnalisé et très esthétique dans la cuisine et fait partie de son concept baptisé « Cooking & Light ».

La GMAO, une passerelle entre la production et la maintenance

Seule unité de production d’eau potable de Nantes Métropole, l’Usine de la Roche doit assurer à la fois la disponibilité de ses équipements de production et anticiper la réserve d’eau potable en cas d’arrêt de la production pour maintenance (le volume minimum permet d’avoir une autonomie de 11h00 dans les réservoirs de 120 000 mètres cubes). Afin de pallier la moindre défaillance technique, les équipements sont doublés, aucun autre site ne pouvant pallier à la production au sein de l’agglomération de Nantes. Sur l’agglomération de Nantes Métropole, la Régie de l’Eau exploite 11 sites dédiés à la production, au stockage et au relevage. Elle a autorité sur 8 communes ce qui représente 1900 km de canalisations sur la région dont 3000 km sur les 24 communes de l’agglomération. Les équipements du parc sont plus ou moins anciens et de différentes natures :

  • la station de pompage (eau/Loire) par exemple, date de 1989. La maintenance s’occupe des travaux d’entretien et de nettoyage des 3 pertuis d’aspiration qui alimentent Nantes sur 14 km de canalisation ;
  • la station de secours de pompage en centre ville sur l’Erdre est au contraire très récente. Les techniciens de conduite testent une fois par mois la mise en route et le fonctionnement de ces nouvelles pompes, totalement immergées et invisibles. Cette opération garantit l’alimentation en eau de l’Usine de la Roche dans le cas où il serait nécessaire de puiser dans les eaux de l’Erdre ;
  • les équipements de l’Usine de la Roche comme les pompes à axes long pour les eaux brutes datant de 1948 et les pompes à double entrée pour les eaux traitées qui sont anciennes et qui ont été modernisées avec une garniture mécanique et des démarreurs électroniques (12 pompes eaux traitées). Sur ces pompes, la maintenance s’effectue sur la base d’une analyse vibratoire et le linéage s’opère grâce à une technique laser ;
  • la maintenance gère également les châteaux d’eau et les réservoirs qui impliquent un nettoyage annuel et la désinfection des cuves de stockage. Ces interventions nécessitent des compétences en métrologie (pour mesurer la concentration en chlore), en mécanique (sur les vannes et les clapets) et en métallerie (pour lutter contre la corrosion de l’acier revêtu).
La Régie de l’eau fait également appel à des sous-traitants qui interviennent sur des domaines de compétences bien précis: groupes électrogènes, groupes froids, contrôles réglementaires, espaces verts, entretien des bâtiments et changements des canalisations.Une telle situation et l’ambition d’obtenir la certification ISO 9001 ont conduit à intégrer les services maintenance et production ont été intégrés afin de mieux partager leurs compétences et disposer d’une vision identique des chantiers d’entretien. Cette réorganisation a été facilitée notamment grâce à l’utilisation d’un outil commun de gestion, la GMAO,  qui gère les demandes et le suivi des travaux, les demandes de mise à disposition des équipements à maintenir et la planification des interventions. Autant d’interventions qui affectent les services de production, de maintenance, d’exploitation…

Bilan technique de l’exploitation de la GMAO
En mars 2006, la Régie de l’Eau de Nantes Métropole a choisi le logiciel client/serveur CARL Master de CARL Software pour gérer ses équipements, ses stocks, ses travaux, ses budgets, sa planification, optimiser sa maintenance préventive et rationnaliser sa maintenance curative. Aujourd’hui, cet outil gère :
  • l’arborescence géographique qui compte 5000 équipements répertoriés sur l’Usine, les 9 stations de pompage et les réservoirs. Ces équipements sont répartis sur 27 secteurs, découpés 791 locaux répartis géographiquement sur 143 lieux distincts. Les équipements principaux possèdent des « fiches de vie » qui tracent l’historique des interventions et leurs caractéristiques techniques. Sur l’arborescence fonctionnelle, les équipements sont découpés en 59 activités, 391 fonctions et 940 sous ensembles fonctionnels ;
  • les travaux: en 2009, 2185 ordres de travaux (OT), 2447 bons de travaux (BT) ont été enregistrés et  285 DDIS (Demandes de mise à disposition) ont été enregistrés ;
  • la planification: le logiciel fournit un planning de co-activité établi à partir des DDIS. Il permet de disposer d’une vision globale et simultanée de l’ensemble des travaux pouvant impacter plusieurs services. Son niveau de détail permet d’optimiser la gestion des travaux en lieu et en temps, en tenant compte de plusieurs paramètres, notamment les services impactés selon la nature de travaux (par exemple le dépotage de produits chimiques) ;
  • le suivi des occupations sur les chantiers des 6 ateliers (mécanique, automatisme, électricité, métallerie, travaux d’eau, entretien des bâtiments) ;
  • les demandes d’achats qui ne concernent à ce jour que les pièces détachées stockées dans le magasin.
  • 7200 articles stockés dans le magasin principal. Ces articles sont constitués pour moitié par des pièces réservées au réseau de distribution et pour moitié par des pièces destinées aux ateliers. Les demandes de fourniture de pièces faites par 320 personnes sont gérées dans le logiciel CARL Master par les magasiniers.
La GMAO, un outil fédérateur
Dans le cadre de la réorganisation de l’organisation des services techniques de la régie de l’Eau, la GMAO est perçue comme un outil fédérateur entre les techniciens de maintenance et les techniciens de production. En effet, ceux-ci gèrent ensemble leurs interventions sur le logiciel CARL Master et disposent d’une vision commune et concertée des chantiers de maintenance. Outil central du système d’information, le logiciel est également exploité par 105 utilisateurs de différents services de la Régie de l’eau (exploitation, distribution, clientèle, études spécifiques, services généraux, service QSE…) qui émettent des demandes de travaux, consultent ses indicateurs…La GMAO contribue ainsi à l’amélioration de la prise en compte de ces demandes et à la qualité du service rendu par le service maintenance. Les techniciens sensibilisés aux bénéfices apportés par la mise en place d’un outil de GMAO ont bien adhéré à son utilisation. Les agents s’appuient à présent sur CARL Master pour valoriser leur savoir faire technique et disposer d’une vision plus globale de leur contribution sur le bon fonctionnement des équipements.Cette année, l’exploitation de CARL Master sera renforcée par :
  • une interface avec le logiciel de gestion des temps « Temptation » de Nantes Métropole afin de communiquer à CARL Master les informations personnelles des agents (congés,  maladies, RTT, formations…) afin de faciliter la planification mensuelle des agents ;
  • le déploiement des fiches de données de sécurité et les fiches de procédure indexées sur CARL est également en cours de réalisation. Il s’agit de fiches d’évaluation des risques selon le poste de travail (par exemple la dangerosité des équipements, l’utilisation de produits chimiques en magasin, les précautions à prendre…) ;
  • l’intégration des  relevés de mesure et les relevés de temps de fonctionnement des équipements grâce au lien avec le logiciel de supervision.
La Régie de l’eau s’appuiera également sur certains indicateurs de CARL pour marquer l’évolution de la démarche qualité vers une méthode ABC. eT Des chantiers de modernisation de l’Usine de la Roche qui est certifiée ISO 9001 depuis 2001, sont prévus entre 2013 et 2016 sur ce site qui restera l’usine de production d’eau potable la plus importante et stratégique de Nantes Métropole.

Quand une résine copolymère permet de repenser les volants

Les volants se composent généralement d’une armature en magnésium ou en aluminium moulé sous pression, surmoulée à l’aide de mousse uréthane souple. Cela crée une section solide sans espace permettant l’intégration de composants électroniques. En outre, le polyuréthane rend difficile la fixation structurelle de composants. Cette approche limite également les possibilités de design novateur telles que formes sophistiquées et nouveaux éléments esthétiques.  » Il est grand temps de prendre une nouvelle orientation dans la conception des volants. SABIC Innovative Plastics a pris un virage à 180 degrés avec sa conception moulée par injection en deux pièces qui utilise notre résine copolymère polycarbonate Lexan « , affirme V. Umamaheswaran, directeur des produits et du marketing chez SABIC Innovative Plastics. En fait, SABIC Innovative Plastics a développé deux conceptions : une conception moulée par injection en deux pièces avec enveloppe en cuir en tant que solution haut de gamme et une armature monobloc moulée par injection avec surmoulage en polyuréthane. Ces deux conceptions se fixent sur le volant à l’aide d’un moyeu en métal. Il a été démontré qu’elles réduisent les coûts de la fonction de près de 20 % et la masse de près de 40 % par rapport à un volant en alliage de magnésium ou d’aluminium.Ces deux conceptions procurent également d’autres avantages :

  • dans la conception en deux pièces, l’espace créé par la cavité permet d’intégrer des technologies d’amortissement et de détection, des interrupteurs de commande, le câblage et d’autres fonctions à l’intérieur du volant ;
  • la résine en copolymère polycarbonate-siloxane Lexan EXL chargé fibres de verre moulée par injection est un processus plus écologique que l’alliage en magnésium moulé sous pression car elle réduit considérablement les émissions de dioxyde de carbone (CO2). Par rapport au moulage sous pression de 1,1 kg d’alliage de magnésium, qui génère près de 70 kg de dioxyde de carbone, la fabrication de 1kg de résine copolymère Lexan EXL génère seulement 7,6 kg, soit environ un dixième des émissions ;
  • une plus grande liberté de conception permettant de créer de nouvelles formes et configurations ergonomiques ;
  • de nouvelles options de style telles que couleurs et effets spéciaux ;
  • une  intégration de la fixation de l’airbag conducteur, du mécanisme de l’avertisseur, etc. ;
  • une fabrication simplifiée grâce à la réduction du nombre de procédés secondaires ;
  • une meilleure gestion de l’énergie pour les chocs au niveau de la tête et du torse.
La faisabilité technique du nouveau concept de volant a été testée. Des pièces prototypes ont été construites et une validation complémentaire des équipementiers sur les véhicules est en cours.

EADS, Veolia et Google plébiscitées par les étudiants ingénieurs

Pour la troisième année consécutive, c’est EADS qui domine le classement des entreprises préférées des étudiants ingénieurs. Réalisée par l’entreprise suédoise Universum, l’étude laisse apparaître une certaine stabilité dans les préférences des étudiants, que ce soit dans la filière ingénieur ou dans la filière sciences naturelles. On retrouve ainsi d’une année sur l’autre les Veolia environnement, Thales, EDF, Dassault aviation et autres Areva pour les ingénieurs. Sanofi-Aventis, L’Oréal ou Pfizer en sciences naturelles et santé.

Le classement 2010 est cependant marqué par certaines évolutions fortes. Le secteur des technologies de l’information poursuit sa percée, avec en tête Google qui entre dans le top 3 (également troisième du classement des écoles de commerce). Citons encore Thales, Microsoft, Dassault Systèmes, IBM, Ubisoft… Crise du secteur oblige, la baisse d’intérêt des ingénieurs pour le secteur automobile se confirme : PSA Peugeot Citroën, BMW ou encore Renault perdent des places. L’environnement et l’énergie reste un secteur porteur, avec Veolia en deuxième position, mais aussi EDF, Areva ou encore Total. GDF Suez occupe la 11e marche, alors que les deux entreprises étaient très loin derrière avant la fusion (en 2008, GDF : 31e et Suez : 14e).

large

Le secteur de la construction est moins plébiscité, à l’instar de Bouygues construction qui perd quatre places, alors que Vinci, en neuvième position, gagne une petite place.  Les secteurs de la défense, de la sécurité, de l’aérospatiale et de l’aéronautique sont bien représentés avec EADS, Thales, Dassault aviation, Safran, etc. Seul organisme de recherche à figurer dans les 25 premières entreprises préférées des ingénieurs, le CNRS arrive 18e.

Le classement dans la catégorie sciences naturelles et santé est lui aussi dominé depuis trois ans par la même entreprise : Sanofi-Aventis. L’Oréal est toujours en deuxième position. Deux nouveaux dans le classement ont fait une arrivée remarquée : le CNRS (3e) et Pierre Fabre (4e).

 

Méthodologie

L’enquête Universum a été réalisée auprès de 20.893 étudiants, entre novembre 2009 et février 2010. Pour la filière ingénieure, 8.530 étudiants ont participé. Pour les sciences naturelles et la santé, ils n’étaient que 560. Parmi une liste de 130 entreprises, les étudiants ne pouvaient sélectionner que les 5 employeurs pour lesquels ils aimeraient le plus travailler. Ils pouvaient également ajouter d’autres entreprises, pour compléter la liste de l’année prochaine.
Pour consulter l’étude complète : universumglobal.com

&l

Un système anti-crue original pour le siège parisien l’AFD

Comme nous l’a récemment rappelé la tempête Xynthia, Paris, comme de nombreuses villes, est exposé aux crues du fleuve qui la traverse. En 1910, la ville a connu d’ailleurs l’une des plus importantes inondations de son histoire : la Seine débitait à 2 400 m3/s, l’eau atteignait 8,62 m sur l’échelle hydrométrique du pont d’Austerlitz et le débordement était tel que la décrue prendra plus d’un mois. A l’époque déjà, la crue était qualifiée de centennale. Or, étude menée par la DIREN (Direction Régionale de l’Environnement), en 1998, a évalué qu’une crue semblable à celle de 1910 engendrerait plus de 12 milliards d’Euros de dégâts en région Ile-de-France dans l’état actuel d’urbanisation du lit majeur de la Seine. Or, une telle crue aurait chaque hiver, 1 chance sur 100 de se reproduire…

Parmi les nombreux bâtiments parisiens exposés, le siège de l’AFD (Agence Française de Développement), situé 5 rue Roland Barthes (12ème arrondissement de Paris) est distant du lit de la Seine d’environ 400 m, et se trouve dans une zone où, selon le PPRI (Plan de Prévention du Risque Inondations) de Paris, la hauteur d’eau serait de 34,70 mètres en cas de crue centennale. Occupant une surface au sol de 4 620 m², le bâtiment est composé de 7 étages et d’un sous-sol : un niveau de locaux techniques et 3 niveaux de parkings souterrains. En cas d’inondation de type 1910, le rez-de-chaussée serait envahit par 58 cm d’eau et les sous sols noyés. Quant au point le plus bas de la voirie autour du bâtiment, la hauteur d’eau maximum y atteindrait 1,64 m. Pour protéger son bâtiment inondable sur 3 faces (la partie Sud – Ouest de l’édifice n’est pas exposé aux crues) et son Assistance à Maitrise d’Ouvrage, EXAMO, ont retenu la protection périmétrique amovible extérieure proposée par la société ESTHI : le K-system qui tient son nom de l’allemand « Katastro-phenschutz-System », qui signifie barrière de protection à poser en catastrophe, c’est-à-dire dans l’urgence. La protection périmétrique ESTHI en aluminium extrudé et réutilisable à chaque menace d’inondation présente surtout l’avantage de ne nécessiter aucuns travaux de voirie (pas de travaux de génie civil, pas besoin de constructions et d’adaptations de sols au préalable, absence de rails au sol…). Il n’a donc pas été nécessaire de demander d’Instruction Technique de Voirie, obligatoire lorsque l’on creuse les trottoirs parisiens en raison de l’importance du réseau souterrain. Elle se décompose en 2 parties :

  • la mise en place d’un système anti-crue démontable et mobile K-system pour le reste de la zone à protéger. Constitué de poutres horizontales et étanches en aluminium extrudé et de glissières inclinées, le K-system est autobloquant et évite le coulage de fondations. A la différence des barrières traditionnelles qui reposent sur le sol et forment un angle à 90° avec le sol, le K-System lui, forme un angle à 45°: l’eau de la crue exerce une charge sur la surface inclinée et le poids de l’eau stabilise la barrière et l’immobilise au sol. Grâce au poids de l’eau et surtout à l’angle d’inclinaison de la paroi, le maintien de la barrière au sol est assuré. Bien sûr, la neutralisation de la poussée verticale n’est pas suffisante, puisqu’il faut également pouvoir empêcher la barrière de se déplacer vers l’arrière, sous l’effet de cisaillement. Toutefois, ce type de protection inclinée est limité à une hauteur de protection d’1,30m. D’une longueur de 300 m, le K-system mis en place devant l’AFD est le plus grand jamais installé ;
  • l’installation d’un mur de batardeaux en aluminium ancrés par des poteaux en applique dans le sous bassement du bâtiment pour la zone où la hauteur d’eau attendue en cas de crue est la plus haute (rue de Rambouillet : 1,65 mètres). Les poteaux aluminium sont fixés, au moment de la crue, sur la façade de l’AFD à l’aide de chevilles préinstallées.

L’ensemble de cette protection démontable est facilement stockable et facile à mettre en place même dans l’urgence. L’AFD stocke sur racks spéciaux au 4ème sous-sol l’ensemble des éléments de la barrière qui en cas de crue de la Seine est monté en 1 journée par 6 personnes.

Une fois la protection montée, le bâtiment de l’AFD est complètement protégé des crues centennales éventuelles et de leurs dommages. L’édifice et ses équipements ne sont pas endommagés (pas de changement de moquette, de remplacement des installations électriques…) et la reprise de l’exploitation peut intervenir très rapidement après la crue.

Marc Chabreuil

4 nouveaux programmes de recherche pour la filière chimie-environnement

Axelera, le pôle de compétitivité Chimie-Environnement Lyon et Rhône-Alpes, axe sa stratégie de développement sur 5 thématiques : la chimie au service des marchés d’applications, la préservation des espaces naturels, le recyclage et la recyclabilité des matériaux, la chimie issue du végétal et l’usine du futur. Dans ce cadre, il a proposé 4 nouveaux programmes qui viennent d’être retenus dans le cadre du 9ème appel à projets du Fonds Unique Interministériel (FUI). Leurs objectifs ? Faire évoluer l’analyse industrielle et les procédés de séparation hydrogène/CO2, le recyclage des batteries au plomb et la détection des COV.

INNOVAL : l’analyse industrielle au coeur des procédés

Le contrôle des procédés présente un enjeu majeur pour l’industrie chimique afin de garantir la qualité des produits, le contrôle des coûts, le maintien de la productivité et la maîtrise des risques. L’analyse menée directement au coeur des procédés constitue la voie la plus efficace, mais le marché se heurte à l’absence de solution capable d’offrir un spectre large d’applications. Dans ce contexte, le programme INNOVAL vise à mettre au point des solutions d’analyse en ligne in situ, répondant aux besoins des industriels de la chimie. Présentant un fort contenu technologique, il ambitionne de couvrir les grands domaines de l’analyse chimique :

  • l’analyse élémentaire, avec le développement d’un analyseur en ligne miniaturisé LinLIBS permettant l’analyse in situ de contaminants dans les matrices liquides ;
  • l’analyse moléculaire et propriétés, à l’aide des micro-technologies d’analyse dans les liquides ou dans les gaz dans le cadre d’applications concrètes ;
  • l’analyse en milieux extrêmes pour développer une approche permettant une analyse en ligne multi-composés en milieu gazeux agressif et de façon non intrusive pour limiter les risques.

D’un budget global de 9,8 millions d’euros, le programme INNOVAL piloté par l’IFP et Arkema, rassemble 5 PME, 4 groupes industriels, 2 EPIC (établissement public à caractère industriel et commercial) et 2 centres de recherche académiques.

MISHY : une technologie-clé pour la séquestration du CO2

L’hydrogène est une molécule-clé pour l’avenir. Aujourd’hui essentiellement utilisé dans la pétrochimie (désulfuration et allègement des pétroles), l’hydrogène sera utilisé demain dans la production d’électricité (via les centrales à charbon de type IGCC) et de carburants de synthèse, et, à long terme, dans le développement de la pile à combustible. Ces développements s’appuient sur l’évolution des technologies de séparation hydrogène/CO2. Le programme MISHY vise à améliorer la technologie de production de l’hydrogène par l’utilisation d’une nouvelle unité de séparation membranaire à hautes performances. Cette nouvelle brique technologique permettra un fonctionnement de la membrane en continu et à températures élevées, ce qui n’est pas le cas des procédés actuels. Elle contribuera à faire progresser la productivité et l’efficacité énergétique. Fruit de la collaboration de 3 pôles (Axelera, Trimatec, ViaMéca) et porté par l’Air Liquide, le programme MISHY regroupe 2 groupes industriels, 1 PME et 1 laboratoire de recherche, pour un budget de 3,5 millions d’euros.

YCARE : le recyclage des batteries au plomb par voie non thermique

Malgré les évolutions des systèmes nickel-métal-hydrure et lithium-ion, les batteries au plomb occupent encore une très large place dans le démarrage des véhicules, dans le stationnaire et les alimentations fixes (alarmes back-up, …), place qui devrait se renforcer avec le prochain bannissement des batteries nickel-cadmium. Parallèlement, la hausse de la demande en plomb pour la fabrication de batteries automobiles se heurte à l’appauvrissement des ressources minières. Dans ce contexte, les filières de recyclage et de revalorisation des batteries au plomb présentent un intérêt croissant, mais elles sont confrontées à des verrous technologiques. Le programme YCARE se propose de les lever en repartant des procédés de recyclabilité par voie chimique utilisés pour les piles alcalines salines et les batteries lithium-ion. Cette approche a démontré son efficacité et pourra, moyennant la mise en oeuvre d’un procédé très innovant, être appliquée aux batteries au plomb. Elle conduira à une conversion totale du plomb en matière première ré-utilisable, à une récupération du polypropylène, ainsi que de l’acide sulfurique converti en gypse. L’absence d’étape thermique dans ce procédé, comme la mise en oeuvre d’un réactif nouveau pour la mise en solution et la récupération du plomb, constituent les innovations de cette démarche. Co-labellisé par les pôles Axelera et Tenerrdis, le programme YCARE (1 million d’euros) est porté par Récupyl, PME disposant d’un important savoir-faire en matière de traitement et de recyclage métallique, et réunit  2 groupes industriels, 1 PME et 1 laboratoire de recherche.

COVADIS : un procédé simple et instantané de détection des COV dans l’air

Les composés organiques volatils (COV), véritables paramètres de l’évaluation de la qualité de l’air intérieur, et dont certains s’avèrent cancérogènes ou toxiques, sont devenus un enjeu de santé publique. Par ailleurs, certains COV présents dans l’air expiré par les personnes atteintes de certaines maladies sont connus comme biomarqueurs de pathologies – cancer ou maladies infectieuses telles que la tuberculose. Grâce à l’utilisation de capteurs nano-poreux chromogéniques ou fluorogéniques spécifiques aux COV cibles, couplés à un système de lecture optique, sensible et portable, le programme COVADIS ambitionne de mettre sur le marché :

  • un moyen simple et à bas coût de surveillance de la qualité de l’air intérieur, à destination du grand public et des professionnels ;
  • un test de diagnostic non invasif de la tuberculose dans l’haleine du patient.

A fort potentiel, la technologie des capteurs nano-poreux pourrait être étendue au diagnostic d’autres pathologies respiratoires, à la surveillance de la contamination dans le domaine agro-alimentaire, à la sécurité des travailleurs en milieu hospitalier… Co-labellisé par Lyonbiopôle et Advancity, et porté par la start-up Ethera, le programme COVADIS représente un investissement de 4,6 millions d’euros et mobilise les compétences de 2 PME, 1 groupe industriel et 2 établissements de recherche.

Un polymère réduit de 15 % l’épaisseur des emballages thermoformés

Fondée en 1969 à Holstebro, au Danemark, le transformateur Faerch Plast s’est ménagé une position solide sur le marché au fil des années et est réputé pour le développement et la fabrication d’emballages alimentaires de haute qualité sous atmosphère modifiée. Il extrude des films et thermoforme des emballages 24 heures sur 24 et 365 jours par an. L’un de ses principaux défis est de produire des emballages plus respectueux de l’environnement, sans sacrifier leurs caractéristiques techniques, ni la modernité du design. Merete Rosendahl, directrice du développement chez Faerch Plast, explique :  » Nos clients recherchent un emballage léger possédant un design attrayant et un fort impact. Grâce à la gamme SABIC- PP pour le thermoformage, nous pouvons satisfaire et même dépasser ces exigences, et donc favoriser et améliorer la notoriété de la marque de nos clients.  » Mais, outre le design, l’aspect  » vert  » de l’emballage revêt une importance croissante pour les consommateurs, qui sont de plus en plus nombreux à choisir délibérément d’acheter des produits et emballages respectueux de l’environnement. D’après Tjerk Lenstra, responsable du marketing technique de SABIC :  » le SABIC- PP 527K de grade homopolymère permet de réduire l’épaisseur du plastique et d’améliorer la rentabilité de la transformation, entraînant une réduction considérable de l’empreinte carbone pour nos clients. Cette nouvelle génération de matériau pour le thermoformage permet aux transformateurs de réduire l’épaisseur du plastique jusqu’à 10 ou 15 %, ce qui représente des économies de matériaux et d’énergie significatives. Les produits de grade PP constituent le choix idéal pour qui se préoccupe de la production et de la consommation durables, mais refuse de transiger sur la qualité et la sécurité « , ajoute-t-elle.La gamme de produits PP de SABIC composée d’homopolymères, de copolymères d’impact et de polymères aléatoires est largement utilisée dans l’industrie de l’emballage à paroi fine.  » Chez SABIC, nous comprenons non seulement les défis auxquels font face les transformateurs, mais aussi les motivations fondamentales de leurs clients, les propriétaires de marque, poursuit Tjerk Lenstra. Les sélectionneurs d’échantillons et les transformateurs comme Faerch Plast demandent des solutions taillées sur mesure pour leur stratégie de marché, solutions que notre gamme est susceptible de leur fournir. « Par Marc Chabreuil

Caractérisation et conception thermiques des boîtiers semi-conducteurs

En général, une équipe chargée de la résolution des problèmes thermiques des semi-conducteurs consacre environ 60 % de son temps à la caractérisation/conception du boîtier, le reste étant dédié aux caractérisations spécifiques du client. La solution FloTHERM IC de Mentor Graphics IC qui est déployée comme une plate-forme Web unique, réduit nettement le processus de caractérisation en l’automatisant, notamment grâce à des modèles thermiques pré-vérifiés qui réduisent le risque d’erreurs de modélisation. Il peut même diminuer de 25 % le temps consacré aux caractérisations spécifiques du client.Doté d’une interface utilisateur simple d’emploi avec assistant qui convient aussi bien aux équipes chargées des problèmes thermiques qu’aux ingénieurs, l’outil FloTHERM IC utilise le logiciel FloTHERM de modélisation de la dynamique des fluides (CFD ou Computational Fluid Dynamics), employé pour simuler les flux d’air, la température et le transfert de chaleur dans les systèmes électroniques, ainsi que l’outil FloTHERM PACK pour la modélisation de composants intelligents. Il couvre :

  • la génération de modèles compacts et de métriques thermiques conformes aux standards publiés par le JEDEC (Joint Electron Devices Engineering Council) ;
  • la conception paramétrique « orientée boîtier » pour analyse hypothétique (« what-if ») ;
  • l’interface avec des outils EDA (Electronic design automation) pour modélisation détaillée des substrats BGA (ball grid array) du layout physique ;
  • l’exploration (datamining) des données de simulation pour optimiser le temps de conception et la réutilisation des composants.
 « Toutes nos équipes doivent accéder aux informations thermiques à des étapes différentes du cycle de conception et de fabrication. Mon groupe utilise FloTHERM depuis longtemps pour les applications de refroidissement des composants électroniques. En revanche, tous nos concepteurs n’ont pas besoin de toutes les fonctionnalités de cet outil. C’est là que la solution FloTHERM IC peut jouer un rôle important dans le processus de conception », explique le Dr. Claudio Maria Villa, responsable de l’équipe Conception thermique du groupe Corporate Packaging and Automation de STMicroelectronics. « L’interface intuitive de FloTHERM est extrêmement conviviale, même pour les utilisateurs novices. Elle facilite l’accès en ligne aux technologies, accélère la création d’un modèle à partir de bibliothèques et le test de ce modèle, ce qui permet aux experts de se consacrer à la résolution des problèmes thermiques complexes des boîtiers et à des questions essentielles. »

 Marc CHABREUIL

Un polymère remplace le métal dans des accouplements flexibles

« Un de nos clients au Japon, spécialiste de la conception et de la production de condensateurs haute tension nous a sollicité pour miniaturiser des accouplements flexibles des assemblages électroniques utilisés dans la fabrication des écrans plasma. Servant à connecter les commandes d’une petite boîte de vitesse à une vis de guidage dans un condensateur haute tension, le coupleur doit satisfaire à de nombreuses propriétés exigeantes. Il doit être flexible afin de compenser les défauts d’alignement accidentels qui peuvent subvenir entre la boîte de vitesse et la vis de guidage. Par ailleurs, il doit faire barrage à toute fuite ou cheminement de courant à travers la transmission », explique Dave Lockett, Directeur général de Huco Dynatork, une entreprise anglaise spécialiste des connecteurs de précision et des accouplements flexibles. 

Il était donc nécessaire d’avoir un matériau doté d’une très bonne isolation électrique avec une grande résistance de surface et un indice de cheminement relatif (CTI) élevé. Le matériau devait être flexible et disposer d’une constante diélectrique élevée. Les accouplements flexibles fabriqués à partir de matériaux traditionnels comme l’acier inoxydable ou l’aluminium ne sont pas en mesure de satisfaire aux très hauts niveaux de performances nécessaires dans ces applications sévères.

Dave Lockett poursuit  : « Plusieurs plastiques ont été retenus dans une première phase, mais le polymère Victrex Peek s’est montré idéal pour satisfaire les exigences de cette fonction. Et rapidement nous avons reçu des commandes pour la gamme d’accouplements flexibles Multi-Beam Huco Dynatork. »

« Le succès de Huco Dynatork dans le développement des accouplements flexibles à multi-helicoïdes met en exergue les nombreux avantages du polymère Victrex Peek », déclare David Adkin, Business manager Victrex Polymère Solutions au Royaume-Uni et en Irlande. « La sélection des matériaux est critique dans le contexte du marché de l’électronique actuel. Ce polymère offre de nombreuses fonctionnalités, tout en étant fiable et permettant une grande liberté de conception. Il peut facilement être usiné à partir de semi-produits standard disponibles sur le marché, ce qui simplifie grandement le process de fabrication et réduit les temps de développement. En conformité RoHS (Restriction of Hazardous Substances Directive), il satisfait aux exigences environnementales et normes en vigueur. Il est compatible avec les contraintes des procédés de soudage sans plomb tout en étant entièrement recyclable et naturellement auto-extinguible sans avoir besoin d’additifs retardateur de flammes toxiques. »

 

BPA : l’Afssa, mi-figue mi-raisin

Le niveau moyen d’exposition au bisphénol A est 50 à 100 fois inférieur à la valeur toxicologique de référence. C’est en tout cas la conclusion tirée par l’Afssa d’après ses travaux en cours. Cependant, l’agence ne conclut pas au risque 0, loin de là. Elle recommande l’étiquetage systématique sur les ustensiles de cuisine et la réévaluation des limites de migration spécifique du BPA dans les aliments. Comme elle s’y était engagée, l’agence française de sécurité sanitaire des aliments effectue une enquête sur l’exposition des consommateurs au BPA en France. Elle a déjà recueilli 769 données sur les teneurs en BPA dans les aliments, provenant de publications scientifiques, des professionnels et de différentes associations. Le BPA migre dans les aliments à partir des matériaux de contact, phénomène accentué par le chauffage. D’après les premiers résultats, les valeurs de migration varient fortement d’un produit à l’autre :

  • pour les sodas, les valeurs les plus basses retrouvées sont inférieures au seuil de détection, les plus hautes allant jusqu’à 17 µg/kg d’aliment ;
  • pour les conserves de légumes, de poissons et de plats cuisinés, les valeurs les plus basses sont inférieures au seuil de détection, les plus hautes allant jusqu’à 128 µg/kg d’aliment.

Étiquetage systématique

Parmi les ustensiles de cuisine, seuls les biberons ont été étudiés, avec pour l’instant des résultats inférieurs au seuil de détection. Rappelons que le Sénat a voté en mars, à l’unanimité, l’interdiction du bisphénol A dans les biberons (lire l’article). Globalement, les consommateurs sont en moyenne soumis à un niveau d’exposition d’environ 1µg/kg de poids corporel/jour. Il est donc très inférieur à la valeur toxicologique de référence (dose journalière tolérable), fixée à 50 µg/kg de poids corporel/jour par l’Autorité européenne de sécurité des aliments (Efsa). Cependant, l’Afssa souligne que « des études récentes font état d’éventuels effets toxiques après des expositions au BPA dans la période périnatale à basses doses, inférieures à la DJT fixée par l’Autorité européenne de sécurité des aliments (…) Bien qu’il n’y ait pas, à l’heure actuelle, de raison de modifier nos habitudes alimentaires, l’Afssa souhaite qu’à la suite de l’avis de l’Efsa, soient examinées les mesures qui pourraient être prises au niveau européen afin de renforcer la protection des consommateurs et réduire le niveau d’exposition de la population. » L’Autorité européenne de sécurité des aliments doit rendre un avis avant fin mai.

L’Afssa émet trois grandes recommandations :

  • étiqueter systématique des récipients et ustensiles ménagers afin de permettre aux consommateurs d’éviter de chauffer excessivement et trop longtemps les aliments dans ces contenants ;
  • réévaluer les limites de migration spécifique du BPA dans les denrées ;
  • mettre au point des substituts du BPA pour les usages alimentaires.

Dans un communiqué, le Réseau environnement santé (RES) demande « que l’Afssa intervienne clairement auprès de l’agence européenne pour que l’avis de celle-ci, attendu en mai, soit conforme aux bonnes pratiques en matière de fixation des normes et qu’une norme soit fixée à 1ng/kg/jour (1 nanogramme par kilo et par jour) ».

En savoir plus

  • Communiqué de l’Afssa : L’Afssa évalue l’exposition des consommateurs au bisphenol A en France
  • Communiqué de RES : Commentaire de l’évaluation par l’AFSSA de la contamination alimentaire au BPA

Dans l’actualité

  • Le Sénat vote contre le bisphénol A dans les biberons
  • Ça chauffe pour le bisphénol A
  • Plastiques alimentaires : les biberons sous le coup d’une interdiction
  • Pourquoi faut-il interdire le BPA dans les plastiques alimentaires ?

Dans la base documentaire

  • Bisphénol A ou diphénylolpropane (DPP)

Une solution logicielle concilie économies d’énergie et efficacité de la production

Solution de logiciels et de services fournissant une vue pertinente de la consommation d’énergie, Proficy SmartStart for Manufacturing Energy Management Solution aide les utilisateurs à réduire leur facture énergétique, à améliorer la planification de leur production, à identifier les sources de gaspillage d’énergie et à introduire de meilleures pratiques de gestion de l’énergie, tout en corrélant les coûts de l’énergie à la production manufacturière.« En raison de la volatilité incessante des prix de l’énergie, les fabricants subissent une pression croissante pour gérer de façon proactive leur consommation d’énergie. De nombreuses entreprises n’ont pas intégré le facteur de consommation d’énergie dans la planification tactique de leur production/leurs décisions d’exécution ou dans leur planification stratégique, pour la simple raison qu’elles ne disposent pas de données adéquates dans le contexte approprié. La visibilité, en temps opportun, sur ces données capitales à un niveau local (zone de fabrication, équipements et produits) permettra aux entreprises d’optimiser leur consommation d’énergie afférente à la production », explique Sheila Kester, directrice générale de l’activité Logiciels de gestion des opérations pour GE Intelligent Platforms.La solution SmartStart Manufacturing Energy Management Solution, mise au point par la société EnteGreat, fournisseur certifié de solutions pour GE Intelligent Platforms, est une application à valeur ajoutée des composants logiciels Proficy de GE, en vue de fournir une vue complète sur le profil et la consommation énergétiques de chaque site de fabrication au sein d’une entreprise. EnteGreat a associé la puissance du logiciel Proficy à une parfaite compréhension des facteurs d’efficacité de production dans le but de fournir une solution de gestion énergétique au service de la production manufacturière. Le pack logiciel fournit :

  • un contexte de fabrication (produit, ligne, lot, équipement) associé à la consommation énergétique ;
  • une visualisation en temps réel des informations énergétiques contextualisées permettant au personnel de fabrication d’optimiser les décisions de planification et d’exécution ;
  • l’intégration de la gestion de l’énergie liée à la fabrication dans des programmes d’excellence opérationnelle ;
  • des données temporelles appropriées et précises sur la consommation énergétique en vue d’établir des rapports et analyses sur la gestion des performances.
 « Nos clients constatent qu’ils peuvent intégrer la gestion de l’énergie en la considérant comme un coût direct contrôlable de l’entreprise et créer des processus standards, des mesures d’évaluation et des rapports en se basant sur les meilleures pratiques afin d’intégrer totalement ce facteur à leur activité », explique Noel Peberdy, président de EnteGreat. « Une surveillance continue de l’utilisation de l’énergie dans chaque site et la prise en compte des charges de base et de crête, du volume de production et des facteurs saisonniers (conditions climatiques) permettent aux entreprises prévoyantes d’identifier les nombreuses possibilités d’économies d’énergie et de réduction de coûts qui se révèleront, à l’avenir, être de véritables atouts pour leur entreprise. »« S’appuyant sur une compréhension détaillée de la consommation d’énergie des zones spécifiques de production, des équipements et des produits, les fabricants sont à même de mieux gérer la planification de la production et son exécution, ainsi que les contrats stratégiques, d’une manière éclairée et responsable », déclare Ryan Cahalane, chef de produit Proficy SmartStart chez GE Intelligent Platforms. « La solution de gestion de l’énergie basée sur Proficy offre à nos clients un moyen rapide, à faibles risques, de se familiariser avec le facteur de consommation d’énergie et de créer les fondements solides pour une réduction continue des coûts et des pratiques durables de fabrication ».Marc CHABREUIL

Des fromages sous haute surveillance

La capacité à identifier chaque fromage individuellement dans la chaîne de production est essentielle. Auparavant, ces codes, véritables passeports, consistaient en un texte simple qui présentait de nombreux inconvénients. Het Kaasmerk, fabricant de marquages comestibles pour le fromage aux Pays-Bas, et Isotron Systems, distributeur des produits de vision et d’identification de Cognex aux Pays-Bas, se sont concertés pour introduire les codes à matrice de points 2D auprès des producteurs de fromage. Ils ont amélioré le contraste et la taille de la cellule du code 2D sur le marquage du fromage. Ce code unique peut être associé à des informations essentielles stockées sur l’ordinateur, comme les ingrédients, le taux d’humidité et la teneur en sel, les dimensions et le poids du fromage. Ainsi, les irrégularités ou les erreurs sont repérées et des mesures correctives peuvent être prises immédiatement. Le code renferme également des informations sur la date et le lieu de production du fromage, ainsi que sur ses ingrédients (par exemple, le lait utilisé). Le code 2D est marqué sur le fromage au stade le plus précoce du processus de production, juste après la séparation du petit lait du caillé. Etant en caséine (une protéine propre au fromage), il est donc comestible. Le code 2D n’est toutefois pas à l’abri des dommages : il subit en effet le même traitement que le fromage pendant le processus de transformation : le saumurage et le paraffinage du fromage peuvent l’endommager considérablement et le boursouflage du produit le déforme fréquemment.  » A cela viennent s’ajouter des dommages infligés à dessein pendant la production : le client exige que la marque soit perforée pour empêcher l’accumulation d’humidité. Avec une lisibilité inférieure à 90 %, il devient impossible de lire les codes 2D du fromage avec un lecteur ordinaire « , explique Jeroen van der Meulen d’Isotron Systems.

Les lecteurs portables DataMan 7500 de Cognex avec leur source d’éclairage et l’IDMax permettent de lire des codes extrêmement irréguliers. Cette solution ne laisse aucune place au doute, que les fromages soient récemment fabriqués, jeunes ou matures © Cognex

« Cependant, il est capital que les codes demeurent lisibles tout au long du processus de transformation, sur toute la chaîne de production jusqu’à la découpe du fromage. Isotron nous fournit les caméras Cognex et le logiciel associé. Une sécurité totale pour nous car nous savons par expérience que les lecteurs de Cognex lisent parfaitement les codes déformés et que leur logiciel corrige avec facilité les codes incomplets ! », déclare Jos Putker, Directeur Général de Het Kaasmerk.Jeroen van der Meulen ajoute : « La mauvaise lecture d’un code étant inacceptable, nous avons donc opté pour le lecteur de codes In-Sight de Cognex dans un boîtier étanche, et l’implémentation de l’algorithme IDMax breveté qui permet de lire sans difficulté les codes flous, endommagés et déformés. La lisibilité des codes devant être maintenue pendant les phases de distribution et de commercialisation, nous fournissons également des lecteurs portables DataMan 7500 de Cognex avec leur source d’éclairage et l’IDMax qui permet de lire des codes extrêmement irréguliers. Cette solution, entièrement étanche et infalsifiable, ne laisse aucune place au doute, que les fromages soient récemment fabriqués, jeunes ou matures », conclut-il.

Par Marc Chabreuil

La vague SaaS : le nouvel atout pour les éditeurs de logiciel

Difficile aujourd’hui de ne pas parler de SaaS dans l’industrie du logiciel. Simple concept dérivé de l’ASP, il y a encore peu de temps, le SaaS est devenu un modèle crédible et plébiscité sur le marché pour ses différentes vertus. Force est de constater que l’ensemble des éditeurs semble adhérer à ce nouveau modèle économique et technologique, en proposant à tour de bras leurs différentes applications en mode SaaS. Effet de mode ou profonde mutation ? Il est encore un peu tôt pour le dire. Néanmoins, nous allons donner quelques pistes de réflexion, qui laissent penser que le SaaS pourrait bien être à l’origine de la naissance d’un nouveau modèle de développement chez les professionnels de l’édition de logiciel. Parmi les nombreuses vertus que l’on peut attribuer au SaaS, nous allons nous pencher sur différentes données fondamentales, génératrices de valeur et d’intérêt autant pour le client final que pour l’éditeur.

Des migrations en temps réel
Sur le plan technologique, le SaaS a eu pour effet de simplifier considérablement les phases de migration en affranchissant les entreprises de tout processus d’intégration complexe et coûteux. En effet, le modèle SaaS permet de déployer, en temps quasi réel, une application accessible depuis tout PC ou mobile connecté à Internet. Fini les projets longs et douloureux à déployer… Place à l’accès aux applications Web opérationnelles et ouvertes. La flexibilité est, en effet, une composante importante de l’approche SaaS, dans la mesure où il est possible de faire rapidement évoluer des configurations, en fonction de l’activité de l’entreprise et de son nombre de collaborateurs.Autre donnée technique d’importance : la sécurité. Contrairement aux craintes exprimées à l’occasion de l’émergence du phénomène SaaS, ce dernier a permis de sécuriser fortement l’infrastructure IT des entreprises. En effet, en conjuguant stockage distant, haute disponibilité, archivage automatique, etc., le SaaS se positionne comme un rempart contre les actions malveillantes ou contre toute perte ou crash de matériel stratégique : poste de travail, PC portables, etc. Les informations sont uniquement accessibles sur des portails Web sécurisés.

Des dépenses lissées
Une autre donnée à prendre en compte tient à l’approche financière découlant du modèle SaaS. En effet, contrairement à une approche d’achat traditionnel de licences, le SaaS permet de « consommer à la demande » une application. Cela permet, notamment, de lisser son investissement et de basculer les budgets alloués à l’utilisation de solutions SaaS vers des budgets de fonctionnement. Le SaaS offre donc une plus grande souplesse et permet de démocratiser l’accès à des solutions à forte valeur ajoutée. Enfin, le SaaS permet aux éditeurs d’accéder à des sources de revenu récurrentes.En répondant de manière pragmatique aux attentes du marché, côté client et éditeurs, le SaaS connait donc une forte croissance dans tous les domaines : gestion de contenus, Business Intelligence, gestion de la relation client, analyse des risques, finance, ERP, etc. Cette diffusion dans toute l’industrie de l’édition devrait largement contribuer à positionner le SaaS comme un modèle de développement durable. En cette période d’optimisation des budgets et dépenses informatiques, le SaaS devrait donc permettre aux éditeurs de tirer leur épingle du jeu et, à toute une industrie, de proposer un modèle technologique et économique, adapté aux besoins exprimés sur le marché.Par Michel Marcombe, Directeur Associé de Micrologiciel

Véhicule urbain du futur : 4 projets en lice

En octobre 2009, le Conseil Général des Yvelines a lancé un appel à projet pour la réalisation du véhicule urbain du futur qui, innovant, écologique et économique, devait présenter les caractéristiques suivantes :

  • 2 à 4 places : voiture particulière, quadricycle lourd à moteur ou tricycle à moteur
  • autonomie de 150 km ;
  • vitesse pouvant atteindre 110 km/h ;
  • prix de vente cible de 10.000 € HT ;
  • faibles émissions de CO2 (moins de 60g/km).

Parmi les 41 dossiers qui ont été déposés, seuls 4 d’entre eux viennent d’être retenus. Les lauréats qui bénéficieront de 3 millions d’euros de subventions (AKKA Technologies, Induct, Muses et Venturi) ont été retenus en fonction de la crédibilité de leur projet, des innovations techniques et d’usage proposées, de la sécurité et de l’éco-conception du véhicule ainsi que de la crédibilité du porteur et de sa crédibilité financière. Ils devront développer dans les Yvelines, d’ici le début 2011, des démonstrateurs roulants.

 » Astute Car  » d’Akka Technologies

Unique grand groupe lauréat (5.400 collaborateurs dans 40 implantations européennes), le projet, AKKA Technologies, groupe européen d’ingénierie et de conseil en technologies, emploie plus de 500 collaborateurs dans le département des Yvelines (Guyancourt) à travers ses centres de services automobile, aéronautique, défense, naval et spatial.

 » Nous avons pris l’initiative en début d’année 2009, de transformer une situation de crise que subissait le secteur automobile en opportunité. C’est dans ce contexte que nous avons développé notre propre centre de recherche, le CRDTA (Centre de Recherche et de développement des technologies Alternatives), où nous avons donné complète liberté à nos consultants sur des programmes innovants, notamment celui du Véhicule Electrique. Le fait d’avoir été sélectionné comme l’une des quatre sociétés d’ingénierie lauréates de l’appel à projet véhicule urbain de demain, nous conforte dans nos choix « , déclare Nicolas Bret, Président du Pôle Ingénierie d’AKKA Technologies. Son programme Véhicule Electrique permet aujourd’hui au Groupe de développer des solutions novatrices pour lesquelles des brevets sont en cours de dépôt. Très prochainement, le CRDTA lancera un nouveau programme qui portera sur les machines tournantes et  » le machine to machine « .

Le projet  » Astute Car  » d’Akka Technologies concerne un véhicule électrique de 650 kg de catégorie M1 (véhicule particulier) offrant une habitabilité optimisée (4 places pour un véhicule de 3 m de long) et une accessibilité aisée grâce à des ouvrants allégés de type porte papillon. L’autonomie cible dépasse les 300 km et la vitesse maximale est de 140 km/h. Le véhicule est dépourvu de liaison mécanique entre le volant et les roues (Drive by wire). L’ensemble des commandes de conduite (freinage, direction et accélération) est positionné au volant. Ainsi, le pédalier et la colonne de direction sont supprimés, offrant alors plus de sécurité pour le conducteur du véhicule en cas de crash frontal. Akka Technologies va recevoir une subvention de 700.000 euros pour son projet d’environ 5 millions d’euros.

 » Modulgo  » d’Induct

Créée en 2004, la société Induct qui s’était donnée pour mission de concevoir et développer des solutions innovantes en matière de mobilité urbaine, ainsi spécialisée dans les domaines de la télématique, de l’électronique embarquée et de la robotique appliquée à l’automobile. En particulier, elle a développé un savoir-faire dans la conception de véhicules robotisés et de véhicules électriques. Induct qui conçoit et commercialise des véhicules électriques et des navettes de transport en commun électriques et robotisées, propose le  » Modulgo « . Un véhicule urbain électrique (2,45 m de longueur, 1,80 m de largeur et 1,60 m de hauteur) à faible coût, de 3 places frontales, homologué dans la catégorie des quadricycles lourds à moteur (inférieurs à 400kg).

Ce véhicule éco-conçu (carrosserie recyclable) dont l’autonomie est comprise entre 120 et 160 km et la vitesse atteint 110 km/h, ne produit aucune émission de CO2 grâce à sa motorisation électrique. Il dispose d’un système de recharge automatisé de batteries par induction à haut rendement et de fonctions intégrées de partage et de libre-service ainsi que de fonctions bi-mode (conduite manuelle et automatisée). Son design est dû à Diedre Design.

La société Induct va recevoir une subvention de 690.000 euros pour son projet d’environ 2 millions d’euros .

 » Moov’Eco  » de Muses

La société Muses SA a été créée par 5 entrepreneurs spécifiquement pour répondre à l’appel à projet du Conseil général des Yvelines. Elle réunit les sociétés Indust Design (conception de produits pour les véhicules spéciaux), SABMC (location de bureaux mobiles communicants), ACB Engineering (acoustique), Pecan Technologies (liaisons au sol) et Yaka Solutions (gestion de projets complexes) se sont rapprochés dans le cadre du RAVY (Réseau Automobile Val-d’Oise Yvelines) pour concevoir le projet Moov’Eco. Ces entreprises aux compétences complémentaires vont transférer leurs activités de R et D (12 emplois) dans les Yvelines (Poissy) et créer six emplois à l’horizon de mars 2011 pour la nouvelle société Muses.

Le projet Moov’Eco est une plateforme urbaine multiservices servant de bases à différents véhicules (catégorie quadricycle lourd) dont la vitesse atteint 5, 50 ou 90 km/h suivant la configuration. Les véhicules ou les plateformes peuvent être utilisés indépendamment ou former des « trains » à usage de livraison (1 à 9 m3 et 300 à 900 kg). En configuration transport de personnes, le véhicule peut embarquer entre 3 et 6 personnes. Dans une application de type auto-partage, des trains de « VP » peuvent être utilisés pour répartir, avec un seul chauffeur et sans moyen additionnel, les véhicules dans les différents points de distribution.

Ce projet apporte une contribution originale en terme d’utilisation d’un moyen de transport multi-usage : transport de personnes, y compris à mobilité réduite, livraisons en centre-ville et la constitution de « train » de véhicules facilitant la redistribution des véhicules en auto-partage. De plus, des solutions techniques destinées à optimiser la gestion de l’énergie seront mises en œuvre : moteurs-roues électriques, choix de batteries lié à l’usage, 2 packs de batteries (1 pack propulsion, 1 pack récupération d’énergie), châssis en aluminium… La société Muses va recevoir une subvention de 780 000 euros pour un projet d’environ 2 millions d’euros.

 » Eclectic 2.0  » de Venturi

Implantée à Monaco avec une filiale à Paris, la société Venturi a été rachetée en 2001 par . Gildo PASTOR qui s’est donné 10 ans pour mettre en place une politique d’innovation dans le domaine du véhicule électrique en finançant sur fonds propres les phases de R et D.

De la conception à la production du Citroën Berlingo électrique, ainsi qu’à la réalisation de véhicules hautes performances (Venturi Jamais Contente 487 km/h en septembre 2009), Venturi maîtrise l’ensemble de l’engineering du véhicule électrique. Son implication dans le secteur de l’automobile électrique lui a permis de remporter, au côté de PSA, l’appel d’offre lancé par La Poste en 2007 pour la livraison de 250 véhicules Citroën Berlingo en 2010 sur le marché français (fabrication à Sablé S/Sarthe).

Le projet  » Eclectic 2.0  » soumis au Conseil général des Yvelines est une suite au concept-car présenté lors du Mondial de l’automobile 2008. Dans l’optique de développer une voiture capable de communiquer avec ses utilisateurs, Venturi vise dans cette approche une utilisation ludique et communicante. Son projet reprend la même base que celle du concept-car : un véhicule 3 places avec conduite en position centrale, de catégorie quadricycle lourd avec un moteur électrique central, une batterie Lithium-Ion, une autonomie de 150 km, une vitesse maximale de 90km/h à recharge rapide et un calculateur disposant de la connectivité nécessaire (Wifi, GPRS, GPS…) afin d’échanger avec un téléphone mobile. Le projet prévoit l’étude de la compacité et l’optimisation du moteur électrique ainsi que des travaux sur les batteries Lithium-ion. L’innovation concerne le domaine de la communication (calculateur permettant de communiquer avec la téléphonie portable du conducteur – interface homme machine).

L’aide apportée (Venturi va recevoir une subvention de 800 000 euros pour un projet d’environ 3 millions d’euros) servira à la conception et la mise au point de ce projet dans les Yvelines, à Satory. Le projet mobilisera une dizaine de personnes (embauches) en plus du support de la division de Monaco et environ 10 personnes chez les prestataires et partenaires dans le département (Inrets et Segula).

Comment J. Walter Miller a réconfiguré sa gamme de moules complexes

La société J. Walter Miller (JWMC) produit des pièces de fonderie en laiton et en bronze pour les secteurs de la protection contre les incendies, ainsi que des pompes et des soupapes. Elle coule quotidiennement aussi bien des alliages avec plomb que sans plomb, ce qui confère à JWMC un échantillonnage de possibilités unique. Spécialisée depuis de nombreuses années dans les petites pièces, JWMC évolue aujourd’hui vers des cadences plus importantes grâce à la récente acquisition d’une machine automatique DISA Match 130 pour la fonte à plaque-modèle double face. Chacun de ses moules à serrage par pression devait donc être converti en vue de son utilisation sur le nouvel équipement. Pour une fonderie produisant des composants de pompes sans plomb, les rotors représentent la principale difficulté car le moule doit alterner les parties épaisses et les parties fines. Les pièces de rotors de JWMC présentant une porosité de retrait dans le moyeu lors de leur usinage chez le client, une re-conception de la masselotte s’avérait nécessaire dans la zone du moyeu. Une première étude avait conduit à l’insertion d’un noyau dans le moyeu afin de réduire la quantité de métal liquide devant être acheminée vers ce dernier en phase de solidification, de façon à ce qu’il ne présente aucun défaut à l’issue du moulage. Toutefois, un nouveau défaut avait commencé à apparaître dans la bague de serrage de la pièce. JWMC a alors décidé d’utiliser le logiciel de simulation de fonderie QuikCAST d’ESI qui permet de simuler tout le processus de moulage, depuis le remplissage jusqu’à la solidification, y compris la prédiction des défauts, afin de déterminer la cause de ce nouveau défaut ennuyeux. Grâce à ce logiciel, JWMC a pu identifier une nouvelle configuration qui a éliminé le retrait constaté au cours de l’usinage. QuikCAST a ainsi permis à JWMC de réduire le nombre d’itérations requises pour reconfigurer les modèles, de réduire la porosité des pièces finies et d’explorer des opportunités d’amélioration de son rendement. Résultat, le client a bénéficié d’une réduction notable des déchets occasionnés par le processus d’usinage, ce qui a contribué à d’importantes économies de coûts aussi bien pour lui que pour JWMC.  » Ce problème aurait représenté environ 12 semaines de travail et 6.000 dollars US pour la modification des modèles et d’innombrables heures de temps-machine pour sa résolution en utilisant les méthodes par tâtonnement habituelles, a déclaré Dan Rudolph, ingénieur Qualité chez J. Walter Miller. Avec QuikCAST, nous pouvons aisément résoudre des problèmes similaires en 2 semaines et produire un modèle satisfaisant dès le premier coup. Aujourd’hui, nous avons utilisé la simulation sur près de 20 pièces et les résultats de simulation sont similaires à ce que l’on voit en atelier.  »  Par Marc Chabreuil

Plus loin dans la miniaturisation du stockage de l’énergie

Avec le développement des équipements portables et de l’électronique associée se pose la question de la miniaturisation des sources de stockage d’énergie pour leur alimentation. Aujourd’hui, cette fonction est principalement assurée par des accumulateurs de petites dimensions ou micro-batteries (jusqu’à quelques centaines de micromètres). Ces systèmes ont cependant des limitations inhérentes à leur conception comme par exemple une faible puissance disponible, une durée de vie et un domaine de fonctionnement en température restreints. L’utilisation de supercondensateurs permet de s’affranchir de ces limitations, mais les micro-supercondensateurs proposés jusqu’alors ont une densité énergie trop faible pour alimenter de façon durable les équipements. Avec l’équipe du Professur Y. Gogotsi de l’Université de Drexel (Etats-Unis), Patrice Simon et Pierre Louis Taberna du CIRIMAT (Centre interuniversitaire de recherche et d’ingénierie des matériaux Référence) de Toulouse (CNRS / Université Paul Sabatier – Toulouse 3 / Institut national polytechnique de Toulouse), ont mis au point des matériaux permettant d’envisager la réalisation de micro-supercondensateurs de haute densité d’énergie.

Fournir, mais aussi récupérer de l’énergie
En partant d’échantillons massifs de carbure de titane (TiC), ils ont transformé la surface du matériau en un film de carbone (C) en utilisant des procédés compatibles avec les techniques de micro-fabrication (traitement thermique en présence de Cl2). Ce film de carbone formé in-situ est un carbone poreux, de très grande surface spécifique (> 1000 m2/g) de même type que celui utilisé pour stocker les charges dans les supercondensateurs. En faisant varier l’épaisseur du film de carbone formé par ces méthodes, ils ont observé que la densité de charge stockée dans des films de 1 µm, et donc la densité d’énergie, était multipliée par un facteur 3 par rapport à des électrodes de supercondensateurs classiques utilisant de la poudre de carbone.Ces résultats obtenus à partir d’échantillons massifs de TiC permettent d’envisager la fabrication de micro¬-supercondensateurs de grande densité d’énergie, par évaporation de films de carbure (TiC ou encore SiC) directement sur des tranches de silicium pour être intégrés facilement dans différents systèmes. Ces travaux sont en cours de développement au collaboration avec Magalie Brunet et David Pech au LAAS de Toulouse. Ces micro-supercondensateurs pourront être utilisés en complément ou en remplacement des micro-batteries pour la fourniture de puissance mais également pour la récupération d’énergie (par exemple, les vibrations).

Réalité virtuelle : ces sujets qui font le buzz dans les labos

Objet de recherche et outil pour la recherche, la réalité virtuelle intéresse de nombreuses disciplines, en informatique ou encore en sciences cognitives. Les projets foisonnent en France et dans le monde. Voici les grands thèmes du moment.  

Les grands sujets de recherche en réalité virtuelle en informatique
Le brain computer interface ou l’interface cerveau ordinateurImage : le projet OpenVibe de l’InriaEn savoir plus :OpenVibe, un logiciel français pour agir par la pensée L’ordinateur connecté à nos muscles : bientôt une réalité  Les interfaces tactilesImage : Le Cubtile d’Immersion permet de manipuler des contenus en 3D et de naviguer dans des environnements virtuels.En savoir plus : www.cubtile.com Les acteurs français de la RV
La réalité augmentée (la localisation, l’affichage et la compréhension)Image : restitution de l’abbaye de Cluny en réalité augmentée. En savoir plus : Le Cerma de NantesL’Institut image de l’Ensam Le rendu graphiqueImage : projection d’une reconstitution historique dans l’église de La Chartreuse de Villeneuve lès AvignonEn savoir plus : Le LimsiIrisa.fr
Le prototypage virtuelImage : Simulation de manipulation des équipements d’un poste de conduite d’une Peugeot 1007En savoir plus : La réalité virtuelle dans l’industrie : développement des produits et des processus L’haptique / le retour d’effortImage : retour d’effort sur le plan de travail virtuel haptique, équipe-projet i3D de l’InriaEn savoir plus :« Réaliser des systèmes informatiques intuitifs »Equipe i3D
L’interaction à gestesImage : le dessinateur de Spirou Jean-Claude Fournier avec le robographe d’AreventEn savoir plus :« La collaboration avec les industriels est une de nos raisons d’être »Arevent  La convergence des objetsImage : La table Cristal est un écran tactile duquel on peut commander les appareils de la maisonEn savoir plus : Mi-lab« Partir de l’utilisateur, et construire autour de lui »
La naturalité des interactions Image : Modélisation du geste sportif, équipe-projet : SIAMES de l’InriaEn savoir plus : « La collaboration avec les industriels est une de nos raisons d’être » Les applications de RV pour les exosquelettesImage : Exosquelette d’assistance à la marche et de port de charges lourdes (Honda)En savoir plus : « Partir de l’utilisateur, et construire autour de lui »
Et aussi : la mise en réseau de plateformes virtuelles, les pièces « molles »
 
Les grands sujets de recherche en réalité virtuelle en sciences cognitives
L’évaluation comportementale de la présence physique en environnement virtuelImage : étude du sentiment de présence au CRVMEn savoir plus : « La collaboration avec les industriels est une de nos raisons d’être » Pour la formation, l’étude du comportement humain en milieu virtuelEn savoir plus : Quand la formation se décline au virtuel : l’exemple de GVT
La RV comme outil d’étude du comportement humain (simplifier des situations pour se concentrer sur un sujet d’étudeImage : Pull-Navi, un nouveau type d’interface destiné aux développements à pied, à installer sur les oreilles de l’utilisateurEn savoir plus : CRVM  La cyberthérapie (traitement des phobies, rééducation après des lésions cérébrales)En savoir plus : Apports de la réalité virtuelle à la prise en charge du handicapLaboratoire de cyberpsychologie (Québec)
 
Exemples de débats éthiques
– Comment ressort-on d’un simulateur d’un point de vue physique et psychologique ? La question se pose aussi en réel, mais on perturbe encore plus le cerveau en virtuel.
– Comme l’explique Pascal Guitton, président de l’AFRV et chercheur à l’Inria : « On montre des images de synthèse en expliquant qu’il s’agit de la réalité. Or, on a tendance à croire ce que l’on voit. Si l’image est fausse, cela pose un problème. On commence à trouver des charlatans, par exemple autour de l’archéologie. »
 

Copyrights : Inria (Jim Wallace, J.-C. Moschetti – REA), Jean-Charles Druais Laval Virtual, Ensam de Cluny, GAMSAU, UMR 694 MAP CNRS-MCC, Honda, CRVM
  Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

« Partir de l’utilisateur, et construire autour de lui »

Professeur aux Arts et Métiers – Paritech, Directeur scientifique de Laval Virtual, Simon Richir a lancé ce qui est aujourd’hui le premier salon européen consacré à la réalité virtuelle. Laval Virtual 2010 s’est déroulé il y a quelques semaines, attirant professionnels et grand public. Le directeur scientifique du salon revient sur les innovations marquantes du salon, et sur ce qui fait le succès du salon – et de la réalité virtuelle – depuis quelques années. 

Techniques de l’Ingénieur : Comment a commencé Laval Virtual ?
Simon Richir : La première édition du salon a eu lieu en 1999. A l’origine, c’est à la demande du député maire de Laval de l’époque, soucieux de faire évoluer l’image de la Mayenne, que nous avons imaginé puis proposé d’organiser, avec l’aide d’une équipe de 20 étudiants de Master, un événement international autour de la réalité virtuelle. Nous avons tout de suite fait le choix d’ouvrir le salon aux professionnels mais également au grand public le week-end. Et Laval Virtual a tout de suite bien marché. En 2005, nous avons décidé d’implanter à Laval un laboratoire de recherche Arts et Métiers ParisTech, pour mener nos propres recherches dans le domaine de l’innovation et de la réalité virtuelle. Laval Virtual 2010 est déjà la douzième édition, et cette année le week-end ouvert au public a attiré plus de 9.000 visiteurs. Indéniablement, le grand public est de plus en plus concerné par les innovations issues de la réalité virtuelle.

Le marché de la réalité virtuelle a évolué ces dix dernières années. Comment le ressentez-vous à travers le salon ?
Au début, les exposants venaient surtout dans l’espoir de vendre des outils aux universitaires. La majorité du business se faisait avec des organismes scientifiques. Les choses ont bien changé. En fait, le marché s’est même inversé. Il y a douze ans, les industriels ne représentaient que 30% du marché de la réalité virtuelle. C’est 70% aujourd’hui.

Qu’est-ce qui fait aujourd’hui le succès d’un salon comme Laval Virtual ?
Pour nous, l’important est que les exposants repartent avec des idées, des projets, des contacts… il faut continuer à avancer. Le salon permet aux exposants de se rencontrer et d’échanger sur le salon. On constate également que la crise financière n’a pas eu d’impact réel sur le marché de la réalité virtuelle, qui reste en croissance.

Quelles sont innovations marquantes qui ont marqué le salon cette année ?
Cristal est une table interactive. C’est typiquement le genre d’outil qui pourrait rapidement trouver une place sur le marché. Cristal (Control of Remotely Interfaced Systems using Touch-based Actions in Living spaces) est une table interactive qui permet de gérer toute l’électronique de la maison très simplement. C’est un appareil de convergence fabuleux. Aujourd’hui, on travaille en pariant que demain, tous les objets seront communicants. Et il y aura un point central, Cristal en est l’illustration, qui gèrera tout cela.

Et au niveau de la réalité augmentée ?
Aujourd’hui, nous ne travaillons plus uniquement sur les interactions par l’image. La réalité augmentée nous apporte des informations supplémentaires. On peut dire que la réalité augmentée est une prolongation de la réalité virtuelle. A la base, c’est la Wiimote de Nintendo qui a vraiment démocratisé la réalité virtuelle auprès du grand public. Puis le logiciel libre AR Toolkit et l’iPhone avec son écran tactile intuitif ont facilité l’explosion des applications de la réalité augmentée. Ces succès technologiques ont agi comme un déclic dans l’esprit du grand public, qui voit mieux l’intérêt des outils que nous présentons.

La 3D est aussi au centre de beaucoup de dispositifs innovants…
Oui. Le Scan 3D nouvelle génération est à ce titre une réalisation très intéressante. Il s’agit d’une innovation importante, présentée par Leiica (ScanStation C10), qui permet, facilement, de scanner un objet pour obtenir sa modélisation en 3 dimensions. Barco, un fabricant de vidéoprojecteurs qui équipe le salon, installe aujourd’hui la 3D dans plus d’un cinéma français tous les jours (500 salles par an). Malgré la crise, le secteur de la réalité virtuelle reste très actif.
Quel est le grand sujet de recherche actuellement ?
Les interactions intuitives demeurent un grand sujet de recherche. Mais le langage tactile naturel nous permet d’imaginer une suite logique, celle où l’utilisateur n’a plus besoin de toucher l’écran. Le projet Natal, mené par Microsoft, a tenté le pari. Concrètement, c’est une caméra, connectée à la console, qui sera chargée de capter les mouvements dans certains jeux mais également les expressions faciales puis de les interpréter pour les retranscrire dans le jeu. Un pas en avant énorme qui simplifiera largement l’immersion.

Quels sont les grands défis à venir en matière de réalité augmentée ?
Les défis restent nombreux. Le premier d’entre est de continuer nos recherches sur la convergence des objets. C’est un enjeu important. Les robots communicants constituent aussi un défi important. Prenons l’exemple le plus emblématique qui est celui du Japon. La population de ce pays va diminuer de 25% dans les quarante prochaines années (de 127 à 100 millions d’habitants). Plutôt que de faire appel à l’immigration, les japonais ont décidé de miser sur le développement de robots pour effectuer les tâches laissées vacantes.

Et au niveau médical ?
Le professeur Naoki Suzuki, membre éminent de la faculté de médecine de Tokyo et spécialiste de la réalité virtuelle, a fait forte impression en présentant l’activité de son laboratoire, qui opère à distance des patients et utilise la réalité augmentée dans une salle d’opération futuriste. C’est grâce à des micro-caméras 3D, qui filment en relief, que le chirurgien, commande un mini-robot muni de 2 pinces à retour d’effort et opère, l’œil fixé sur un grand écran LCD 3D. C’est une réelle prouesse.

Des freins subsistent pourtant…
Les verrous persistants restent la virtualisation des organes au niveau de la texture, des tissus. Les interactions entre les organes restent également un problème. Le deuxième verrou est pour l’instant culturel. Les facultés de médecine ont des habitudes de formation « historiques » et il est compliqué de tout changer comme ça. Disons qu’il a été beaucoup plus simple de passer aux simulations avec l’aviation qu’avec la médecine car le retour sur investissement est immédiatement mesurable (le coût d’immobilisation d’un avion pour former un pilote est plus élevé que le coût d’utilisation d’un simulateur de vol). Mais comme nous l’a montré le professeur Suzuki, les choses avancent.
Quelles sont les autres pistes suivies ?
L’exosquelette est un sujet qui occupe beaucoup de chercheurs. La possibilité pour les personnes âgées, de voir leur déplacement facilité, mais aussi pour les travailleurs, d’effectuer des travaux pénibles plus facilement intéresse beaucoup de gens.

Quel est le rôle aujourd’hui de Laval Virtual ?
Aujourd’hui, nos règles sont simples. On part de l’utilisateur, et on construit autour de lui. Les chercheurs et les industriels l’ont compris. Laval Virtual reste aussi un lieu d’échange international. Nous accueillons beaucoup d’étudiants qui ont une créativité incroyable. Nous regardons beaucoup ce qu’ils font, et cette émulation est très positive. C’est un des rôles du salon que de servir de plate-forme mondiale d’échange et de créativité. Propos recueillis par P.TSommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Les exposants primés à Laval Virtual 2010

A l’occasion du salon Laval Virtual 2010, le remise des trophées de l’innovation a permis de récompenser 10 dispositifs de réalité virtuelle. Que ce soit au niveau de la robotique, des animations, des scanners 3D… l’innovation n’est pas un vain mot quand on aprle de réalité virtuelle. Retour sur les projets primés.

  • Architecture, art et culture : Robographe
La Société AREVENT a développé une méthode pour la génération automatique de trajectoires grâce à un robot (photo ci-dessous) qui capture le mouvement d’un sujet. Par exemple, après la conquête des gestes de l’artiste, le Robographe, c’est son nom, exécute fidèlement le dessin réalisé par l’artiste. Durant le salon, c’est Jean-Claude Fournier, le dessinateur de Spirou, qui a pu tester cette innovation.
  • Design industriel et simulation : RSFF Hybrid Design Tool
Dans ce projet, le prototype de l’Outil de Design Hybride RSFF permet d’importer les éléments tacites et tangibles de design dans des systèmes de CAO, afin de développer des applications intuitives et imaginatives. Le but est d’identifier les manques essentiels au niveau de l’assistance dans les processus de design offerts par les logiciels et les outils génériques déjà existants.Voir la vidéo de démonstration
  • Sciences et éducation : Destination Earth: the satellite revolution
Présenté par le consortium Reves, « Destination Earth: the satellite revolution » s’expose à la cité des sciences et de l’industrie. Construit autour des dernières innovations en matière de réalité virtuelle, couplées à un dispositif optique innovant, l’exposition a réunit un très large public.
  • Médecine et santé : Mommy Tummy
Mommy Tummy permet à la gente masculine de faire une expérience unique et inoubliable : vivre toutes les étapes de la grossesse ! Cette application permet de ressentir le fœtus dans l’abdomen, de suivre la température corporelle et l’activité du futur bébé. Une application pédagogique, qui permet aux hommes de ressentir ce qu’est la grossesse.Voir la vidéo de démonstration
  • Jeux 3D et divertissement : Immersive Music Painter
Leur projet Immersive Music Painter permet de jouer de la musique en dessinant virtuellement. Muni de lunettes 3D, le joueur choisi un instrument virtuel et le déplace dans l’espace pour créer des formes et des harmonies en temps réel.Voir la vidéo de démonstration
  • Business et services : Apli-Viz’3D
Appli-Viz’3D est un logiciel consacré aux PME, développé par les Arts et Métiers-ParisTech. Il permet aux designers industriels d’évaluer de nouveaux produits dans un environnement virtuel et de les voir à travers yeux d’un avatar ayant les caractéristiques d’un jeune enfant.
  • Automobile, Aéronautique et Transport : Module de formation WC eau claire SNCF (GVT)
GVT est utilisé par la SNCF pour former et évaluer les opérateurs de maintenance sur les systèmes de « WC eaux claire » installés sur les TGV. Ce système, basé sur des technologies de la réalité virtuelle, permet de former et d’évaluer les opérateurs sans risques pour eux et pour le matériel.
  • Interfaces et Matériels : Haptic Canvas
Haptic Canvas, une interface tangible un peu particulière puisqu’elle utilise un fluide (qui est en fait un mélange d’eau et d’amidon) qui change d’état lorsqu’on le manipule. Un gant fonctionnel permet à l’utilisateur de ressentir des sensations haptiques fascinantes, de dessiner en mélangeant des couleurs virtuellement sur un écranVoir la vidéo de démonstration
  • Ingénierie, Montage et Maintenance : ProFORMA
ProFORMA est un système de reconstruction 3D d’objets texturés présents dans des vidéos. Les objets sont tournés par la main d’un utilisateur devant une caméra stationnaire. A partir delà, des modèles partiels sont produits rapidement, leur permettant d’être montré à l’utilisateur pour évaluer la qualité de la reconstruction et d’être utilisés par le système pour traquer plus facilement l’objet.Voir la vidéo de démonstration
  • Personnages en Temps Réel et Mondes Virtuels : Nestlé cereal AR online campaign
Développée à l’université de Cambridge, il s’agit d’un projet de réalité augmentée online en partenariat avec Dassault Systèmes et Europacorp pour Nestlé Céréales. « Nestlé cereal AR online campaign » est un moyen innovant de générer du trafic online mais aussi en magasin. L’application permet également d’augmenter la présence de la marque auprès des consommateurs et d’augmenter l’effet « wow » (concept qui quantifie l’effet de surprise et d’appréciation chez le consommateur), via l’utilisation des procédés de réalité augmentée.Voir le vidéo de démonstration Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

« Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle »

Responsable d’une équipe de recherche sur l’usage industriel de la réalité virtuelle (RV), François Guillaume revient sur l’utilisation de la RV par EADS. Principal avantage de cette technologie, elle permet d’introduire l’humain dans le produit virtuel.

Techniques de l’ingénieur : Chez EADS, comment utilisez-vous la réalité virtuelle ?
François Guillaume :  » Nous l’utilisons principalement pour la conception de produits. Nous déterminons des plate-formes qui répondent aux besoins des ingénieurs dans le cadre de leurs projets. Nous intervenons à toutes les phases, de l’avant projet à la conception de la chaîne de montage. Nous n’y avons pas recours pour la formation car le coût des systèmes est encore trop élevé.

Comment évolue votre utilisation de la réalité virtuelle ?
Nous sommes à un tournant. Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle. Aujourd’hui, les ingénieurs sont demandeurs, la technologie répond bien à leurs besoins, elle est plus accessible financièrement et plus simple. Chez EADS, les temps de cycle sont longs. Par exemple, nous lançons un nouvel avion tous les 4 ou 5 ans. Or il y a 4 ou 5 ans, la RV était encore assez confidentielle. Cependant, tous les nouveaux produits ou les projets en cours expriment des besoins de RV. A ma connaissance, six ou sept produits majeurs, c’est-à-dire des programmes pour des avions ou des hélicoptères, se servent en ce moment de la réalité virtuelle.

De quel matériel disposez-vous ?
Nous possédons des grands écrans de 6 mètres de large et de 3 mètres de haut, avec un son stéréo, des systèmes de capture de mouvement et des casques de RV. En Allemagne, nous avons un Cave mais il sert surtout pour la communication et le marketing. Notre plate-forme s’appelle Rhea, elle est basée sur 3DVIA Virtools. Nos outils permettent de faire abstraction de la technologie, les ingénieurs qui travaillent avec ces outils ne sont pas des spécialistes.

Quels sont les avantages de la réalité virtuelle ?
Le principal avantage est de pouvoir injecter l’homme dans le produit virtuel. Tous nos produits sont conçus à l’aide de maquette numérique et de CAO. On perd donc le contact physique. Grâce à la RV, on peut construire un espace immersif pour se confronter au produit à l’échelle 1 et pour tester l’ergonomie de manière très simple avec des boucles très courtes. On peut rajouter des comportements, faire bouger des éléments. Deuxième avantage, on peut comparer différentes solutions. Auparavant, nous choisissions une ou deux solutions pour réaliser une maquette physique et cela prenait du temps. Aujourd’hui, nous pouvons tester quinze configurations en parallèle, assez loin dans le processus, sans coûts supplémentaires. Cela laisse plus de choix. On amortit très vite le coût du système. La maquette physique coûte cher, elle est partielle et longue à concevoir, donc rarement à jour.

Mise en contexte du produit pour étudier l’ergonomie visuelle d’un cockpit lors des phases d’atterrissage et de décollage, plate-forme Rhea, EADS – © EADS
Réalisez-vous toujours des maquettes physiques ?
Oui, les deux sont complémentaires. Nous avons aussi recours à la réalité augmentée. Nous réalisons une maquette physique partielle avec quelques éléments de base déjà validés, puis nous faisons évoluer le reste grâce à la réalité virtuelle.

Quels sont les inconvénients de la réalité virtuelle ?
Nous ne disposons pas de beaucoup de retours d’expérience. Il est donc parfois difficile de convaincre les directeurs de programme. Le ticket d’entrée est élevé et le retour sur investissement difficile à calculer faute de données. Une plate-forme revient à environ 200.000 euros, mais le coût le plus important, ce sont les hommes.

Quelles sont les limites ?
L’haptique sur le corps complet n’est pas possible pour l’instant. Par ailleurs, concernant le comportement des objets, nous avons besoin de modèles plus complexe, sur la flexibilité par exemple. L’éclairage constitue une autre limite. Par exemple, on ne peut pas étudier la visibilité d’un objet dans une soute avec un éclairage particulier. La réalité virtuelle est un outil qui permet des analyses sur ce qui est centré sur l’humain. Mais on ne peut pas tout valider en virtuel. Pour l’insertion d’une vis dans un trou, ce n’est pas forcément intéressant !Propos recueillis par Corentine Gasquet ParcoursFrançois Guillaume est ingénieur de recherche au sein de EADS innovation works. Il est en charge de l’équipe de recherche traitant de la thématique « Maquette numérique et réalité Virtuelle pour les processus industriels ». Ces principaux travaux de recherche actuels portent sur la mise en œuvre de mannequins virtuels pour les métiers de l’engineering et l’utilisation de l’haptique pour l’interaction avec de l’homme avec les environnements virtuels complexes. Il est co-fondateur et membre du conseil d’administration de l’Association française de la réalité virtuelle Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D

 

Quand la formation se décline au virtuel : l’exemple de GVT

GVT, generic virtual training, la solution de Nexter training, est né d’un besoin de l’armée de terre pour la maintenance du char Leclerc. « La réalité virtuelle nous a permis de proposer une solution plus économique avec un niveau de qualité relativement identique », explique Jean-François Pellarin, directeur général de Nexter training, filiale de Nexter, détenue par Giat Industries. Car le réel coûte cher, en immobilisation de matériel et en entretien, surtout lorsqu’il s’agit d’un char. « Au delà, la réalité virtuelle présente un deuxième avantage : celui de limiter le risque d’accident », continue-t-il. Par ailleurs, cette technologie est particulièrement bien adaptée aux jeunes diplômés ayant une culture du jeu vidéo. Les modules de formation se rapprochent de plus en plus des serious games. Depuis l’armée de terre, l’utilisation de la réalité virtuelle dans la formation a fait bien d’autres adeptes. Ainsi, en 2009, Nexter training a-t-il enregistré une hausse de 50 % de son chiffre d’affaires dans le domaine civil, grâce aux commandes de neuf nouveaux clients. Cette solution s’applique essentiellement à des process industriels (voiture, train, métro, avion, centrale nucléaire…). GVT est par exemple utilisé par la SNCF pour un module de formation sur la maintenance du « système WC eau claire » du TGV, ce qui lui a d’ailleurs valu de remporter le trophée de l’innovation du salon Laval Virtual (lire l’article). La solution intéresse également des organismes de formation qui commencent à étudier de près les technologies de réalité virtuelle. Les outils deviennent en effet plus accessibles financièrement. Ainsi, pour des scénarios simples, le coût de GVT est d’environ 10.000 euros. Quant au matériel nécessaire, selon les besoins, il peut se limiter à un simple PC. Reste qu’il faut réussir à intégrer avec cohérence ce type de solution dans l’ensemble de l’offre de formation d’une entreprise. GVT a été optimisé pour un apprentissage à la fois en matière de savoir (connaissances), de savoir-faire (maintenance, mise en œuvre) et de savoir-être (formation collaborative avec plusieurs personnes ensemble, y compris des personnes virtuelles). « Nous avons beaucoup travaillé la pédagogie avec des universitaires partenaires », indique Jean-François Pellarin. Ce qui est générique, c’est en effet le moteur pédagogique, la façon dont l’instructeur intervient ou encore la mémorisation des tâches.  En matière de formation, la question de l’efficacité fait l’objet de nombreuses recherches (lire l’article). Apprend-on aussi bien en virtuel qu’en réel ? Cela dépend bien sûr des objectifs de la formation. On peut devenir un grand pilote de Formule 1 sur un simulateur, on ne saura pas pour autant conduire en réel. Concernant GVT, Nexter training a mené un projet de recherche en partenariat avec l’Enib de Brest, qui fera l’objet d’une publication. Il s’agissait de déterminer si la formation avec GVT valait une formation classique. Pour cela, les chercheurs ont réuni deux populations d’intérimaires dans le domaine de la mécanique, non spécialistes, ayant un niveau Bac / Bac+2. 42 intérimaires ont été répartis en deux groupes de 21. Un groupe a reçu une formation sur un outillage complexe du char Leclerc de deux heures sur PC avec GVT. L’autre groupe a suivi un cours traditionnel, c’est-à-dire une formation avec des instructeurs sur matériel réel, pour un total de deux heures également. Chaque personne a ensuite réalisé une tâche en individuel sur du réel, avec contrôle des temps, le tout filmé. « Les temps de réalisation ont été presque les mêmes et la qualité des prestations sensiblement égale », conclut le directeur général. En matière de recherche, Nexter training travaille actuellement sur le collaboratif, le tutorat et l’utilisation d’humanoïde. C.G.

Images © Nexter training
 Sommaire du Cahier Réalité virtuelle> A la Une
  • Ces sujets de recherche qui font le buzz dans les labos
> Evénement – Laval Virtual 2010
  • « Partir de l’utilisateur, et construire autour de lui » (Simon Richir, directeur scientifique Laval Virtual)
> Comprendre
  • Développement des technologies de réalité virtuelle (Base documentaire)
  • « Le CRVM se spécialise dans la recherche sur le comportement humain en situation immersive » (Daniel Mestre, CRVM)
  • Comment l’INRIA revisite les interactions à gestes (Laurent Grisoni, INRIA)
  • 10 mots pour parler le langage de la réalité virtuelle
> Evaluer
  • Réalité virtuelle : des acteurs plus structurés et mieux positionnés
  • Le jeu vidéo, un moteur puissant pour la réalité virtuelle
  • La réalité virtuelle dans l’industrie : développement des produits et des processus (Base documentaire)
  • Prototypage virtuel d’une usine pétrochimique
> In situ
  • « Nous entrons dans une phase où nous utilisons la réalité virtuelle de manière opérationnelle » (François Guillaume, EADS)
  • Quand la formation se décline au virtuel : l’exemple de GVT
  • Les exposants primés à Laval Virtual 2010
  • Réalité virtuelle et conception : méthodes (Base documentaire)
> Produits
  • Un tableau de bord entièrement virtuel
  • IBM fait un pas de plus vers le cerveau virtuel
  • Les nouveaux robots Eporo de Nissan imitent les bancs de poissons
  • Un nouveau système pour convertir les cartes 2D en 3D