Renault prédit les risques de grippage de ses moteurs

Le phénomène de grippage peut intervenir dans de nombreux systèmes mécaniques complexes. Il résulte d´un déséquilibre thermique fort entre l´énergie fournie et l´énergie dissipée et se matérialise sous différentes formes comme par exemple une augmentation brutale du coefficient de frottement, l´échauffement et la destruction des pièces mécaniques en contact et/ou le blocage des mouvements du système mécanique. Eviter ce type de défaillance constitue un enjeu majeur pour les concepteurs de moteurs thermiques, en particulier chez les constructeurs automobiles. En effet, un premier prototype qui présente un comportement de grippage, engendre des retards et des coûts supplémentaires que l’on peut estimer entre 1 à 2 millions d´euros pour un moteur prototype et les tests, sans compter les coûts supplémentaires engendrés par le retard du projet qui augmentent fortement lorsqu´on approche de la série.

Les causes du grippage d´un système peuvent être multiples : jeu trop faible, jeu trop fort, surface agressive, pollution… Une chose est sûre : un modèle permettant de prédire le grippage et d´aider à faire des recommandations sur la conception constitue un atout critique pour le concepteur. L´objectif d’un tel modèle, est de décrire le comportement physique global d´un système mécanique lubrifié, en calculant le comportement du système en un nombre de points limité et pour les quantités physiques nécessaires à la prédiction du grippage. Ce type de modélisation, aussi appelée modélisation 0D-1 D, se concentre sur la description du comportement physique en fonction du temps. Contrairement aux modélisations détaillées, telles que les éléments finis, il permet une bonne interprétation physique des résultats et offre également  des possibilités d´optimisation bien plus puissantes et plus rapides.

Le modèle développé par Renault est constitué de deux parties. Une première partie sert à constituer des tables de données à partir d´une modélisation déjà existante de la lubrification. La seconde partie traite des aspects relatifs à la thermique en s´appuyant sur ces tables de données. Physiquement, l´ensemble des modélisations, prend en compte deux surfaces mécaniques cylindriques en situation de lubrification mixte. Les phénomènes physiques en jeu sont nombreux et très complexes :

  • lubrification (équations de films rugueux minces visqueux à faible nombre de Reynolds) ;
  • cavitation (changement de phase dans le film d´huile) ;
  • fluides non newtoniens (piezoviscosité et effet du taux de cisaillement) ;
  • couplage élasticité-paroi ;
  • cisaillement d´huile (échauffement) ;
  • microcontacts engendrant du frottement (échauffement par microcontacts) ;
  • conduction et convection forcée (thermofluide).

Le modèle a été construit en décrivant l´ensemble de ces phénomènes à partir de leurs équations dans le logiciel Maple de Maplesoft. L´écriture des équations a été largement facilitée avec l´interface document technique de Maple qui permet l´écriture naturelle d´expressions mathématiques.

Le modèle paramétrique construit avec Maple permet de prévoir les risques de grippage et de mieux comprendre son mécanisme. La « surchauffe » et le grippage qui s´ensuit interviennent en un temps très court, mais il  st aussi important de bien connaître les conditions qui mènent à la « surchauffe » parfois sur de longues durées. Le modèle 0D/1 D construit avec Maple permet également de construire des cartographies du grippage en fonction de multiples paramètres. Plus généralement il permet de prédire le comportement au grippage en fonction d´un jeu donné de paramètres.

« Le modèle paramétré construit avec Maple permet d´appréhender plus de physique dans les modélisations de phénomènes et ainsi apporter des réponses là où les codes classiques n´apportent rien » rapporte M. Ligier, Responsable R&D à Direction de la Mécanique chez Renault. « Cette approche permet de faire des itérations rapides pour construire des cartographies ou des analyses de sensibilité et à répondre, dans des délais très courts, aux nouveaux challenges que tout développement industriel concurrentiel doit relever. » 

« L’industrie de la sous-traitance doit se restructurer sur ses fondamentaux »

Techniques de l’Ingénieur : 2010 est une année spéciale pour le Midest…

Sylvie Foum : Il est vrai que le Midest fête sa quarantième année en 2010. Derrière ces quarante ans il y a l’histoire d’une naissance, mais c’est aussi toute l’histoire d’une évolution, très corrélée bien sûr à celle de l’industrie.

Parlez-nous du Midest.

Le Midest est le salon de la sous-traitance industrielle au sens large. Nous recouvrons tous les secteurs de la sous-traitance, à l’acception du bois et du textile. Ainsi, nous traitons de la transformation des métaux sous toutes ses formes, nous traitons aussi les plastiques et les caoutchoucs. Le Midest s’adresse également à des secteurs beaucoup plus spécifiques, comme les microtechniques, les fixations industrielles, traitement des matériaux et de surface…

Qu’est-ce qui fait la particularité du salon ?

Le salon est né en 1971 à Nancy. Cela correspond à une époque où l’industrie était assez puissante, mais où la nécessité d’élargir le spectre de rencontre entre des industriels nationaux et des opérateurs travaillant pour eux se faisait d’ors et déjà sentir. Aujourd’hui, nous réunissons les industriels qui travaillent pour le compte de donneurs d’ordres et les mettons en relation avec ces donneurs d’ordre. Avec la crise, le salon revêt aujourd’hui une importance particulière, pour les exposants qui réduisent leurs démarches de communication. L’avantage du Midest est qu’il est leader sur son secteur. Ainsi, les entreprises de la sous-traitance, même pendant la crise, sont restées fidèles au salon.

Dans un monde globalisé, quelles sont aujourd’hui les raisons d’être du salon ?

L’objectif du Midest, dans le cadre d’un marché très mondialisé, est de réunir le « best of » des savoirs-faire mondiaux. Nous sommes donc très ouverts à l’international, avec plus de 40 % d’exposants étrangers : Chine, Inde, Singapour, Taïwan, tous les pays d’Europe de l’Est, le Magrheb… Seul le marché américain n’est pas très représenté, car ce dernier a tendance à tourner sur lui-même.

L’industrie de la sous-traitance a beaucoup évolué en France ces quarante dernières années ?

Une des grandes tendances qui s’est manifestée tout au long de l’existence du Midest, c’est bien la mondialisation du marché. Il y avait 137 exposants au premier Midest, presque tous français. Aujourd’hui, la mondialisation des échanges se ressent au niveau des différentes nationalités qui exposent ici. Ce qu’on peut dire, c’est que depuis quarante ans, l’industrie française a beaucoup souffert. Beaucoup d’entreprises sont mortes, notamment ces dernières années.

Quelles sont les grandes tendances du salon cette année ?

Les grandes tendances de cette année vont soit vers des entreprises de plus en plus spécialisées, soit des entreprises qui se sont diversifiées pour aller sur les nouveaux marchés : environnement, énergie, luxe, médical.
Il y a eu une concentration des acteurs sur le marché, avec beaucoup d’entreprises qui ont disparu dans cet intervalle. La crise de 2009 a encore accéléré ces grandes tendances.

Quels sont les enjeux futurs pour les entreprises qui viennent sur le salon cette année ?

Tout d’abord, dans le contexte actuel, il s’agit pour ces entreprises de se restructurer sur leurs fondamentaux. Par exemple,aujourd’hui, ne pas avoir un outils de production qui n’est pas en phase avec les commandes semble être une nécessité absolue. Pour ces entreprises, investir beaucoup dans les technologies et les outils de production, au niveau de leur informatisation, est un facteur de croissance énorme, qui peut également leur permettre de se mettre en relation avec de nouveaux clients.

Quels sont les recommandations actuelles pour les entreprises françaises de la sous-traitance ?

Il faut investir dans une industrie puissante, dans de la formation qualifiée, et continuer à travailler sur les grands axes d’aujourd’hui, notamment au niveau du changement des mentalités. Nos clients nous font remonter que la crise a permis aux donneurs d’ordre de comprendre l’importance de la sous-traitance, et cela est très positif. On sent une dynamique plutôt positive dans l’ensemble.

« Il faut que la relation preneur / donneur d’ordre change »

Techniques de l’Ingénieur : Quelle est la position de la France sur le marché mondial de la sous-traitance ?

Sylvie Foum : Aujourd’hui en France, 25 % de la production est destinée à des clients étrangers, tandis que notre pays importe le quart des ses besoins de l’étranger. En 2009, la chute du marché de la sous-traitance européenne a été estimée à 25 %. Ce chiffre est de 22 % en ce qui concerne directement le France, en termes de chiffre d’affaires. Il y a donc des conséquences en termes d’emploi, mais aussi en termes de perte de savoir faire.

Quelle a été l’impact de la crise sur les entreprises françaises de la sous-traitance ?

On estime que 1800 entreprises de sous-traitance ont disparu à cause de la crise de 2009. Celles qui restent sont soit celles qui ont réussi à prendre la vague de l’innovation, soit la vague de l’internationalisation. Celles qui ont choisi l’innovation ont su développer des savoirs faire, souvent en coopération avec leurs clients, et se sont mises sur des créneaux de spécialisation qui les ont rendu compétitives et partenaires avec leurs clients. Les entreprises qui ont choisi l’internationalisation sont allés implanter des filiales dans les pays émergents, ou alors ont accompagnés leurs clients qui eux-mêmes ont délocalisé leurs usines.

Comment ont fait ces entreprises pour éviter le naufrage en 2009 ?

Celles qui ont résisté sortent plus aguerries de la crise. Celles qui ont résisté sont celles qui se sont concentrés sur leurs fondamentaux. Ces entreprises ont épuisé toutes les solutions en termes de chômage partiel, technique. Ces entreprises qui ont su résister à ça sont aujourd’hui en ordre de marche, et sont là au Midest. Ce sont avec ces entreprises que l’on regarde vers l’avenir.

Les relations entre les donneurs d’ordre et les sous-traitants ont elles évolué depuis cet épisode ?

Il faut absolument que la sous-traitance arrive à travailler de manière partenariale avec les donneurs d’ordre. C’est un enjeu fondamental pour l’Avenir de la sous-traitance : il faut qu’il y ait une reconsidération de la relation entre les « donneurs d’ordre » et les « preneurs d’ordre », car cela a toujours constitué un problème en France. Mais les choses semblent aller dans le bon sens. La crise a montré qu’une coopération plus étroite en tre les donneurs d’ordres et les entreprises de la sous-traitance permettaient aux acteurs de travailler plus efficacement et de mieux gérer les moments plus difficiles.

La problématique énergétique touche toute l’industrie. Comment s’illustre t-elle au niveau des industriels de la sous-traitance ?

Les sous-traitants sont très concernés par ça, de manière directe et indirecte. Plus vous êtes une PME, plus vous ressentez la pression due à l’environnement et à l’énergie comme une sanction. Vu le prix de la matière première dans les usines, ce sont aussi les premiers à être concernés par cette révolution. Beaucoup d’entreprises en profitent pour réaliser des économie. Cela nécessite de la formation, de l’information. Cela coûte de l’argent au départ également, de faire appel à des compétences extérieures, mais le résultat est souvent positif. La deuxième chose, pour l’industriel, c’est la nécessité d’être aux normes, pour pouvoir respecter les cahiers des charges imposés par les donneurs d’ordre. Nous envisageons l’année prochaine de créer un espace dédié, en collaboration avec l’Admet, pour marquer l’impact des problématiques environnemental.

Comment les progrès des TIC influencent-ils le marché de la sous-traitance ?

Les TIC ont pris une importance considérable, à deux niveaux : on a une plus grande ouverture du marché, grâce au sourcing par internet. Il s’agit déjà d’une donnée fondamentale. Ensuite, les progrès informatiques permettent aussi des applications de plus en plus informatisées, monitorisées. Aujourd’hui, un sous-traitant doit absolument s’informatiser pour pouvoir travailler avec des clients sur des développements de nouveaux produits. L’informatisation est également un facteur important à plus long terme pour la sous-traitance, pour pouvoir travailler en anticipation sur les cahiers da charges clients.

La transversalité des processus comme base de travail pour le Lean

Techniques de l’Ingénieur : La transversalité des processus n’est-elle pas le point fondamental de toute réflexion Lean ?

Philippe Crart : Le concept du Lean est, à mon avis, indissociable de la notion de transversalité des processus. Dans mon premier métier qu’est le consulting en organisation industrielle, je privilégie l’approche de raisonner non pas suivant la structure verticale de l’entreprise, mais plutôt selon la transversalité des processus. Depuis une dizaine d’années, celle-ci constitue l’approche de l’ISO 9000, et aujourd’hui, elle est envisagée dans toute démarche Lean. Cela dit, il convient de rappeler que le processus le plus classique sur lequel on a commencé à appliquer la philosophie Lean et ses approches, est celui des métiers du Manufacturing, dans la mesure où il y a un flux physique. Dans le « lean manufacturing », on s’intéresse à ce flux, à sa valeur ajoutée, en cherchant à éliminer les dysfonctionnements et les gaspillages.

Le travail porte donc uniquement sur les flux physiques ?



Il me semble qu’il n’y a aucune raison pour justifier l’exclusion des autres flux au niveau de l’application de cette philosophie. Par autres flux, je fais allusion aux flux d’informations sur le management de la qualité et son contrôle, par exemple. Il est également légitime de se demander pourquoi ne pas l’appliquer à d’autres processus tels que celui de la direction générale. Nul ne peut nier qu’une direction générale est payée pour prendre des décisions. C’est là où elle crée de la valeur. On peut donc analyser de la même manière les dysfonctionnements du processus de décision d’une direction générale et l’aider à améliorer ce processus et à rendre les décisions plus pertinentes, plus rapides et mieux ciblées sur la stratégie.

Parlez nous des interfaces entre les processus ?



En travaillant sur le Lean, j’ai découvert l’existence d’interfaces entre les processus, et je me suis également rendu compte qu’il y avait les mêmes gaspillages, pertes d’énergie et dysfonctionnements dans ces interfaces qu’à l’intérieur d’un processus. Progressivement, on est arrivé à définir un concept qu’on appelle « lean integration », et qui consiste à appliquer les principes du Lean non plus à un processus, mais à un ensemble de processus interconnectés. Cela a l’avantage d’amener une équipe à s’intéresser aux interfaces entre les différents processus dont elle a la responsabilité.


 

Pourriez-vous illustrer ce concept par un cas pratique?

L’exemple qui illustre bien ce concept est celui d’une entreprise qui opère dans l’industrie pharmaceutique. Cette entreprise m’a demandé de réduire son cycle de production de 40 % en six mois, ce qui revient à un passage de 53 à 33 jours dans la production de ses médicaments.

Comme vous le savez, l’industrie pharmaceutique est une industrie où le processus industriel, c’est-à-dire la décomposition des opérations qui permettent la fabrication du médicament, leur enchaînement et les techniques employées pour la fabrication, est bien défini et décomposé en un ensemble cohérent d’opérations liées. Il s’agit donc de les corréler et d’étudier, au cas par cas, les possibilités en termes de gain de temps et d’énergie.
 

Lean : une démarche plus qu’une méthode

À l’heure où la plupart des projets transverses sont repoussés faute de moyens pour les financer, il en est un qui arrive souvent à rester en haut de la pile : le Lean. Compte tenu de notre approche orientée sur les réalités concrètes de nos clients, ce point de vue ne cherche pas à être le manuel de référence du Lean Management mais plutôt à remettre en perspective ce concept, compte tenu de son histoire et de ses mises en pratique, et ainsi apporter des réponses aux questions telles que : Pourquoi en parler aujourd’hui ? Concrètement, qu’est-ce-que c’est ? Comment le mettre en oeuvre ?
Il est possible d’appréhender le Lean Management comme le moyen de réduire le « poids » d’une organisation et ainsi la rendre plus manœuvrable, et donc finalement lui permettre de s’ajuster plus rapidement en cas de changements de contexte.

Historiquement, le Lean est le nom donné par des chercheurs du MIT au système de production mis en place dans les usines Toyota après la guerre. Mis en place sous forme d’exercice auquel participait chacun des ouvriers, il s’agissait pour ces derniers de participer la réflexion menée dans l’entreprise sur les économies de coûts, d’énergie et de matière.

Aujourd’hui, les entreprises ou directions faisant face à des réductions budgétaires, alors que leur structure et leurs investissements passés consomment obligatoirement une part importante de ces budgets, voient facilement l’intérêt de changer leurs méthodes de travail. Le « régime » Lean Management fait la chasse aux activités sans valeur ajoutée. Cet objectif directeur permet d’identifier cinq principes :

  • définir la valeur ;
  • identifier la chaîne de valeur ;
  • obtenir un flux continu ;
  • tirer la production ;
  • viser la perfection.

Ces différents objectifs cherchent à identifier, puis éliminer, les pertes générées par une organisation et des process non optimisés. Cette suppression des pertes conduit naturellement à la fluidification de la production et donc à une meilleure maniabilité, objectif permanent de tout dirigeant. D’abord conceptualisé dans le monde industriel, la réflexion sur le Lean Management s’est ensuite portée sur son application dans le domaine des systèmes d’information au début des années 2000.

Le monde industriel, caractérisé par l’importance de ses chaînes de production, est naturellement focalisé sur des objectifs de réduction des temps de production, de réduction des défauts de fabrication, d’optimisation de planification… Comment le Lean va t-il trouver une pertinence à travers tous ces objectifs à priori plutôt hétérogènes ?

Compte tenu des changements induits par ces méthodes dans le travail quotidien, autant d’un point de vue pratique que d’un point de vue état d’esprit, leur mise en oeuvre ne peut se faire efficacement que de manière unitaire.
Le « tout, tout de suite » est à proscrire et une vrai réflexion sur le cadencement des mises en oeuvre doit être menée. En fait, le Lean management doit plus être appréhendé comme une philosophie et un ensemble de bonnes pratiques plutôt qu’un système à part entière. D’ailleurs, l’application du Lean tel quel en tant que système à part entière conduit généralement à l’échec de sa mise en place effective.

L’objectif : coordonner les différentes méthodes Lean dans une démarche générale d’amélioration

Il est intéressant pour cette réflexion de partir du cycle de vie d’un process dans lequel on distinguera trois phases principales : la création, l’évolution (avec des besoins de mesure, d’analyse, d’amélioration, de contrôle) et enfin la rupture. Pour chacune de ces phases, il est possible d’identifier les méthodes les plus pertinentes. Par exemple, dans une phase de création, il est possible de partir d’une formalisation de la chaîne de valeur pour construire le « workflow » correspondant. L’intérêt de ce « mapping » est de savoir quelles méthodes sont envisageables compte tenu de la maturité du process. Il est possible également d’engager en parallèle des démarches différentes dans des secteurs différents de l’entreprise. Les expériences faites sur un secteur ou process pouvant ensuite servir d’exemple aux autres secteurs lorsqu’ils atteignent le niveau de maturité adéquat.

Ainsi, sans établir de règles strictes pour mlener à bien la mise en place du Lean dans une entreprise, on peut tout de même lister les quatorze principes qui accompagnent une démarche Lean, quelle que soit l’activité de l’entreprise concernée. Les 14 principes sont :

  • Baser la prise de décisions sur une philosophie à long terme, en acceptant les conséquences financières à court terme ;
  • Créer des processus qui permettent de mettre les problèmes en évidence rapidement (flux continu) ;
  • Utiliser le « flux tiré » pour éviter la surproduction ;
  • Lisser la production ;
  • Intégrer à la culture la nécessité d’arrêter la production dès l’émergence d’un problème de façon à produire de la qualité du premier coup ;
  • La standardisation du travail est la base de l’amélioration continue et de l’implication des collaborateurs ;
  • Utiliser le management visuel afin qu’aucun problème ne soit caché ;
  • Ne mettre au service du personnel et des processus de production que des technologies éprouvées ;
  • Former des leaders qui connaissent parfaitement le travail, et qui incarnent la philosophie ;
  • Développer des collaborateurs et des équipes de travail exceptionnels qui embrassent la philosophie de l’organisation ;
  • Respecter son réseau étendu de partenaires et de fournisseurs en les encourageant et les aidant à s’améliorer ;
  • Aller soi-même sur le terrain, pour comprendre en profondeur la situation ;
  • Prendre les décisions lentement, par consensus, en considérant toutes les options possibles ;
  • Mettre rapidement en place les solutions choisies ;
  • Devenir une organisation qui apprend à travers la réflexion au fil de l ’eau et l’amélioration continue.
En savoir plus : histoire et principes du Lean

Après la seconde guerre mondiale, Taiichi Ohno et Shigeo Shingeo créent pour Toyota les concepts de “minimisation des phases de gaspillage” et de “zéro défaut” qui, ajoutés à d’autres techniques de mise en flux, créent le Toyota Production System .

Une première preuve de l’intérêt de ces méthodes survient en période de crise, le choc pétrolier de 1973
C’est pendant cette période économique difficile que Toyota, au travers la mise en oeuvre de son Toyota Production System, se démarque de ses concurrents japonais par une meilleur résistance.

C’est ce premier cas d’école qui va concentrer l’attention des industriels, d’abord japonais, sur ce système de production. La théorisation des méthodes appliquées par Toyota a conduit àla formalisation du concept généraliséde Lean Manufacturing. Les industriels disposent ainsi d’une base de départ qu’ils peuvent ajuster en fonction de leurs environnements et de leurs méthodes préexistantes. De nouvelles expériences peuvent ainsi être étudiées et conceptualisées.

L’histoire du Lean Management montre bien que sa création s’est faite par l’agrégation de méthodes et bonnes pratiques existantes s’inscrivant toutes dans une logique d’optimisation et de rationalisation.
C’est ainsi plus la philosophie sous-jacente au Lean qui a conduit à agréger ces méthodes existantes, et qui permettra d’ailleurs de continuer àfaire évoluer le Lean Management avec la prise en compte de nouvelles méthodes.

Il est donc préférable, plutôt que de méthode Lean, de parler de démarche Lean. Cette précision permet également d’attirer l’attention sur le fait que, comme tout modèle, norme, … le plus important est de bien appréhender les concepts pour pouvoir appliquer les «outils» de manière pertinente dans une situation donnée.

Le Lean : de l’industrie aux services ?

L’arrivée du Lean Management dans les SI s’est fait par le biais des méthodes agiles. Les principales évolutions récentes en termes de gestion de projet IT ont tourné autour de la mise en œuvre de méthodes dites agiles : l’objectif de ces méthodes est de répondre au réel besoin des utilisateurs en les impliquant plus fortement et en assurant une réactivité forte par rapport à leurs demandes. Ainsi, cette approche contraste avec par exemple un projet sur une durée de plusieurs mois, initié sur la base d’un cahier des charges, qui conduit nécessairement à un écart entre le résultat livré et l’attente de l’utilisateur.

L’écart provenant notamment de deux éléments : un cahier des charges qui ne réussit pas à formaliser les besoins réels, et des besoins qui évoluent avec le temps. Deux leçons principales sont à retirer de ce constat : le besoin d’interaction avec l’utilisateur pour pouvoir discuter et challenger son besoin, et le besoin d’adaptabilité pour pouvoir prendre en compte les évolutions. En réalité, il existe encore peu d’applications du Lean Management dans le SI. Les rares approches dans le monde des SI se sont faites en majorité sur la partie développements, mais Il existe encore peu d’exemples d’application du Lean au niveau d’une Direction des Systèmes d’Information. Les cas significatifs et visibles sont donc plus à rechercher du côté des entreprises purement IT.

Un exemple frappant est la percée réalisée par Google qui a su mettre en place à la fin des années 90 un moteur de recherche focalisé sur la pertinence et la rapidité des résultats (mettant par exemple de côté toute recherche de graphisme attractif). C’est un très bon exemple. En fait, il s’agit de penser la DSI comme une entreprise et appliquer à son organisation et ses processus les méthodes d’optimisation éprouvées dans le monde industriel. Pour plus facilement définir comment transposer des méthodes du monde industriel vers les systèmes d’information, il convient de reconsidérer la Direction des Systèmes d’Information comme une entreprise à part entière, fournissant des produits et services à ses clients avec des contraintes de gestion et d’administration (budget, ressources humaines…).

Il est alors impératif :

  • de clairement identifier les produits et services fournis (notion de catalogue de services) et de définir les niveaux de services attendus avec les utilisateurs (notion de SLA) pour dimensionner au juste besoin ;
  • d’identifier les différents process et de les mapper avec une cartographie fonctionnelle du métier du client, pour savoir en évaluer les enjeux respectifs ;
  • de définir la chaîne de création de valeurs sur ces process pour identifier les optimisations possibles.

Bien sûr, toues ces actions doivent être entreprises en anticipant les impacts et le niveau de rigidité induits par tout changement sur l’organisation.

Certaines démarches d’amélioration peuvent être « repensées Lean »

Ainsi, les points cités ci-dessous sont quelques exemples de l’approche proposée par les cabinets de conseil en stratégie des Systèmes d’informations et intégrée dans leurs offres, au-delà de sujets plus évidents tels que des démarches d’organisation de la fonction informatique ou d’efficacité des processus.

Voici les points principaux de ces offres :

  • Évaluer le poids d’une structure comme indicateur de performance : Pour la création ou la mise à jour de tableaux de bord, des gamme d’indicateurs, permettant notamment d’avoir une vision du poids de la structure et des conséquences en termes de réactivité et de délai, peut être envisagée. Parmi ces indicateurs, citons par exemple : le nombre de niveaux hiérarchiques (et la répartition des effectifs dans les différents niveaux), les temps de décision (compte tenu des processus et comités existants), la base de coûts incompressibles (comment les investissements et choix passés impactent les possibilités d’investissement aujourd’hui).
  • Pour changer, il faut aussi penser à réutiliser : Dans une logique d’optimisation, de l’existant comme des évolutions, trois composantes clés sont à souligner dans une approche schéma directeur : tout d’abord, l’étroite collaboration avec les utilisateurs nécessaire pour définir les besoins mais également pour pouvoir les challenger (la DSI ne doit pas oublier son rôle de conseil notamment par rapport à des choix de technologie, une cohérence globale des systèmes…). Ensuite, il s’agit de réaliser une analyse fine de l’existant et de ses capacités, en se plaçant dans une logique de réutilisation plutôt que de changement systématique. Enfin, l’évaluation du TCO (Total Cost of Ownership) permettant d’anticiper les coûts récurrents induits par les évolutions.
  • Nécessité de fabiliser ses projections de consommation budgétaire pour identifier les marges de manœuvre : le sujet maîtrise et réduction des coûts est par nature déjà très orienté sur des principes de Lean Management. Néanmoins, il convient de rappeler l’importance de deux aspects de la gestion budgétaire qui concourent à une maîtrise des coûts. Le premier est l’importance de pouvoir disposer de budgets prévisibles fiables: la prévision de consommation du budget est l’élément clé permettant aux décideurs d’évaluer la marge de manœuvre dont ils disposent pour arbitrer les différents projets (il est fréquent de rejeter des projets et de ne se rendre compte qu’en fin d’année qu’il aurait été possible de les financer). Le second, qui doit être lié au premier pour permettre des réductions de coûts, est la définition des principes de réallocation budgétaire. Il apparaît nécessaire, d’autant plus en temps de difficulté budgétaire, de sortir d’un système dans lequel des économies réalisées sur un projet par une Direction sont automatiquement réengagées sur d’autres projets par la même Direction. Ces économies doivent être consolidées : soit pour les concrétiser en tant qu’économies en fin d’année, soit pour pouvoir les réallouer sur les projets prioritaires.

Premier revêtement d’étanchéité de toiture 100 % végétal

Depuis longtemps le groupe belge Derbigum qui investit 1,2 million d’euros dans la R&D et dans le développement de produits, est connu dans le secteur pour son œuvre d’« éco-pionnier ». Il est le premier fabricant de produits bitumineux qui recycle à 100 % ses déchets de fabrication et qui sait traiter les déchets de découpe ainsi que les anciennes toitures provenant des chantiers de ses applicateurs, ce qui correspond à un  recyclage quotidien de 20 tonnes de déchets. L’année dernière, l’entreprise a introduit la gamme de produits NT, éco-matériaux, dans laquelle des huiles végétales remplacent les solvants et les composés organiques volatils (COV) pour les produits liquides ou pâteux.

Aujourd’hui, l’entreprise franchit une nouvelle étape  avec la première membrane de toiture végétale au monde : Derbipure. Ce  revêtement d’étanchéité hautement réflectif à base de liant végétal, 100% naturel et sans pétrole, permet, enfin, de réaliser une toiture sans bitume ! Un produit « unique », tel a également été l’avis de l’institut international de recherche scientifique EPEA (Environnemental Protection Encouragement Agency) qui a démarré la procédure de certification Cradle to Cradle  pour le Derbipure, de Derbigum.

Avec cette membrane à base d’huiles et de résines végétales, Derbigum introduit sur le marché, en première mondiale, une alternative aux revêtements bitumineux ou synthétiques, totalement environnementale.  Par sa composition, ce revêtement de toiture offre une solution d’avenir à la problématique des matières premières issues du pétrole. Au point de vue de la qualité, Derbipure peut soutenir la comparaison avec n’importe quelle autre membrane de toiture de sa génération. Derbipure a en effet les mêmes caractéristiques et qualités que son « frère à liant bitumineux », le Derbibrite NT.

La couverture de toiture Derbipure n’est pas seulement « verte » à l’intérieur. La couche supérieure de couleur blanche a surtout comme caractéristique technique une haute réflectivité des rayons du soleil (81 % à neuf et 71 % après un vieillissement de 3 ans). Ainsi, il constitue un bouclier à la chaleur efficace et permet un refroidissement passif à l’intérieur du bâtiment : en été, la diminution de la température en-dessous d’une telle toiture peut atteindre jusqu’à 5°C par rapport à une toiture standard. De plus, l’importante longévité d’une toiture Derbipure en combinaison avec ses caractéristiques écologiques (récupération des eaux de pluie, 100 % recyclable…) et sa production à base de ressources renouvelables font que son empreinte environnementale est sensiblement réduite.

« La membrane de toiture à liant végétal s’inscrit dans notre stratégie de ‘Greennovation’. L’objectif est d’utiliser à terme cette technologie brevetée pour toutes les membranes d’étanchéité. Dans notre secteur, lorsque vous n’innovez pas, vous êtes à la traîne. Nous sommes dès lors très fiers que Derbigum soit la première entreprise à pouvoir proposer ce produit révolutionnaire en Europe et dans le monde entier !  » déclare Hans Aerts, R&D Manager. Pour arriver à ce résultat, Une équipe de 5 personnes a travaillé d’arrache-pied pendant deux ans au développement de Derbipure. « Il s’agissait de chercher la combinaison optimale de composants végétaux afin d’obtenir la même qualité et le même traitement que le bitume traditionnel. On a beaucoup travaillé sur le choix des matériaux et les processus pour promouvoir la santé, la sécurité et un recyclage permanent » affirme Hans Aerts, R&D Manager.

A terme, Derbigum souhaite élargir la gamme Derbipure dont le prix est plus élevé que celui d’une membrane classique. « Avec ce projet, nous avons franchi la première étape pour s’affranchir des matières premières issues du pétrole. L’objectif consiste à remplacer progressivement tous les produits bitumineux par des alternatives végétales. Bien entendu, notre gamme actuelle continue d’exister mais nous continuons d’investir dans cette technologie et dans notre stratégie de ‘Greennovation’ » affirme Els Trio, Marketing Manager.
 

La sécurisation du Cloud computing est possible et mesurable

Le laboratoire de test indépendant du britannique Broadband Testing ainsi que Spirent Communications, l’un des leaders mondiaux dans les domaines du test et des mesures, ont effectué une percée significative dans la sécurisation des environnements virtuels et soulagé les utilisateurs d’équipements en cloud computing. Un récent rapport intitulé « Secure Virtual Data Center Testing », qui se base sur la première démonstration de test de cloud computing effectuée à l’Interop 2010, à Las Vegas, fournit en effet une explication détaillée de la façon dont la solution SVF (Secure Virtualization Framework ou cadre de virtualisation sécurisé) de HP TippingPoint est capable de créer un environnement virtuel de centre de données totalement sécurisé et de résister à toutes les attaques connues à ce jour.

La manière dont la sécurité a pu être rigoureusement testée dans des conditions réelles d’exploitation et d’attaques en utilisant  les solutions de tests de cloud computing de Spirent Communications  avec la méthodologie PASS (Performance, Availability, Security and Scalability ou performance, disponibilité, sécurité et extensibilité) est encore plus significative.

« Pouvons-nous faire confiance au virtuel ? La réponse est désormais oui », affirme Steve Broadhead, fondateur et directeur de la société Broadband Testing. « La sécurité virtuelle fonctionne en théorie, mais tant qu’une façon de la tester dans sa totalité et dans des conditions réalistes n’avait pas été trouvée, les vendeurs de cette solution avaient du mal à convaincre leurs clients. Sans Spirent Communications, nous n’aurions pas été en mesure d’accomplir tout ceci. Le test s’est non seulement montré très rigoureux, mais aussi et surtout, facile à paramétrer et à exécuter. Tester un système câblé complexe peut s’avérer difficile, mais au moins, la structure reste statique. Le Cloud, au contraire, apparait comme une excellente description d’un environnement virtuel relativement dépourvu de forme fixe, du point de vue des testeurs de réseaux. Jusqu’à ce que la procédure de test ait, elle aussi, pu être virtualisée, le Cloud est resté plutôt opaque. »

Broadband Testing a trouvé la solution à ce problème avec le Spirent Avalanche Virtual, la première solution de test conçue spécifiquement pour les environnements virtuels et/ou de cloud computing. Elle a été utilisée en parallèle avec le Spirent Avalanche pour tester le trafic interne et externe-interne dans des conditions d’exploitation normales puis extrêmes, ainsi que pour tester une large gamme de scenarii d’attaques. Toutes les menaces présentes dans la signature de base de HP TippingPoint ont été bloquées avec succès, les seules qui sont passées étaient celles qui n’avaient pas encore été inclues dans la base de données de l’époque.

L’important est de quantifier et d’adapter le niveau de sécurité

Cependant, comme le souligne David Hill, vice Président pour la zone EMEA  de Spirent :  « l’information à retenir c’est que les tests menés avec Spirent ont mis en évidence la capacité de notre solution de sécurité jusqu’à en atteindre ses limites. Les gens pensent que la sécurité est le but final, alors que ce dont nous avons réellement besoin, c’est d’une façon précise de quantifier et d’adapter le niveau de sécurité dans un système complexe. » Suite au succès de cette étude, l’entreprise projette d’ajouter un test de centre de données virtuels à son portfolio de services de tests.

L’environnement virtuel soumis au test était représentatif de la génération à venir d’environnements IT, puisqu’il comprenait à la fois des éléments physiques et des éléments virtuels, le SVF basé sur l’IPS de TippingPoint et le banc d’essai en lui-même, qui consistait en des versions physiques et virtuelles du générateur de trafic Avalanche de Spirent. Les environnements hybrides physiques/virtuels deviennent la norme, d’où la nécessité de trouver de nouvelles méthodologies de test qui prouvent que ces solutions délivrent réellement performance, sécurité et extensibilité qui sont les trois conditions essentielles requises pour la solution d’un centre de données, comme celui testé ici.

« Les bénéfices économiques du cloud computing sont massifs, mais les préoccupations des opérateurs réseaux et de leurs clients concernant la sécurité sont également très importantes », explique David Hill. « Ce rapport indépendant nous sort de l’impasse, puisque des tests fiables permettent désormais aux vendeurs système de minimiser facilement les risques d’une migration vers le Cloud, tout en optimisant l’utilisation des ressources dans une gamme exhaustive d’exploitations réelles et de scenarii de menaces informatiques. »  

A quel moment l’adoption d’une GED Technique est-elle la plus profitable ?

Aujourd’hui, la gestion fiable et pertinente de l’ensemble des données et documents techniques est un facteur clé d’optimisation des processus industriels et de la productivité, d’où la mise en œuvre de solutions dédiées : ERP, GMAO, GED, GEDT. C’est pour répondre à des besoins métiers, exprimés par des hommes « terrain » (maintenance, exploitation, inspection…), que les solutions de GEDT sont principalement adoptées. Celles-ci sont aujourd’hui principalement mises en place en fin de cycle de vie des projets, durant la phase dite « d’opérations », c’est-à-dire après le démarrage des installations.

Mais les avantages liés à l’adoption d’une solution GEDT « opérations » en amont du cycle de vie du projet, lors de la phase  « ingénierie » ne seraient-ils pas encore plus nombreux et plus bénéfiques ? En effet, 4 avantages majeurs se distinguent :

  • Cela permet, dans un premier temps, de disposer d’une base documentaire « opérations » dès le démarrage des installations, et ainsi de profiter d’une base de données de qualité, réalisée à partir du dossier de fin d’affaires livré, et disponible dès le lancement des activités en évitant ainsi les incohérences entre différentes bases. De plus, les écarts sont corrigés durant tout le projet, d’où la qualité optimale de la documentation à la livraison du dossier de fin d’affaires, qui regroupe l´ensemble des documents émis et validés au cours de la réalisation d´un projet (spécifications, réquisitions d´équipements principaux, P&ID, plans d’implémentation, etc.) ainsi que certaines informations des dossiers de fabrication. Les hommes « terrains » bénéficient donc dès le lancement des opérations, d’un référentiel à jour, et profitent d’une base documentaire opérationnelle dès le début de la phase « opérations ».
  • Les acteurs industriels évitent tout budget supplémentaire lié à la mise en place successive de différentes bases hétérogènes. En effet, lors de la phase « ingénierie », les règles de dessin et de structuration cibles pour les opérateurs sont rarement respectées, ce qui engendre des coûts supplémentaires de restructuration en phase « opérations ».
  • Adopter une GED Technique dès la phase ingénierie permet d’obtenir un système d’information optimal grâce au contrôle de la cohérence du contenu des documents avec toutes les applications composant le système d’information (ERP, GMAO…).
  • Le contenu de la base documentaire « opération » disponible dès la phase ingénierie, lors du lancement des activités, permet également d’optimiser les phases de formation et de réception des installations. 

En adoptant un progiciel de Gestion Electronique de Documents Techniques « opérations » en amont du cycle de vie du projet, soit en phase ingénierie,  la base « opération » est donc livrée au démarrage des activités d’exploitation, sans surcoût pour l’exploitant final. De plus, la documentation technique est disponible à chacune des différentes étapes d’un projet, au sein d’un référentiel centralisé.

par Eric Hallé, Responsable Solutions & Expertise, ARTESYS International 

Une nouvelle génération de plastique végétal

Connu pour son savoir-faire dans le domaine de la transformation de l’amidon, le groupe international Roquette  se lance sur le marché des matières plastiques, en proposant aux transformateurs et aux compounders, Gaïalene, une nouvelle gamme de plastiques végétaux.

Le programme Gaïahub, qui est l’un des projets majeurs d’innovation de Roquette, porte  depuis 2007 sur le greffage de polymères naturels pour produire des résines végétales thermoplastiques. Il a débouché sur le procédé de fabrication des résines Gaïalene qui est né de 75 ans  d’expérience de l’entreprise dans la transformation de l’amidon et la synthèse de ses dérivés et d’une collaboration fructueuse avec la société Setup Performance, experte en chimie des polymères. 

« Nos résines Gaïalene comprennent plus de 50 % de matières premières végétales et sont totalement nouvelles. Elles ne résultent pas d’un simple mélange ni d’un compoundage, mais bien d’une véritable hémisynthèse qui communique à nos résines des propriétés inédites », précise Jean Bernard Leleu, Directeur Général délégué de Roquette.

Protégés par une douzaine de brevets, les nouveaux plastiques proposés par Roquette constituent une alternative végétale avec un très bon compromis coût/performances. Gaïalene vise des applications durables utilisant d’ordinaire des polyoléfines, de l’ABS ou des polymères plus techniques. En effet, cette gamme de résines se distingue des autres familles de plastiques d’origine végétale par des qualités spécifiques comme par exemple la résistance aux chocs, un toucher doux, une facilité de coloration et de compoundage  (fibres minérales, fibres végétales …). Ces qualités ouvrent de nouvelles perspectives dans les applications traditionnelles des matières plastiques  comme par exemple dans les marchés de l’emballage (flacons, films, …), de l’électroménager, de l’automobile, du mobilier intérieur… Roquette présentera d’ailleurs, en avant-première, lors du salon K’2010 qui se tiendra prochainement à Düsseldorf, des produits industriels réalisés en Gaïalene.

Les résines Gaïalene  qui peuvent être aisément transformées et mises en forme avec les procédés existants dans l’industrie (injection, extrusion gonflage, extrusion soufflage…), s’inscrivent dans une démarche de progrès par rapport aux plastiques traditionnels avec une empreinte carbone inférieure d’au moins 40%. « Notre matière se transforme comme un thermoplastique mais à une température inférieure (environ 170°C), ce qui la rend moins énergivore lors de sa transformation et améliore encore le bilan carbone global. Gaïalene est également recyclable et conforme à la législation REACH», précise Michel Serpelloni, Directeur du Programme Gaïahub. . « Nos moyens en R&D permettent aux industriels intéressés de  développer en toute confidentialité, de nouveaux produits avec notre gamme Gaïalene » 

Des structures en forme d’oursins pour doper le photovoltaïque

En général, les procédés permettant de conférer des propriétés nouvelles aux matériaux sont complexes et, par là, souvent difficilement reproductibles. On est ainsi d’autant plus étonné lorsque des chercheurs présentent de nouvelles méthodes qui fournissent d’excellents résultats en partant de matériaux bon marché et sans appareillage coûteux. C’est précisément ce à quoi sont parvenus Jamil Elias et Laetitia Philippe du laboratoire « Matériaux et nanomécanique » de l’Empa,  à Thoune (Suisse).

Ces chercheurs se sont servis de sphérules de polystyrène comme une sorte d’ossature pour réaliser des structures tridimensionnelles de nanofils d’oxyde de zinc sur des surfaces. Ces chercheurs sont convaincus que les surfaces nanostructurées « rugueuses » ainsi obtenues se prêtent à de nombreuses applications en électronique et en optoélectronique, par exemple dans le domaine du photovoltaïque, mais aussi des lasers à courte longueur d’onde, des diodes luminescentes ou encore des écrans à émission de champ.

Le principe de ce procédé est simple : des sphérules de polystyrène d’un diamètre de quelques micromètres seulement sont déposées sur une couche électro-conductrice où elles s’ordonnent pour former des agencements réguliers. Les sphérules de polystyrène ainsi déposées forment l’ossature sur laquelle vont croître les nanofils. Jamil Elias est parvenu, à l’aide d’une méthode électrochimique développée à cette fin, à faire varier la conductibilité électrique et les propriétés électrolytiques des sphérules de polystyrène de manière à ce que l’oxyde de zinc se dépose sur la surface de celles-ci pour y former des nanofils. Une fois que les  « piquants » se sont formés, le polystyrène peut être détruit chimiquement et il ne reste plus que des structures sphériques creuses qui ont l’aspect d’oursins. Agencés de manière compacte sur la surface, ces «oursins»  onfèrent à cette couche une structure tridimensionnelle qui possède une surface spécifique très élevée.

Ces surfaces nanostructurées se prêtent avant tout à des applications photovoltaïques. Leurs créateurs s’attendent à ce qu’elles possèdent d’excellentes propriétés de diffusion de la lumière et qu’elles absorbent nettement mieux le rayonnement solaire et le transforment ainsi plus efficacement en énergie électrique. Dans un projet soutenu par l’Office fédéral de l’énergie, Laetitia Philippe développe maintenant avec son équipe un absorbeur extrêmement mince (Extreme Thin Absorber, ETA) pour des cellules photovoltaïques à base de nanostructures d’oxyde de zinc.  

Enjeux et perspectives des voies de valorisation du CO2 en France

Diminuer les émissions de gaz carbonique, principal gaz à effet de serre anthropique, constitue l’un des défis majeurs du XXIème siècle. En complément des économies d’énergie, du développement des énergies non carbonées et du stockage géologique du CO2, il est envisageable de valoriser le CO2 comme matière première ce qui évite de l’émettre dans l’atmosphère comme polluant. L’enjeu principal consiste à faire de cette molécule une opportunité économique à travers de nouvelles applications, tout en s’assurant de son impact positif sur l’environnement. L’utilisation du CO2 comme matière première et comme source de carbone, pourrait ainsi contribuer, via le développement d’une carbochimie, au basculement de notre société vers un modèle moins dépendant des énergies fossiles. La valorisation du CO2 permettrait alors d’apporter des solutions de substitution aux produits issus de la pétrochimie, ouvrant ainsi l’opportunité de développer une chimie « verte » à partir de CO2.

Si aujourd’hui, une faible quantité (0,5%) des émissions de CO2 issues des activités humaine est valorisée au niveau mondial, certains experts estiment que la valorisation du CO2 pourrait à terme absorber annuellement jusqu’à 5 à 10 % des émissions mondiales, qui représentent environ 30 milliards de tonnes par an, pour la production de combustibles et de produits chimiques. Le rapport commandé par l’ADEME et le Ministère du Développement durable a pour ambition de dresser un panorama des voies de valorisation du CO2 et d’étudier les atouts et les opportunités de la France dans ce domaine.

Douze voies de valorisation du CO2 à divers stades de maturité

Réalisée entre décembre 2009 et juin 2010  par la  société de conseil et d’aide à la décision Alcimed  et suivie par un comité de pilotage composé d’industriels, d’institutionnels, d’instituts techniques et de centres de recherche, l’étude, téléchargeable site le site de l’ADEME,  a identifié 12 voies de valorisation divisées en 3 groupes liés à la manière d’utiliser le CO :

  • sans transformation : le CO2 est utilisé pour ses propriétés physiques comme solvant ou réfrigérant par exemple ;
  • par réaction chimique avec un autre composant fortement réactif. Le CO2 peut mener à la synthèse d’un produit chimique de base ou d’un produit à valeur énergétique. ;
  • par l’intermédiaire de la photosynthèse au sein d’organismes biologiques, tels que les micro-algues. Le CO2 peut alors être utilisé pour synthétiser des produits (glucides, lipides et composés cellulosiques)

Après une première analyse, force est de constater que ces différentes voies présentent des niveaux de maturité hétérogènes tant au niveau technologique qu’économique. Certaines voies, comme la photoélectrocatalyse sont encore à un stade de recherche très amont alors que d’autres, comme la récupération assistée des hydrocarbures sont déjà déployées à l’échelle industrielle. Le rapport montre toutefois que la plupart de ces voies sont faces à un verrou technologique majeur qui repose sur le besoin en énergie nécessaire à l’activation de la molécule de CO2. L’utilisation d’énergie non émettrice de gaz à effet de serre et à bas coût est donc un élément déterminant pour s’assurer de la rentabilité et de la garantie de la valeur environnementale de la valorisation du CO2.

D’autres verrous technologiques ont également été identifiés, comme l’utilisation de CO2 « non pur » ou encore la validité de la conformité des produits synthétisés. Des actions de recherche ou de démonstration, ainsi que la mise en place de partenariats entre universités et industriels seront nécessaires pour lever ces verrous.

Par ailleurs, peu de bilans environnementaux et de bilans carbone® ont été réalisés pour ces différentes voies de valorisation. Une harmonisation et un approfondissement de ces bilans devraient être à considérer avant tout déploiement de ces technologies, afin d’établir leur bénéfice environnemental.

L’opportunité  de construire une filière multidisciplinaire dédiée au CO2

La France dispose d’atouts majeurs aussi bien en termes de compétences qu’en termes de ressources naturelles territoriales. La valorisation du CO2 se positionne donc comme une filière complémentaire du captage et stockage de CO2 et représente plusieurs opportunités de développement. Selon les voies et ses attraits territoriaux, la France peut envisager le développement de filières nationales ou l’export de son savoir-faire. Les particularités du territoire français permettent le développement d’une grande partie des voies de valorisation caractérisées dans l’étude. Les émissions de CO2 concentrées étant plus localement émises sur les bassins industriels, il est intéressant de faire coïncider une zone émettrice et une zone naturellement disposée à la valorisation du CO2.

Enfin, la France dispose de groupes d’industriels de dimension internationale et de laboratoires de recherche compétents dans le domaine. Alors que les prémices d’une économie du CO2 sont observées en Europe et dans le monde, la valorisation du CO2, conjointement à l’implication de la France dans le développement des technologies de captage et de stockage du CO2, pourrait constituer une opportunité de construire en France une filière plus large dédiée au CO2 et un tissu industriel pluridisciplinaire. 

Comment lancer régulièrement et rapidement de bons nouveaux produits

Une des clés de la bonne santé et de la performance d’un industriel s’avère être bien souvent sa capacité à lancer régulièrement et rapidement de bons nouveaux produits ou de bonnes nouvelles versions de produit. Mais sur quels critères ou caractéristiques l’entreprise doit-elle se baser pour qualifier un produit de bon ou de « Lean Inside » ? Ils doivent :

Les gisements de progrès qu’adresse le « Lean Engineering »

Les résultats étonnants obtenus par les entreprises qui industrialisent leurs produits selon cette approche proviennent d’actions sur :

  • une conception qui prédétermine la majeure partie (75%) des coûts et de la qualité d’un produit tout au long de sa vie. Une fois un produit lancé, il ne reste que quelques leviers de progrès, essentiellement en production, pour l’améliorer ;
  • un processus de développement très loin d’avoir été optimisé : beaucoup de simples bonnes pratiques, en particulier dans les entreprises occidentales, ne sont en réalité pas complètement appliquées, la faute à une relative faiblesse de l’efficacité managériale ;
  • une frontière, entre la recherche et le développement non maîtrisée : de la recherche, au sens essais de solutions, se poursuit lors du développement / industrialisation avec pour conséquence de nombreux allers-retours au cours de ce process, donc des coûts en temps et en argent pénalisant pour la qualité finale du produit.

Ne lancer que des produits « Lean Inside » permet d’être sûr qu’ils ne perturbent pas la production, le réseau commercial ou les services après-vente. Alors que bien souvent des unités de production réussissent leur démarche « Lean », elles continuent de subir chaque lancement de nouveaux produits : impossibilité à fabriquer, non prise en compte de la capabilité des ressources, nomenclatures non abouties, augmentation de la variété des composants sans raison réelle…

Ainsi, en appliquant le Lean Engineering, la fiabilité d’un produit relève plus de la manière de le développer que de la façon de le produire. 

Le Lean Engineering comme reproduction du Lean Manufacturing sur les projets

La philosophie se veut la même, les outils différent. Le Lean Engineering ou Lean Product Development (LPD) n’est en fait que l’application des principes du Lean Manufacturing à la R&D, au Bureau d’Etudes et aux Méthodes. Les défis restent identiques : comment appliquer la démarche quand on ne fabrique pas de voitures ? Comment l’adapter à la culture de mon entreprise et de mon pays ? Que faut-il reproduire ou pas du système Toyota ?
Pour rassurer les industriels possédant déjà une expérience du Lean Manufacturing, le Lean Product Development requiert les mêmes basiques. En ayant déjà renforcé le poids du terrain dans son management de production et intégré l’importance de la chasse aux pertes, ces entreprises connaitront moins de difficultés à faire de même avec leurs développeurs. 

L’efficacité managériale comme incontournable

Les sociétés qui ont persévéré dans le Lean Manufacturing ne seront pas surprises de constater que l’essentiel du Lean Product Development consiste à faire évoluer le management individuel et collectif ainsi qu’à développer de nouveaux comportements.

Un des changements repose sur la mise en place de chefs de projet aux attributions très étendues, allant de la définition du besoin client, au début de la vie du produit. Ces hommes clés ne décident pas des options techniques mais consacrent leur énergie à susciter un consensus autour des choix à effectuer, et sont donc conduits à être de vrais managers. Ils incitent les développeurs à générer de vraies courbes de « trade-offs » puis à argumenter sur cette base, et ne se comportent ni en ingénieur ni en expert.

Cette transformation se heurte à de multiples barrières telles que le déficit de compétences managériales de ces populations ou l’absence d’exigence en termes de respect des délais, des spécifications et du budget d’une étape projet. 

Le recours à des techniques simples mais puissantes

Concernant l’utilisation des ressources, le Lean Product Development conduit à faire un peu l’inverse de ce qui se pratique habituellement. En effet, le Front Loading en mobilisant un maximum de ressources en début de projet, se situe presque à l’opposé de la caricature du projet mal géré et des pratiques bien souvent constatées dans certaines entreprise.

Sur le plan méthodologique, le Lean Product Development utilise des outils et techniques simples à l’image du « Visible Planning » qui vise à améliorer, de plus de 50%, l’efficience du processus de pilotage de projet par le partage visuel des informations sur les tâches et leur enchaînement au moyen de post-it. Cela constitue aussi un moyen d’introduire l’amélioration continue dans la gestion de projet et de traquer les « Mudas » (pertes ajoutées) tel que le retard pris dans le démarrage d’une tâche par manque de données d’entrée. 

Le « Knowledge » ou la gestion des connaissances au cœur de l’approche

Une des clés de la réussite des projets permettant de réduire le cycle de développement ou de ne pas se retrouver dans des impasses techniques consiste à répertorier systématiquement toutes les approches possibles et impossibles pour atteindre une spécification fonctionnelle. Il faut noter et archiver, dans une base de connaissances, ce qui fonctionne et ne fonctionne pas, pour ensuite être capable d’aller y trouver une solution à un problème ou une étude ayant antérieurement montré une non faisabilité.

Cette organisation de l’expérience acquise lors de projets précédents doit également permettre à l’entreprise de conduire en parallèle plusieurs alternatives par projet, aussi bien au niveau du design que des fonctionnalités. Cette démarche dite « d’alimentation des nouveaux projets par l’avant » (ou Feed Forward), donne aux sociétés la possibilité de retarder leur prise de décision sur une solution tout en se sécurisant sur le fait d’avoir, au terme du projet, au moins une solution opérationnelle. Même si ce thème relatif à la gestion des connaissances semble évident, il reste encore balbutiant dans de nombreuses entreprises, y compris celles dont la gestion de projet représente pourtant le cœur de leur business. 

Des résultats au-delà des attentes 

Le Lean Engineering ou Lean Product Development donne ou renforce les atouts concurrentiels des entreprises qui l’appliquent avec  :

  • des produits manufacturables dont le « Ramp-up » (temps entre le premier de série et la production stabilisée en cadence et qualité) en production s’effectue en moins de deux semaines ;
  • un « Time To Market » de la moitié de celui des concurrents ;
  • une créativité forte mais maîtrisée basée sur une capitalisation du savoir-faire et des expériences projets précédentes.

 
par Philip Marris, Fondateur et Directeur Général de Marris Consulting

 

Corrosion et isolation thermique au programme du pôle Axelera

Le pôle de compétitivité Axelera qui conjugue chimie et environnement, vient de voir deux  de ses nouveaux projets de R&D retenus suite au dixième appel à projets du FUI (Fonds Unique Interministériel).  Représentant un budget cumulé de 8,3 M€, ils portent à 110 le nombre de programmes labellisés par le pôle « Pôle de compétitivité Chimie-Environnement Lyon Rhône-Alpes » et financés.

Une solution à la corrosion des équipements industriels

Le projet IREINE (Innovation for the REliability of INdustrial Equipments) vise au développement d’outils et de services de prévention de la corrosion des équipements de l’industrie chimique. Il répond à une problématique de fiabilité des équipements industriels et s’attache à fournir des appareils et des procédés permettant de garantir la durée de vie et notamment la résistance à la corrosion.

Inscrit dans  la thématique stratégique « Usine du Futur » d’Axelera, le projet répond aux enjeux réglementaires de la politique française de réduction des risques industriels. Il alimente l’écosystème « Procédés éco-conçus » du pôle, dont la dynamique s’appuie sur les axes transversaux d’optimisation de l’éco-conception et de l’éco-efficience des procédés définies à l’issue d’une consultation des acteurs du marché.

A forte dimension technologique, le projet IREINE se positionne à la pointe de l’innovation en monitoring de la corrosion. Les axes de progrès visent des applications pour les partenaires de l’industrie chimique en s’appuyant sur le développement des technologies existantes (sondes de corrosion, émission acoustique,…) et leur intégration dans la conception et la prévention des endommagements des équipements. Le projet inclut une phase de validation à l’échelle pilote et industrielle.

Les résultats attendus auront un impact sur la filière des industries chimiques et permettront notamment de :

  • maximiser la sécurité des procédés, des personnes et des populations ;
  • minimiser l’impact sur l’environnement : rejets et déchets ;
  • accroître la compétitivité économique et technologique.

Porté conjointement par Arkema et Rhodia, le projet IREINE associe au total 9 partenaires (2 groupes industriels, 2 PME, 1 EPIC et 4 établissements de recherche) implantés notamment dans les aires de Lyon, Grenoble et St-Etienne. 

Un enduit d’isolation thermique par l’extérieur

Le projet PAREX.it (PARement EXtérieur pour Isolation Thermique) vise à développer un enduit de façade à haut pouvoir isolant. Matériau composite, cet enduit est formé d’un liant hydraulique formulé et d’un granulat de matériaux super-isolants et hydrophobes.

projet  PAREX.it  étudiera les performances d’un tel système par une mise en œuvre en grandeur réelle sur un bâtiment expérimental, par l’analyse du comportement de celui-ci ainsi que par des modélisations de bâtiments prenant en compte différents systèmes constructifs.

Le projet permettra le développement d’un système d’isolation monocouche projetable et facile d’utilisation. Il ouvrira le champ des techniques de l’isolation thermique par l’extérieur (ITE), aujourd’hui complexe à mettre en œuvre, en proposant un système d’ITE de mise en œuvre beaucoup plus simple et thermiquement efficace.

Cet enduit s’adresse à trois marchés :

  • la réhabilitation des bâtiments anciens, pour répondre aux exigences de réduction de la consommation énergétique fixées par le Grenelle de l’Environnement ;
  • les constructions neuves mono-mur, auxquelles il apportera une performance thermique de haut niveau ;
  • zles constructions neuves ou récentes isolées par l’intérieur et bâties en béton ou en briques, pour lesquelles il permettra un gain d’isolation important.

Le projet Parex.it est co-labellisé avec les pôles de compétitivité Tenerrdis (Technologies Énergies Nouvelles Énergies Renouvelables Rhône-Alpes, Drôme, Isère, Savoie) et Capénergies (Energies non génératrices de gaz à effet de serre) , et s’inscrit dans le cadre de l’écosystème Bâtiment durable. Porté par la société Parex Group, acteur international majeur  dans le domaine des mortiers industriels prêts à l’emploi, le projet rassemble au total 7 partenaires (1 groupe, 2 PME et 4 établissements de recherche) implantés en région Rhône-Alpes.
 

Dépollution en milieu insulaire du site d’une centrale thermique

L’exploitation d’une centrale thermique implique inévitablement l’entreposage, la manutention et l’utilisation de quantités importantes d’hydrocarbures. Des fuites et des déversements accidentels survenus durant les 25 années d’exploitation de cette centrale de production d’énergie électrique ont occasionné une pollution des terres et de la nappe phréatique par du diesel, des huiles et du mazout.

Le site se trouvant sur une île, Biogenie a dû aménager spécifiquement tous ses équipements afin que ceux-ci puissent être transportés aisément et économiquement sur le site. La pollution des terres atteignant jusqu’à 15 m de profondeur, ainsi que la présence d’eau souterraine en abondance, ont été des défis supplémentaires qui ont dû et su être relevés.

Afin de pouvoir garantir la dépollution de la zone affectée, l’excavation de toutes les terres polluées jumelée à un traitement ex situ s’est avérée être la meilleure solution. Ainsi, la récupération des hydrocarbures en phase libre a été un succès grâce, notamment, à la procédure d’excavation qui a permis de libérer les hydrocarbures retenus dans les fractures du roc. Le site a été équipé d’un système de puits de pompage pour la récupération et le confinement des hydrocarbures en phase libre.

Biogenie a réalisé les travaux de démantèlement des infrastructures souterraines (fondations et tuyauterie), ainsi que l’excavation de 240.000 tonnes de terres. Tenant compte du temps alloué et du budget, le procédé de traitement par Biopile ex situ fut sélectionné : il a permis de traiter environ 83.000 tonnes de terres polluées afin de réduire la concentration des polluants à un seuil résidentiel.

Destiné au traitement des composés organiques comme les hydrocarbures, solvants, BTEX, HAP, PCB, phénols et solvants organo-halogénés, le procédé de Biopile ex-situ aussi appelé Biotertre dynamique consiste à créer puis à maintenir des conditions favorables à une croissance rapide de bactéries endogènes qui, naturellement présentes dans le sol ou l’eau, ont la capacité de dégrader les contaminants organiques. Les terres excavées sont stockées sur des aires en enrobé armé sous forme de monticules et recouvertes d’une bâche perméable à l’air et à l’eau et lestée.

Un réseau de tuyaux intégrés dans la biopile aspire l’air dans les biopiles pour qu’il puisse se renouveler. Cet air est ensuite débarrassé de son humidité puis filtré par des biofiltres à charbon actif ou compost. Des analyses sont effectuées régulièrement toutes les une à deux semaines pour assurer des conditions optimales et accélérer la biodégradation, notamment en agissant sur des paramètres tels que les apports en oxygène et en nutriments,  et en contrôlant régulièrement les niveaux d’humidité, de pH et de température. Les eaux de lixiviation sont récupérées, stockées et traitées.

L’eau souterraine polluée a également été traitée sur le site conformément aux normes et, par la suite, rejetée dans l’égout municipal. 

Climatisation douce pour la réhabilitation du campus de l’INSEP

Situé au coeur du bois de Vincennes, à Paris, l’INSEP  (Institut national du sport, de l’expertise et de la performance) regroupe sur une trentaine d’hectares les infrastructures dédiées à la préparation des équipes olympiques et à la formation des athlètes et des cadres sportifs. Face à la vétusté des installations, un vaste programme de réhabilitation a été engagé. Au sud du campus, un nouveau pôle sportif d’environ 12.500 m2 a été conçu par l’agence d’architecture Dusapin & Leclercq. Ce nouvel équipement réunit 4 activités (gymnastique, escrime, lutte, taekwondo) dans un bâtiment dense où les différentes disciplines sont fédérées par une toiture unique qui couvre uniformément salles d’évolution, espaces servants et rue intérieure distributive.

Le parti pris architectural a été d’inscrire le nouveau pôle sportif dans le respect de certaines orientations esthétiques et environnementales comme la relation harmonieuse du bâtiment avec son environnement, la gestion de l’énergie, le confort hygrothermique. L’architecte François Leclercq a ainsi opté pour des matériaux et des systèmes conformes à ces exigences. Des poutres en bois élancées adoptent la trame structurelle de 6 m x 6 m pour  quadriller l’ensemble du bâtiment. La toiture se décompose alors en deux strates : une toiture plane reposant sur ce réseau de poutres qui gère le passage de l’extérieur à l’intérieur, et, afin de libérer l’espace au sol et de s’adapter aux différentes hauteurs de plafond, des boîtes lumineuses contenues dans l’épaisseur des poutres, regroupant les éléments techniques qualifiant les ambiances intérieures : filtration de la lumière naturelle en journée à l’aide de lanterneaux, éclairage en soirée, chauffage et rafraîchissement. Autour du puits de lumière formé par le lanterneau s’inscrivent les luminaires ainsi que des panneaux rayonnants rafraîchissants Zehnder Reverse. Au total, ce ne sont pas moins de 694 qui ont été installés, dont 524 panneaux de 3,70 m de long fabriqués spécialement pour ce projet afin de s’adapter au calepinage.

Dans la salle d’escrime, des panneaux rayonnants et rafraîchissants Zehnder Reverse ZRS ont été installés en faux-plafond. Ils constituent un système de climatisation douce permettant de retrouver le confort et la fraîcheur de façon  «naturelle». En été, ils fonctionnent avec de l’eau froide à des températures proches de 15°C. La consommation d’énergie est ainsi plus faible que pour des systèmes de climatisation traditionnels fonctionnant avec de l’eau glacée à des températures d’environ 7°C.  Réversibles, les panneaux rayonnants chauffants / rafraîchissants Zehnder Reverse chauffent les espaces en hiver et les rafraîchissent en été sans courant d’air et sans bruit, offrant ainsi un confort maximal aux sportifs. Sans entretien, ils assurent, en plus, une hygiène parfaite dans les salles. Ils sont constitués de tubes en acier plats de 70 x 11x 1,25 mm espacés de 4 mm et associés par 2 collecteurs transversaux de diamètre 38 mm. Ces derniers sont reliés par 2 collecteurs longitudinaux qui assurent l’alimentation de la totalité du panneau. L’ensemble de la paroi rayonnante est irriguée afin d’assurer une température de surface homogène et un échange de chaleur par rayonnement optimal dans le local. Ils disposent de raccords spéciaux qui permettent de relier plusieurs tronçons par simple emboîtement. Leur faible contenance en eau et leur conception technique assurent une mise en chauffe rapide.  

Garantir le succès d’un projet éditique

Déployer un projet informatique est une donnée qu’il convient d’aborder dans son ensemble pour ne pas être débordé par l’ampleur de la tâche, d’autant plus que les masses financières en jeu sont considérables (30 % du budget mondial de R&D serait dédié à l’informatique et moins d’un tiers des gros projets informatiques fonctionnerait convenablement en terme de délai et de budget selon Science & Vie Micro – Juillet-août 2010). Intégrant à la fois des données techniques et organisationnelles, un projet informatique est un chantier complexe qui impose de suivre un cheminement prédéfini pour rester cohérent. Dans ce contexte les fournisseurs de solutions et prestataires associés doivent jouer un rôle de conseil et d’accompagnement. A priori évidente, la répartition des tâches est pourtant assez complexe, notamment pour les projets utilisant des technologies très poussées comme l’éditique. 

Le premier réflexe consisterait à dire que l’éditeur se contente de fournir la solution et le support et les intégrateurs et cabinets de conseil les prestations d’intégration, de consulting… En réalité cela n’est pas aussi cloisonné. Dans nombre de projets, l’éditeur ne se limite pas uniquement à délivrer son logiciel et à laisser le client et les autres prestataires se débrouiller. Les projets éditiques ont, d’une part, des conséquences importantes sur l’évolution de l’infrastructure informatique et, d’autre part, s’intègrent fréquemment dans des projets de gouvernance beaucoup plus larges. Il est donc crucial pour l’entreprise de pouvoir s’appuyer sur l’éditeur afin d’obtenir des préconisations et des prestations de conseil quant à la mise en œuvre et à l’évolution du projet. 

Bien entendu, il ne s’agit pas de remplacer les cabinets de conseil et intégrateurs travaillant sur les projets. A titre d’exemple, l’éditeur n’intervient pas dans les développements spécifiques réalisés par l’intégrateur autour de sa plate-forme. Ces partenaires sont indispensables à la bonne conduite du projet et proposent des prestations à très forte valeur ajoutée parfaitement complémentaires à celles délivrées par l’éditeur. Mais n’oublions pas qu’au final, en cas de demande d’évolution, l’un des premiers réflexes est de se tourner vers le fournisseur de technologies (l’éditeur) ; il est donc nécessaire pour celui-ci de positionner chez le client un consultant référent de son équipe qui sera chargé de suivre la mise en place de l’ensemble des projets et leur évolution. 

Autre élément, l’éditeur doit être partie prenante dans le cycle d’accompagnement au changement. Il est utile de se rappeler qu’un projet éditique peut être vécu comme une véritable révolution dans l’entreprise et qu’il est important de prendre en compte les dimensions organisationnelle et humaine dans le projet. Rappelons la loi de Greer : « Un programme informatique fait ce que vous lui dites de faire, pas ce que vous voudriez qu’il fasse » ! En ce sens, les équipes de l’éditeur doivent s’assurer de la bonne compréhension des utilisateurs en les formant pas à pas afin de vérifier leur bonne adhésion et maîtrise de la solution informatique. Il faut en effet être particulièrement attentif à cette étape d’accompagnement au changement afin de permettre au projet de se positionner en un succès opérationnel porté par les utilisateurs.

Le rôle de l’éditeur ne se limite donc pas à vendre des solutions mais également à s’assurer de leur bonne utilisation par les clients. L’éditeur ne doit pas pour autant se positionner comme le pilote du projet mais s’entourer de partenaires complémentaires pour déployer ses solutions. Proche de son client, l’éditeur doit l’accompagner tout au long du projet, dans les différentes étapes, en proposant des interventions, recommandations et formations. Cette donnée est stratégique pour les projets à valeur ajoutée comme l’éditique. L’éditeur doit, avec ses partenaires, définir une road map précise qui permettra de pallier toute dérive et de déployer le projet dans des conditions optimales pour toutes les parties.
 
Par Jean-Philippe Khristy, Directeur des Services pour l’Europe de Sefas Innovation 

Une nouvelle architecture alvéolaire révolutionne l’emballage de transport

Les chercheurs de BASF ont écarté l’idée selon laquelle les mousses sont un mélange statique de polymère et d’agent d’expansion, comme c’est le cas pour les interpolymères par exemple. Au contraire, ils ont considéré la mousse comme une formule complexe associant différents composants interagissant non seulement les uns avec les autres, mais aussi avec le pentane en tant qu’agent d’expansion. Ils sont ainsi parvenus à appliquer aux mousses alvéolaires une modification de la résistance aux impacts comme celle déjà obtenue pour les matériaux polymères. Cette formule est le résultat d’un process de fabrication inédit de BASF. Le transformateur, client direct de BASF est maintenant en mesure de transformer les granulés en utilisant la technologie classique de fabrication du polystyrène expansé

La mousse produite baptisée E-por qui a une nouvelle architecture alvéolaire est la première mousse viscoélastique, hautement résistante à la cassure qui peut être transportée, stockée, transformée et recyclée comme du polystyrène conventionnel. Le matériau se distingue par sa très bonne fusion superficielle, son excellente résistance aux solvants, son esthétisme et son toucher agréable. En raison de sa résistance élevée à la cassure, il est à l’épreuve des chocs répétés et convient particulièrement bien à la fabrication des emballages de transport pour produits électriques et électroniques haut de gamme sensibles aux chocs, tels que les écrans plasma, ordinateurs portables, réfrigérateurs ou lave-linge.

Grâce à leurs propriétés spécifiques, les nouveaux granulés BASF offrent des avantages tout au long de la chaîne de valeur de l’emballage de transport – du transformateur au consommateur en passant par le fabricant d’appareils électriques et le détaillant. Pour un transport en toute sécurité des appareils électriques et électroniques, le poids et la sensibilité au choc du produit sont cruciaux. C’est pourquoi pour l’emballage de ce type de produit, le carton est généralement combiné au polystyrène expansé, une mousse rigide légère, dotée d’excellentes propriétés d’amortissement mais susceptible de casser si l’emballage tombe, comme par exemple lors du déchargement d’un camion. Une fois cassé ou abîmé, le polystyrène expansé amortit moins bien.

Des efforts quant au recyclage

Au fur et à mesure que les produits électroniques deviennent de plus en plus légers, mais aussi plus complexes et donc plus sensibles aux chocs répétés, les exigences pour l’emballage sont de plus en plus strictes. Pour cette raison, lorsqu’ils sont fragiles, les produits de valeur sont emballés dans des mousses polyoléfines et interpolymères à l’épreuve des chocs multiples. Comparé au matériau d’emballage standard qu’est le polystyrène expansé, ces mousses présentent plusieurs inconvénients notamment lors du process de production et parce qu’elles ne sont pas aussi faciles à recycler que le polystyrène expansé.

E-por associe les propriétés de résistance aux chocs et l’intérêt esthétique des interpolymères, aux avantages économiques liés au recyclage et à la facilité des process de production du polystyrène expansé conventionnel. Sa teneur en agent d’expansion est inférieure à 6 % alors que les produits concurrents à base d’interpolymères nécessitent une teneur en agent d’expansion  supérieure à 10 %. Cette grande quantité d’agent d’expansion doit être congelée dans la matière première puis les interpolymères doivent être transportés et stockés sans jamais interrompre la chaîne du froid. A ce jour, les produits concurrents à base de polyoléfine ne sont pas encore capables de contenir d’agent d’expansion. Ils sont pré-expansés au cours du processus de production. Par conséquent, c’est principalement de l’air qui est transporté du producteur de matière première au fabricant d’emballage et les coûts de transport s’en trouvent nettement majorés.

Ainsi, l’utilisation de l’E-por permet d’économiser en coûts de logistique, de stockage et d’énergie. Il peut être transporté et stocké à température ambiante. Le fabricant d’emballage peut réaliser lui-même l’expansion avec un peu de vapeur. Le matériau peut alors être transformé par les machines à expanser classiques ce qui est plus efficace énergétiquement que la transformation des polyoléfines. Par conséquent, les transformateurs n’ont pas besoin de changer leurs machines pour utiliser E-por qui est la seule mousse résistante aux chocs répétés qui peut être compactée et recyclée grâce à la technologie déjà existante de retraitement du polystyrène  expansé.

Les transformateurs ne sont pas les seuls à bénéficier des avantages d’E-por, toute la chaîne de valeur en tire partie, jusqu’au consommateur. Les fabricants d’appareils ont à leur disposition un matériau d’emballage ne créant pas de poussière, à la fois esthétique et agréable au toucher, qui permet de faire des conditionnements compacts de leur produits avec très peu de détériorations et de retours, et des coûts réduits d’élimination. Les détaillants et les consommateurs peuvent jeter l’emballage de transport dans le même circuit de recyclage que le polystyrène expansé, une démarche économique qui ne nécessite aucun effort supplémentaire.

 

Première plateforme collaborative REACH pour l’industrie manufacturière et la distribution

Quel est le point commun entre  Messier-Dowty (Groupe SAFRAN) qui, avec ses  l4.500 salariés répartis dans 13 sites dans le monde, est le leader mondial des systèmes de trains d’atterrissage, et René Derhy, créateur de prêt-à-porter, qui crée plus de 2.000 vêtements de style chaque année et fait appel à des fournisseurs asiatiques ? A première vue, il n’y en a pas. Pourtant, tous deux doivent se conformer la directive européenne REACH, en particulier son article 33 sur la traçabilité ainsi que l’annexe XIV qui liste régulièrement les substances extrêmement préoccupantes, contraint l’ensemble des sociétés productrices ou importatrices sur le sol de l’Union Européenne à réaliser l’inventaire des substances chimiques dangereuses présentes dans leurs produits pour être à même de le communiquer à leurs clients, aux consommateurs, ou à l’ECHA qui gère REACH (l’European CHemicals Agency) depuis Helsinki. Réaliser un inventaire régulier est une nécessité car ces mêmes acteurs économiques devront ensuite substituer ces produits dangereux par des substances acceptables sur les plans de l’écologie et de la santé humaine.

Mieux, Messier-Dowty qui se doit d’offrir des solutions techniquement avancées, compétitives et éco-responsables, avec un réseau support proche de ses clients, et René Derhy qui s’approvisionne largement auprès de fournisseurs de textiles basés en Inde et ne connait pas toujours la composition de ces textiles et doit interroger ses fournisseurs, ont décidé  d’utiliser REACH Garden.com de Verteego, la première plateforme collaborative REACH pour l’industrie manufacturière et la distribution qui répond précisément à cet enjeu de la supply chain complexe.

Messier-Dowty a équipé ses équipes d’achat avec la plateforme REACH Garden.com afin de collecter des données REACH auprès de plusieurs centaines de fournisseurs dans le monde représentant des milliers d’articles. Le logiciel a été entièrement configuré pour être adapté à l’organisation des achats afin de minimiser l’impact du déploiement de la plateforme qui permet aux acheteurs de Messier-Dowty gagnent du temps dans la gestion de leurs campagnes REACH et sont ainsi capables de fournir à leurs clients des informations précises dans des délais très restreints.

Gérer facilement une chaîne d’approvisionnement

De son côté, René Derhy a décidé de recourir à cet outil expert pour gérer toute la difficulté de la mise en conformité avec REACH. La plateforme lui a permis de gérer facilement une chaîne d’approvisionnement complexe et de collecter des données REACH auprès de plusieurs centaines de ses fournisseurs étrangers représentant des milliers d’articles.

Cette plateforme web accessible sur abonnement qui, selon les préceptes du SaaS, inclut les mises à jour, l’accès à un site dédié de support, et l’hébergement, a fait l’objet, en partenariat avec ses deux premiers clients (Messier-Dowty et René Derhy), de plus de 15 mois de R&D de la part de l’équipe de développement de Verteego, constitué de compétences en ingénierie logicielle, en chimie, et en environnement. Elle se distingue par :

  • sa simplicité, dans la mise en oeuvre (setup en quelques jours) comme dans l’utilisation ;
  • ses fonctions collaboratives : les fournisseurs peuvent partager leurs données avec leurs clients, qui peuvent eux-mêmes inviter leurs fournisseurs à participer à la collecte d’informations ;
  • son total cost of ownership modéré, parfaitement adapté à la conjoncture économique et à la volonté qu’ont nos politiques de faire de la directive REACH un levier de compétitivité industrielle pour l’Europe plutôt qu’une contrainte réglementaire de plus ;
  • son interopérabilité avec les systèmes d’information en amont (ERP, MRP, SCM, FRP,…) comme en aval (PLM, tableaux de bord de reporting / BI), à des fins d’automatisation totale des campagnes REACH. 

La Poste choisit la solution VoIP proposée par une start-up

Deux déménagements coup sur coup en 2 ans pour une entité de près de 1.000 personnes et  la nécessité de s’installer dans un ancien bâtiment où le réseau doit être refait à neuf. « Simplifions, économisons, faisons le choix de la VoIP, une technologie qui a la reconnaissance du marché », propose Olivier Lenoir, responsable des infrastructures informatiques de ce service à La Poste qui lance en 2007 un appel d’offres contenant un cahier des charges prévoyant 800 à 1.000 positions.

Les acteurs traditionnels du PABX sont bien positionnés et proposent des montées en charge allant jusqu’à 30.000 postes. Mais là, les budgets sont mal appréhendables… Car les acteurs du PABX  classiques ont fait un effort commercial énorme sur les postes IP qu’ils proposent à des prix défiant toute concurrence. Mais leur modèle économique ne leur permet pas de s’engager sur des facturations forfaitaires : tout service nouveau sera facturé, toute nouvelle connexion au poste de travail aussi. Quant aux intervenants français de la VoIP, ce sont des start-up.

L’une d’elles, Proformatique, créée 3 ans auparavant mais qui fusionnera avec Avencall en 2010, experte d’Asterisk,  un standard qui a fait ses preuves Outre-Atlantique et s’est imposé pour sa robustesse et sa flexibilité fonctionnelle, propose sa solution XiVO.  « Mais pourront-ils aligner sur le terrain les équipes suffisantes pour connecter les postes téléphoniques dans les délais ? La solution VoIP Open Source XiVO,  permettra-t-il des communications de bonne qualité si des centaines de personnes sont en ligne en même temps ? On était en droit de se poser ces questions », se rappelle Olivier Lenoir, à l’origine de l’appel d’offres. La Poste fait toutefois un choix audacieux et  « l’appel d’offres est remporté de justesse par Proformatique , eu égard aux critères de choix qui mettent en équation, le coût global de l’investissement, les références et la structure du prestataire », explique Olivier Lenoir.

Une nuit pour relier 400 postes en VoIP

La Direction des Opérations RH de La Poste se lance alors dans l’aménagement de son nouvel immeuble… Un réseau HP et un câblage inter-switches en fibre optique équipent les 10 étages (jusqu’à 8 switch de 48 ports par étage). L’installation réseau est opérationnelle et flambant neuve. Reste à faire le saut vers la VoIP. Tout bascule une nuit de novembre 2007. Quatre étages sont concernés dans un premier temps, avec la mise à feu du réseau, l’installation de tous les postes, soit un parc de 400 postes.  « Il n’y a a jamais eu la moindre saturation, tout a marché dès le début, les communications ont toujours été très fluides », explique Olivier Lenoir. Aujourd’hui, le parc comporte environ 800 postes IP. Les utilisateurs, des gens qui téléphonent beaucoup et qui se téléphonent beaucoup entre eux sont satisfaits du service.

A Nantes, le service de R&D est également sous XiVo et les communications de site à site, de Nantes et Paris, sont donc à coût 0. Au plan de la facturation Proformatique, aucun service additionnel de téléphonie n’a jamais été facturé en supplément (boites vocales, chambres de conférence, etc.), l’outil permettait ces évolutions. L’interface administrateur XIVO a été facile à prendre en main. Proformatique continue à gérer des modifications, avec souplesse : « Nous avons recours à eux de façon ponctuelle dans le cadre d’un marché de maintenance et de supervision, pour faire évoluer les services », précise Olivier Lenoir.

La contagion de l’esprit contributif

L’application étant évolutive et les sources ouvertes, La Poste a pu développer et raccorder d’autres applications à valeur ajoutée à son système de téléphone IP. En totale cohérence avec l’esprit du logiciel libre, les équipes informatiques de La Poste se sont investies dans l’évolution de leur outil, et la collaboration est véritablement contributive. « Nous avons réalisé un couplage entre XiVO et OpenERP pour une application de CRM : la hot line sur les pratiques RH, mises à disposition interne du Groupe, en bénéficie. Nous avons aussi développé une application d’audioconférence avec partage d’écran. C’est une source d’économie très importante pour nos formations », explique Olivier Lenoir.

Une chambre de conférence a été perfectionnée, pour évoluer vers un mode plus sécurisé. Une collaboration efficace entre les équipes de développement de Proformatique (Avencall), et de La Poste, a permis d’aboutir à une application très satisfaisante. Autre innovation, le client Xivo est webisé, pour permettre aux utilisateurs de gérer leur poste téléphonique à distance, de créer des renvois d’appels, d’actionner leurs boites vocales, de consulter leurs messages. « Enfin, nous avons aussi perfectionné le système de filtrage patrons / secrétaires. Les français ayant des spécificités sur ce plan que ne connait pas le management américain … Ainsi, nous savons gérer tous les cas de figure aujourd’hui, un patron qui a plusieurs secrétaires, une secrétaire qui sert plusieurs patrons, un patron qui a une seule et même assistante… », explique Olivier Lenoir.

 

Les grands principes de la démarche BPM

L’activité quotidienne d’une entreprise peut souvent se décrire comme un ensemble de collaborateurs qui participent à l’exécution de processus métiers. Instruments privilégiés de la création de la valeur au service des clients, la gestion des processus est donc un domaine clé, et pour lequel toute une série d’approches et de techniques ont été élaborées depuis des années.

Le BPM (Business Process management) ou gestion des processus métiers se positionne aujourd’hui comme une démarche globale qui allie analyse, exécution et supervision, dans une volonté d’intégration forte avec les systèmes d’information. L’automatisation des processus et leurs contrôles, fondée sur un ensemble d’outils et de techniques, constitue un de ces axes majeurs. Cependant, cela ne va pas sans difficultés et la connaissance des technologies ne se substitue pas à la nécessaire maîtrise des aspects métiers. Cela requiert un minimum de méthode et de structuration, afin d’en mieux contrôler la complexité.

Qu’est qu’un processus métier ?

C’est la première question à se poser, même si elle peut apparaître triviale. Trop souvent, le terme « processus » se transforme en fourre-tout, comprenant à la fois des structures de haut niveau, la description d’un enchaînement d’écrans voire un algorithme informatique.

Au cours d’un récent atelier sur le sujet, où chacun était invité à donner sa définition du terme « processus métier », le consensus a été très difficile à trouver. « Cela va sans dire, mais cela va mieux en le disant ! ». Fondamentalement, un processus métier est une transformation qui produit une valeur ajoutée tangible à partir d’une sollicitation initiale. Il est divisé en activités (ou tâches), réalisées par des acteurs (humains ou automatiques) avec l’aide de moyens adaptés,  qui contribuent chacune à l’obtention du résultat escompté. Le caractère « métier » du processus s’exprime par la nature du résultat, qui doit avoir un sens pour un client (client au sens large, interne ou externe) et mesurable.

Par exemple, dans la construction d’un bâtiment, le processus métier comprend la définition et l’organisation des tâches affectées aux différents participants. Les problèmes à résoudre portent sur la coordination, la disponibilité des ressources, l’échange et la synchronisation. A l’inverse, on va moins se préoccuper de la manière avec laquelle le maçon va s’y prendre pour construire son mur ou le charpentier pour monter la toiture. Par contre, l’ordre dans lequel ces deux tâches vont être réalisées est typiquement une question de processus.

Un processus est par nature transverse aux fonctions et entités de l’entreprise : il est constitué par les différentes étapes qui s’enchaînent de manière plus ou moins complexe à partir de la sollicitation initiale jusqu’à l’obtention du résultat final. On parle de processus « de bout en bout », porteur des indicateurs fondamentaux (KPI ou Key Performance Indicator), qui mesurent la qualité du service rendu. Cette vision à l’avantage de mettre l’accent sur le fonctionnement réel des entreprises, mais nécessite une bonne coordination entre les différentes entités impliquées. La mise en place d’une gouvernance adaptée s’appuyant sur la notion de « pilote de processus » devient un facteur clé pour la réussite des travaux.

Priorité aux processus « cœur métier »

Nous proposons de distinguer 3 niveaux de description des processus métiers : l’identification, la qualification et la modélisation proprement dite. Cette démarche se justifie par un constat suivant. Trop souvent, la précipitation à modéliser dans le détail les processus aboutit à une situation paradoxale : la prolifération de modèles difficiles à appréhender et dont la mise à jour délicate accélère leur obsolescence. Il est préférable de procéder par étapes et de disposer finalement de plans de lecture bien distincts, en fonction du type d’information recherché et du point de vue.

L’identification des processus peut prendre plusieurs formes: un simple inventaire ou une cartographie organisée. Bien entendu, on veillera à respecter les principes énoncés plus haut, de façon à conserver un haut degré d’homogénéité. Pour chaque processus un ensemble d’informations fondamentales sont regroupées dans la fiche d’identité du processus : l’évènement déclencheur, les entrées-sorties, les participants, ressources utilisée, les indicateurs clés (KPI), etc. Facilement accessible, cette fiche est le point d’entrée au processus, fournissant une vue globale et synthétique.

La qualification a pour objectif de mieux cerner les processus, et de faciliter les prises de décision. Cela part d’un constat simple : on ne peut pas mettre sur le même plan un processus totalement automatisé, exécuté 200 fois par minute, avec un autre pris en charge en majeure partie par les acteurs humains, et s’exécutant 2 fois par an. Les contraintes exercées, les compétences mobilisées, la palette de solutions, varient beaucoup d’un cas à l’autre et doivent être ajustées à chaque situation. La grille de caractéristiques va permettre de qualifier chaque processus de manière homogène à l’aide de critères directement exploitables : fréquence, complexité, durée, disfonctionnement constaté, typologie, nombre de participants etc.

La modélisation:  les modèles fondés sur une notation graphique sont incontournables pour ce type de représentation, à l’image du standard BPMN (Business Process Modeling Notation). Depuis longtemps utilisé dans beaucoup de secteurs, les modèles servent à comprendre, élaborer et communiquer. Ils constituent également un instrument majeur de conservation du patrimoine de l’entreprise. Ils requièrent des compétences particulières et un certain savoir-faire : choix du degré de détail, recueil et consolidation des informations, communication.  Suivant le but recherché, le type de modélisation sera différent : description générale, détail du processus, support pour l’automatisation. Il est recommandé de définir ces types de modèle et de toujours le préciser lors d’une communication.

Dans la pratique, le but n’est pas de fixer l’ensemble des processus de l’entreprise en une opération « big bang ». La priorité sera donnée aux processus « cœur métier », ou en fonction des opportunités de rénovation ou de modification métiers. Généralement, le nombre de processus « identifiés » est plus important que nombre de processus « qualifiés » et « modélisés », et il est conseillé de justifier clairement le passage d’un niveau à l’autre, notamment pour la modélisation, compte tenu de l’investissement nécessaire.

Pour conclure, quelle que soit la cible du point de vue technologique, il est nécessaire de soigner le volet analyse du BPM. A partir d’un cadre de structuration et des règles associées, la réussite de ce type d’opération passe également par une dose de pragmatisme et le maintient d’une vision claire sur les objectifs métiers.

Par Gilbert Raymond, Consultant Sénior  chez SOFTEAM

Un composite de papier novateur pour l’aéronautique

Les pièces d’intérieur semi-structurelles des avions  sont généralement réalisées en composites thermodurcissables renforcés de fibres d’aramide en nid d’abeilles. Malheureusement, ces composites étant extrêmement sensibles à l’humidité et aux rayons ultra-violets, les bords perméables des pièces doivent être laborieusement comblés et scellés à la main, un procédé qui peut prendre jusqu’à 10 h de travail. SABIC Innovative Plastics a donc profité du salon Aircraft Interiors Expo Americas qui vient de se tenir à Seattle, pour proposer sa résine polyétherimide UItem sous forme de feuilles co-développées et fabriquées avec Crane & Co., le leader mondial des papiers de spécialité.

Les feuilles en Ultem CAB pour panneaux aéronautiques peuvent être thermoformées en quelques minutes, sans aucune finition secondaire En plus des cycles de production plus rapides, elles réduisent encore les coûts du système par leur capacité à être re-surfacées  tout en conservant les propriétés de Flamme – Fumée – Toxicité (F-F-T)  et en respectant les exigences de la Federal Aviation Administration (FAA) : il suffit de poser une nouvelle couche de film décoratif sur la surface pour allonger leur durée de vie. Autre avantage, leur faible poids : les feuilles d’UItem CAB qui pèsent en moyenne 1.350 g/m²,  peuvent être personnalisées pour satisfaire aux exigences d’une vaste gamme de poids de pièce.

« Avec la feuille d’Ultem CAB, SABIC Innovative Plastics et Crane apportent des avantages considérables par rapport aux composites traditionnels en nid d’abeilles, d’une part en réduisant la durée de cycle de production et d’autre part en doublant la durée de vie de la pièce, » affirme Kim Choate, responsable marketing des produits Ultem, SABIC Innovative Plastics. « La résine Ultem était la solution dont nous avions besoin pour créer un composite de papier novateur et techniquement avancé. Notre collaboration réussie avec SABIC Innovative Plastics nous a permis de diversifier notre portefeuille et de cibler une nouvelle opportunité de marché », complète  Dennis Lockyer, vice-président des matériaux non-tissés et techniques de Crane & Co.

Les feuilles d’UItem CAB qui sont actuellement en cours d’essai pour une compagnie aérienne majeure, pourraient trouver leur place dans les parois latérales, les panneaux d’habitacles, les panneaux plafonniers, les revêtements intérieurs de portes et les parois de séparation des avions. 
 

La reprise d’activité transformationnelle dans un univers hybride

Ces dernières années, la virtualisation et le cloud-computing ont été présentés comme la panacée pour le secteur informatique et, dans un contexte d’incertitude économique, ces deux environnements peuvent aider les entreprises à tirer le meilleur parti de leurs infrastructures serveur et de stockage existantes. Ces deux technologies se retrouvent une fois de plus au cœur du débat, mais quels effets ont-elles réellement en matière de sauvegarde et de restauration ?

Dans le monde d’aujourd’hui, pour leurs stratégies de reprise d’activité après sinistre, les entreprises peuvent choisir entre trois plates-formes : physique, virtuelle et de cloud-computing. Chacune de ces plates-formes présente des avantages et pose un certain nombre de défis. Certaines entreprises choisiront de conserver uniquement un environnement physique, d’autres opteront pour la virtualisation et les plus téméraires choisiront d’implémenter une plate-forme physique, une plate-forme virtuelle et une plate-forme de cloud-computing. La réussite du plan de sauvegarde et de restauration d’une entreprise dépend de la disponibilité de ses systèmes et de l’impact de l’interruption de son activité en termes de perte de revenus et de clients, quel que soit l’environnement de ses systèmes et de ses données. Toutefois, en termes de reprise d’activité après sinistre, les services de cloud-computing et la virtualisation offrent des possibilités des plus intéressantes.

Pour les PME, le succès d’un service dépend de sa capacité à offrir une simplicité d’utilisation, un rapport coût-efficacité intéressant et une certaine flexibilité, ainsi que de sa capacité à implémenter rapidement de nouvelles mesures de façon à ce que l’impact sur l’activité soit quasi immédiat. Les services de cloud-computing et la virtualisation répondent tous deux à ces exigences. Prenons par exemple les services de sauvegarde en ligne (cloud-computing) : ils sont faciles à configurer et à utiliser, avec une courbe d’apprentissage réduite, ce qui est essentiel pour les responsables informatiques dont le temps est particulièrement précieux. Vous avez uniquement besoin d’un ordinateur, d’un navigateur et d’une bonne connexion Internet.

Permettre aux PME de bénéficier d’une protection optimale

Dans le cloud-computing, aller au-delà de la sauvegarde basée sur les fichiers est une des perspectives d’avenir parmi les plus passionnantes. Aujourd’hui, les PME n’ont souvent pas suffisamment de ressources pour avoir leurs propres centres de données. Demain, les entreprises pourront implémenter une stratégie complète de reprise d’activité après sinistre dans le cloud-computing afin de supporter leurs plans existants de sauvegarde et de restauration physiques sur site. Cette combinaison de technologies permettra aux PME de bénéficier d’une protection optimale et de gérer plus facilement la continuité de leur activité. Elles pourront sauvegarder et restaurer intégralement, à distance, des fichiers, des applications et leurs systèmes d’exploitation. 

Pour ce qui est de la virtualisation, les entreprises s’éloignent du modèle où elles avaient à demander le budget nécessaire au déploiement de serveurs physiques, à commander le nouveau matériel, à monter les serveurs et à procéder à leur installation. Cette procédure pouvait durer trois semaines. Aujourd’hui, il vous suffit de cliquer avec le bouton droit de la souris, puis de cloner et d’ajouter un nouveau serveur. Vous êtes à nouveau opérationnel en moins de 30 minutes. Les entreprises bénéficient ainsi d’une plus grande souplesse et peuvent réduire leurs dépenses.

Nous vivons en réalité dans un monde hybride. Harmoniser les avantages de ces trois technologies fondamentales, gérer la transition entre les différents environnements et déterminer la meilleure combinaison possible pour votre entreprise témoignent d’une véritable avancée en matière de stratégie de reprise d’activité après sinistre. Les trois plates-formes (physique, virtuelle, cloud-computing) ne constituent pas nécessairement la solution qui permettra de surmonter définitivement tous les défis de la reprise d’activité après sinistre (et qui sait ce que nous réservent les 10 prochaines années). Cependant, elles font indubitablement avancer les PME dans la bonne direction en leur offrant souplesse, réduction des dépenses, choix et performances, ainsi que la solution la plus complète actuellement disponible sur le marché. 

Par David Junca, Directeur Général d’Acronis pour l’Europe du Sud 

L’approche Model-Based Design garantit qualité et réduction des délais et coûts

Dans un processus classique de conception LRU (Least Recently Used), les ingénieurs recueillent des spécifications à partir de plusieurs sources et les combinent afin d’élaborer un cahier des charges sur papier, qui aidera l’équipe de conception décentralisée à produire une conception détaillée. Cette équipe analyse une série de concepts différents par le biais de prototypes de simulation et/ou matériels, elle contrôle la conformité à ces spécifications puis elle apporte les modifications appropriées. Après avoir mis au point une conception acceptable, elle transmet celle-ci pour implémentation à une autre équipe qui exécute les tests de vérification et de validation, puis de conformité si le produit doit respecter certaines normes spécifiques. Comme les tests se déroulent à la fin d’un processus en plusieurs étapes faisant appel à des équipes différentes, les erreurs introduites en phase de conception ne sont souvent détectées que bien plus tard. Leur correction onéreuse oblige la direction à prendre des décisions budgétaires difficiles.

Détecter et corriger les problèmes dès le début du processus de conception

L’approche Model-Based Design débute par la création d’une spécification exécutable qui peut être liée aux spécifications initiales, assurant une traçabilité bidirectionnelle entre ces dernières et la conception. Cette spécification exécutable repose sur un modèle exécutable, utilisé et élaboré tout au long du processus. Elle peut également intégrer des entrées et des sorties attendues, l’environnement de l’application et une communication claire des objectifs de conception, qui vont permettre d’exécuter une analyse de faisabilité des exigences. À l’aide des liens de la spécification exécutable vers les exigences initiales, les ingénieurs peuvent vérifier que la conception respecte ces exigences tout au long du processus, et évaluer rapidement l’impact des modifications proposées.

Avec la génération de code automatique et les tests HIL (hardware-in-the-loop), les ingénieurs peuvent éliminer les erreurs introduites au cours de l’implémentation manuelle et accélérer la livraison du produit en générant le code qui servira aux tests, à la vérification et à la production finale. Par exemple, un important constructeur américain d’hélicoptères a utilisé le Model-Based Design pour développer les gouvernes d’un avion à rotors basculants, ce qui lui a permis de réduire de 40 % le temps de développement logiciel par rapport aux programmes précédents. En effet, les équipes ont pu détecter les problèmes relatifs à la conception et aux exigences et les corriger dès le début du processus de conception.

La réutilisation des modèles pour les différentes phases du processus permet également de renforcer l’efficacité des conceptions. Les ingénieurs d’un constructeur aérospatial multinational travaillant sur le programme Joint Strike Fighter (JSF) ont utilisé un ensemble commun de modèles de systèmes afin de développer trois variantes du JSF destinées à simuler les différents systèmes (avionique et propulsion, en particulier) et de générer automatiquement le code de vol final, ce qui a permis de réduire le nombre d’opérations d’ingénierie par rapport aux méthodes traditionnelles reposant sur le codage manuel.

Effectuer les opérations de test et de vérification de manière continue.

À l’aide d’un modèle, les ingénieurs peuvent tester et vérifier leur conception bien plus tôt qu’avec le développement traditionnel, pour lequel le lancement des tests nécessite une instanciation physique de la conception. Ils peuvent ensuite élaborer ce même modèle tout au long du processus de conception, ce qui leur permet d’effectuer les opérations de test et de vérification de manière continue. Avant de consacrer des ressources et des fonds à l’implémentation, à la conception ou aux tests physiques, les ingénieurs peuvent soumettre la conception à une analyse de couverture de modèle reposant sur des critères spécifiques (MC/DC, par exemple) afin de garantir la détection des erreurs dès le début du processus de conception. À ce stade, et au cas où les tests ne couvrent pas tous les aspects de la conception, l’équipe peut choisir d’effectuer des tests supplémentaires ou décider que certaines pièces de la conception ne sont pas nécessaires pour le respect des spécifications. Au cours des tests, les modèles ne sont pas limités à un environnement numérique ; ils peuvent également intervenir dans les tests portant sur les composants du système physique. Il peut s’agir par exemple des simulateurs de type « pilot-in-the-loop » développés par un important constructeur d’avions à réaction en vue de tester l’interaction en temps réel des pilotes avec les algorithmes de contrôle mis à jour, ou bien des tests HIL utilisés par un grand constructeur aéronautique afin d’étudier les problèmes intermittents de freinage sur un LRU de production.

Après avoir déterminé la pertinence de leur conception algorithmique, les ingénieurs peuvent étudier les effets de l’exécution de ce même algorithme dans un environnement embarqué. Ils peuvent ajouter au modèle des détails d’implémentation, comme le conditionnement des signaux ou l’arithmétique en virgule fixe, puis utiliser ce modèle pour créer l’implémentation de manière automatisée. Par exemple, le code C et le code HDL peuvent être générés respectivement pour une application logicielle ou une implémentation matérielle numérique. La génération automatique de l’implémentation à partir du modèle permet de supprimer les erreurs inhérentes au processus manuel. Dans la mesure où la cible de l’implémentation est spécifiée dans les étapes ultérieures du processus, il est possible de réutiliser une grande partie du travail de conception lors de la sélection d’une nouvelle cible. Par ailleurs, puisque le processus d’implémentation est automatisé, il est reproductible et ne dépend pas de la disponibilité de compétences spécifiques.

Diviser par plus de 10 les délais de mise au point et de développement global

Enfin, il est possible de réutiliser les cas de test développés au début du processus de conception pour tester l’implémentation finale. Les opérations de test et de vérification de la conception par rapport aux spécifications s’inscrivent donc sur l’ensemble du processus, et non dans ses dernières étapes. Par exemple, les ingénieurs d’une société britannique spécialisée dans la défense et l’aérospatiale et travaillant sur un système de radio réalisée par logiciel (RRL) ont pu diviser par 10 les délais de mise au point et de développement global, à l’aide de l’approche Model-Based Design. Il fallait en moyenne 645 heures à un ingénieur possédant de longues années d’expérience dans le codage VHDL pour coder une forme d’onde de SDR totalement fonctionnelle dans le cadre du flot de conception classique. Un autre ingénieur ne possédant qu’une expérience limitée a pu terminer le même projet en moins de 46 heures avec l’approche Model-Based Design. Cette amélioration considérable s’explique par le fait que le modèle, dans lequel le développeur a pu inclure tous les détails de forme d’onde des communications par satellite, était directement connecté au code résultant. Un modèle exécutable complet a permis aux ingénieurs de détecter et de supprimer les erreurs dès le début du flot de conception (et non plus au niveau des tests de comportement VHDL).

Avec l’approche Model-Based Design, les ingénieurs n’ont plus à attendre la fin du processus de conception pour effectuer les tests et contrôler que les spécifications sont respectées. En effet, ils effectuent des opérations de test et de vérification tout au long du processus, ce qui permet de réaliser des économies de temps et d’argent. Cette approche signifie que les ingénieurs peuvent effectuer les itérations de conception dans un environnement de modélisation fiable et moins coûteux, de manière à obtenir une implémentation opérationnelle dès le premier essai, avec un cycle de développement accéléré et un meilleur niveau de qualité.

Par Jon Friedman, directeur du marketing pour le secteur Aérospatial/Défense chez The MathWorks 

Mieux que la laine de roche, un enduit céramique isolant

Traditionnellement utilisée pour isoler thermiquement les machines industrielles et les tuyauteries, la laine de roche présente un certain nombre d’inconvénients : corrosion venant de la condensation qui se forme entre le recouvrement extérieur et l’isolation, nécessitant d’enlever la laine de roche pour procéder à une inspection visuelle,  réduction de la valeur R quand la laine de roche est mouillée,  absence de résistance à certains produits chimiques… Autant de problèmes résolus avec un nouvel enduit céramique isolant, le CCM3 de la société belge JBT FoodTech.

La surface isolée avec le CCM3  est facile à maintenir, peut être lavée et est résistante à la plupart des produits chimiques qu’on retrouve sur un site de production alimentaire. Les autres atouts de cet enduit céramique sont sa facilité d’application par pulvérisation, même sur des structures chaudes (jusqu’à 95°C) ce qui évite ou réduit l’arrêt du process, le fait que le produit résiste à l’eau et  une classification incendie type A.

Cette peinture céramique qui a subi des essais pendant 300 h en présence d’acide sulfurique, de méthanol, d’hydroxyde de sodium… a été testée avec succès sur des installations du hollandais Lutèce. Elle  peut être utilisée sur différents types d’équipement comme les portes d’autoclaves, les chaudières, les réservoirs à eau chaude ou froide, les tours de stérilisations hydrostatiques, les tunnels de pasteurisation, les échangeurs … jusqu’à une température de 180°C.

Alternative à l’isolation par la laine de roche, le CCM3 qui est une nouvelle façon d’isoler des surfaces chaudes et froides, a remporté le prix « Recherche et technologies » du concours IPA de l’innovation.  Une récompense qui sera décernée  à JBT FoodTech le 18 octobre, dans le cadre du salon International du Process Alimentaire.
 

Les 2 premiers programmes de recherche du CRDTA axés sur le développement durable

Face à la crise de 2009, la direction d’Akka Technologies a pris la décision stratégique de motiver ses ingénieurs en attente de nouveaux projets sur des programmes de recherche innovants portés par la révolution qui s’opère dans le monde des transports. C’est ainsi que le programme Véhicule Electrique a vu le jour, suivi en janvier 2010 par la naissance du  CRDTA (Centre de Recherche et de Développement des Technologies Alternatives).

« En créant le CRDTA et en impliquant nos ingénieurs sur des technologies innovantes, notamment celles du Véhicule Electrique, nous avons libéré leur créativité et obtenu des résultats époustouflants. Le fait d’avoir été sélectionné comme l’un des lauréats de l’appel à projet « Véhicule urbain de demain » lancé par le Conseil Général des Yvelines nous conforte dans nos choix », déclare Jean-Luc Baraffe, Directeur du CRDTA.

Le CRDTA qui vient officiellement d’être inauguré à Guyancourt, dans les Yvelines, a pour vocation d’abriter un ensemble de programmes autour de projets à forte innovation technologique, le plus souvent liés au développement durable. Ouvert vers le monde extérieur et plus particulièrement vers le monde scientifique, il donnera l’occasion à plusieurs centaines de consultants d’y côtoyer universitaires, chercheurs ou tout autre interlocuteur pouvant contribuer à l’avancement des projets. D’ores et déjà, deux programmes sont en cours.

Deux nouveaux concepts de véhicule urbain

« Repenser complètement la conception d’un véhicule », telle a été la directive d’Akka Technologies auprès de ses consultants dans le cadre de ce programme. C’est ainsi que deux concepts de véhicule électrique urbain ont été créés : l’Astute Car et la Carlib.

L’Astute Car, primée par Le Conseil Général des Yvelines en avril dernier, offre une rupture technologique avec 4 innovations majeures: une architecture optimisée, un scénario de chocs novateur, un moteur bras et l’électrification de toutes ses fonctions de pilotage. D’une longueur de 3 m pour un poids total de 650 kg seulement, l’Astute Car offre une habitabilité optimale avec 4 places et une accessibilité aisée grâce à des portes papillon. En outre, son autonomie dépassera les 300 km et sa vitesse maximale sera de 140 km/h. Le véhicule est dépourvu de liaison mécanique entre le volant et les roues. L’ensemble des commandes de conduite (freinage, direction et accélération) est positionné au volant. Ainsi, le pédalier et la colonne de direction sont supprimés, offrant plus de sécurité pour le conducteur du véhicule en cas de crash frontal.

A l’image du Vélib, la Carlib est un véhicule électrique conçu pour réinventer la mobilité urbaine. De 2 mètres de long, c’est-à-dire plus petite qu’une Smart, la Carlib dispose d’une autonomie de 100 km, avec 2 places accessibles par l’avant, permettant aux utilisateurs de se garer face au trottoir et de sortir par l’avant grâce à une porte coquillage. Ce véhicule a été conçu par des équipes d’Akka travaillant à distance entre Paris, Toulouse et Lilles, avec la dernière version du logiciel de conception collaborative Catia de Dassault Systèmes. 

« Machine to machine » pour plus d’intermodalité en milieu urbain

Faisant suite au programme Véhicule Electrique, le programme « Machine to machine » est un nouveau programme du CRDTA qui répond à une problématique de développement durable. En effet, il a pour objectif principal de faire communiquer entre eux l’ensemble des serveurs informatiques contrôlant les moyens de transports en milieu urbain pour permettre aux usagers de se déplacer plus facilement. Mais ces serveurs pourront également se relier à ceux de Météo France par exemple, afin d’anticiper les conditions climatiques, de réduire les pics de pollution…
 

Stockage automatisé, picking accéléré et zéro défaut chez MRC

Avec un chiffre d’affaires, en France de 6 millions d’euros, la société MRC est l’une des acteurs majeurs de l’industrie du modélisme radiocommandé, y compris au niveau international. Aujourd’hui, l’ensemble de la distribution de sa gamme se réalise exclusivement au travers d’un réseau de magasins spécialisés et s’adresse ainsi directement à une clientèle de passionnés et de connaisseurs particulièrement exigeants. Outre la nécessité de production d’une gamme de produits performants, MRC s’oblige à proposer un service complet irréprochable et des plus rapides, pour satisfaire sa clientèle. De plus, qu’il s’agisse de produits finis ou de pièces détachées, MRC propose des délais de livraison sous 24 h à date de commande. Pourtant, le magasin central de MRC est composé d’un stock très hétérogène : plus de 100 modèles de produits finis de toutes tailles, de  quelques 11.000 références de pièces détachées de toutes valeurs, d’un volume de stockage de 565 m3…. Autant dire que la gestion des stocks n’est pas simple et l’erreur est interdite. En effet une simple erreur d’expédition peut très rapidement se traduire par des pertes d’exploitation importantes (jusqu’à 15.000 €/an).

En 2007,  Patrick Rigot créateur et dirigeant de MCR décide donc d’investir dans une solution automatisée de stockage et d’informatiser la gestion des stocks en liaison avec son logiciel de gestion commerciale Sage. « Mes objectifs de base étaient d’atteindre le zéro défaut expédition, de maintenir un service 24 h  malgré l’augmentation importante des stocks et des commandes, de gagner de la place pour absorber l’accroissement prévu de l’activité, le tout avec un minimum d’intervention humaine. Les solutions traditionnelles que nous utilisions à l’époque (rayonnages et mezzanines) ne nous auraient jamais permis d’atteindre ces objectifs » précise-t-il.

A la recherche d’un partenaire, Patrick Rigot s’est adressé à Electroclass, constructeur français de solutions automatisées de stockage et spécialiste de l’organisation logistique. Les deux premiers stockeurs rotatifs seront installés dès 2007 pour la gestion des pièces détachées. Pilotés par le logiciel de gestion des stocks G-Stock qui reçoit directement les ordres de picking transmis par Sage, les deux stockeurs donnent très vite satisfaction et la solution est étendue dés 2008 par la mise en place d’un stockeur complémentaire et d’un mini-transstockeur 315 Kg pour le stockage des produits finis. En 2009, une tour de stockage Jumper viendra compléter l’installation.

D’un point de vue opérationnel, en 2010, trois stockeurs rotatifs, un mini transstockeur et une tour de stockage sont simultanément pilotés par G-stock  pour le stockage et la préparation de commandes..

Une commande de 10 lignes réalisée en 4 minutes

Ainsi, les objectifs de Patrick Rigot/MCR sont atteints : « Avec un seul magasinier, nous assurons nos livraisons en 24 h malgré la forte augmentation du nombre de nos commandes et de nos références. Nous sommes en mesure d’expédier quotidiennement plus de 110 commandes avec en moyenne 10 lignes par commande avec un seul opérateur dédié…» Cette performance est obtenue notamment grâce au logiciel multiposte G-stock, qui fait travailler les stockeurs en temps masqué et positionne les références dans les différents stockeurs, sans attendre que l’opérateur ait fini son picking. Il suffit à l’opérateur de valider une sortie via le lecteur code barre pour que le stockeur concerné se positionne sur la référence suivante. Associé à une organisation de picking par optimisation des déplacements, cette solution permet de réaliser une commande de 10 lignes en environ 4 minutes ! Une fois terminée, la commande est acheminée au service  emballage/expédition sur un petit chariot à roulette.

Cependant, la satisfaction de Patrick Rigot/MRC ne se limite pas à la réalisation des flux élevés : « Même si en théorie le zéro défaut  n’existe pas, nous n’avons constaté aucun écart de stock lors de notre inventaire 2009, ni aucune erreur d’expédition. Nos objectifs de qualité de service sont atteints. »

Au niveau des entrées, G-stock connaît le volume de chaque référence et de chaque emplacement, ainsi que l’état d’occupation de tous les emplacements. Il attribue ainsi automatiquement l’emplacement en fonction de son volume et de la quantité à stocker. Afin d’obtenir la meilleur performance logistique, G-Stock intègre également la notion de courbe ABC (si plusieurs emplacement sont disponibles, il attribuera l’emplacement le plus judicieux en fonction de la catégorie ABC de la référence).

Les pièces détachées, majoritairement de petit volume, mais nécessitant des pickings très variés et rapides sont donc stockés dans des stockeurs rotatifs aménagés de bacs sur mesure répondant aux besoins de chacune des références. Chaque capacité de chaque emplacement est connue par le logiciel G-stock qui en assure ainsi leur gestion automatique. Les produits finis, plus volumineux, mais représentant moins de commandes, sont stockés dans un mini transstockeur Silo. Les références « phare » sont prioritairement stockées en façade du transstockeur (accès plus rapide, tenant compte des références plus rares qui seront placées dans le fond). Selon la courbe ABC des références, G-stock optimise ainsi les temps d’entrée et de préparation des commandes. Enfin, les références les plus hétérogènes seront stockées dans la tour de stockage Jumper, qui offre une rapidité de picking moins performante que les stockeurs rotatifs, mais qui a l’avantage de proposer des aménagements plus hétérogènes (picking direct par le dessus, au lieu d’un picking dans des bacs).

En fonction de la quantité à entrer, G-stock propose à l’opérateur l’emplacement répondant au besoins et le plus rapidement accessible. L’opérateur n’a donc à aucun moment à se soucier de l’adresse à laquelle il va stocker les références. Une indication lumineuse indique l’emplacement du bac dans lequel les références seront placées et un écran ergonomique schématise l’emplacement dans le bac ainsi que la quantité à stocker.
 

L’alliance réussie de la virtualisation du stockage et des disques SSD chez Niedax

Le groupe Niedax, l’une des plus grandes entreprises internationales d’installations électriques, devait mettre son système à niveau pour répondre aux besoins croissants de son système ERP reposant sur Microsoft Dynamics. Il souhaitait également migrer sa base de plus de 40 machines virtuelles VMware dans une infrastructure de réseau SAN plus fiable. Cependant, le système ERP exigeait avant tout une nouvelle solution de stockage pour réseau SAN pouvant offrir une haute performance, une capacité et une disponibilité supérieures à celles du réseau de stockage physique actuel. Niedax a fait appel à un cabinet de conseil pour calculer et évaluer ses exigences en termes de données.

Celui-ci a déterminé que l’exploitation continue d’un réseau de stockage physique SAN classique conduirait le groupe à ajouter et investir dans au moins deux autres systèmes de stockage, chacun avec un minimum de 40 disques durs Fibre Channel, pour pouvoir atteindre le niveau nécessaire de performance et de haute disponibilité. Cela représentait un investissement significatif et un ajout considérable aux coûts récurrents en termes d’espace et d’énergie. Le groupe a donc envisagé d’autres solutions alternatives.

Ayant déjà noté les avantages à exploiter les solutions de VMware pour les serveurs, Niedax souhaitait savoir s’il existait une solution de virtualisation équivalente pour son réseau de stockage SAN. En outre, le groupe devait impérativement répondre aux exigences essentielles de son système ERP en termes de performance.

Ayant évalué l’utilisation de VMware ESX pour virtualiser plusieurs machines ainsi que les avantages engendrés par des actions écologiques telles que la réduction de la consommation énergétique et des coûts de chauffage des serveurs, l’entreprise a vite compris les avantages de la virtualisation. Niedax désirait donc trouver une solution similaire pour son stockage. Un des partenaires de DataCore, S&L Netzwerktechnik GmbH, a évalué les exigences puis suggéré et conçu une solution alternative pouvant reposer sur l’investissement existant de l’entreprise et réduire ses coûts récurrents.

La solution réunissait :

  • le logiciel DataCore SANmelody 3.0 de virtualisation, de mise en cache accélérée et de mise en miroir haute disponibilité sur le pool de baies de stockage et de disques SSD (Solid State Drive) ;
  • l’intégration de la baie de stockage existante HP EVA ;
  • l’intégration et l’ajout de disques à la baie de stockage HP MSA ;
  • l’ajout de disques SSD FusionIO haute vitesse à mémoire flash NAND pour doper les performances et réduire les exigences globales en énergie.

Résultat, le logiciel de virtualisation SANmelody 3.0 de DataCore fonctionne sur des serveurs standard et garantit une haute disponibilité rentable grâce à une mise en miroir asynchrone s’opérant entre un ensemble hétérogène de matériel SAN. La solution de DataCore a permis au groupe Niedax d’exploiter plus facilement son matériel existant en association avec l’expansion requise et de nouveaux disques SSD afin d’obtenir une haute performance et d’augmenter sa capacité. De la même manière que VMware pour ses serveurs, DataCore a virtualisé et rendu plus efficace et rentable son matériel de stockage.

En arrière-plan, il est primordial de souligner que les bases de données exigeantes au cœur des systèmes ERP, et plus particulièrement dans les applications de fabrication comme celles utilisées par le groupe Niedax, sont en général de faibles consommatrices de stockage. Cependant elles nécessitent de très hautes performances. Grâce à la technologie SSD à base de mémoire flash FusionIO NAND, le groupe Niedax a été capable d’atteindre un débit de 100.000 IOPS (Input/Output Operations per Second, opérations d’entrées/sorties par seconde) et des taux de 600 Mo/sec avec une consommation d’énergie de 15 W seulement lors d’un fonctionnement en production. En comparaison, si le groupe n’avait utilisé que des disques de stockage Fibre Channel traditionnels pour atteindre ces niveaux de performance, il aurait consommé près de 4.000 W. 

 « Le réseau de stockage SAN permet à présent une flexibilité d’administration, une facilité d’expansion et la capacité d’attribuer le stockage de manière dynamique lorsque et où nécessaire. La mise en cache de DataCore accélère la performance globale et offre un débit de données beaucoup plus rapide. L’approche logicielle garantit la facilité de transfert et la possibilité d’exploiter des fonctionnalités à l’échelle du SAN sur divers types de baies de disques et périphériques physiques.

Voici une manière très rentable de mettre des données en miroir. En ce qui concerne notre application ERP très exigeante, il était primordial de pouvoir exploiter des disques SSD FusionIO avec la solution de virtualisation et de gestion. Nous avons bénéficié d’une efficacité sans précédent en ajoutant des disques SSD FusionIO et avons globalement réduit nos coûts énergétiques et de refroidissement » déclare Oliver Bauer, responsable de l’administration et de l’informatique du groupe Niedax.
 

Avec 60 % de fibre de verre, un polyamide 66 supplante le métal

Remplacer le métal est depuis longtemps le défi des composites renforcés fibres de verre pour réduire le coût, la complexité et le poids. Afin de fournir des performances supérieures tout en offrant de nouvelles opportunités d’un point de vue esthétique, 3B-the fibreglass company et Lati, l’un des plus importants compoundeurs européens indépendants spécialisé dans les compounds thermoplastiques à haute performance, ont associé leurs expertises pour marquer une réelle avancée en thermoplastiques techniques destinés à la réalisation de composants structuraux à esthétique élevée.

Ils ont ainsi mis au point une gamme de polyamides 66 renforcés à 50 et 60 % de fibres de verre baptisés Latigloss 66 H2 G50 et 60. Ces produits  offrent  non seulement une remarquable performance mécanique en terme de rigidité du PA66, mais également une excellente mouillabilité qui permet d’atteindre une dispersion très homogène à des taux de renfort de fibres de verre aussi élevés et offre une interaction fibre / matrice optimale. La technologie d’ensimage et le procédé de 3B, associées au verre Advantex, ont permis de transformer un fil coupé en un produit à forte valeur ajoutée qui contribue à une solution d’ingénierie.

Compound fait sur mesure, le Latigloss a été utilisée avec succès pour remplacer le métal dans différentes applications structurelles, telles que des charnières de portes verticales pour des meubles de cuisine haut de gamme. Pour relever les défis exigeants qu’imposait ce système très sophistiqué, Lati a travaillé en étroite collaboration avec le groupe de design Effegi Brevetti. La géométrie de chaque composant a été optimisée et leur conception pensée en fonction des possibilités et des avantages offert par le PA renforcé. Le système de charnière a ainsi été entièrement reconçu à partir d’analyse par éléments finis, conduisant à une amélioration globale de la géométrie des différentes pièces. L’influence des paramètres de transformation sur les pièces moulées a également été prise en compte et les résultats ont été excellents tant d’un point de vue structurel qu’esthétique.

Remplacer le métal est un enjeu majeur

« Le remplacement du métal a été et reste une préoccupation majeure pour de nombreuses industries car cela permet de réduire le poids, les émissions de CO2 et le coût. Les composites thermoplastiques renforcés fibres de verre ont relevé avec succès le défi de répondre à ces exigences tout en continuant à repousser les limites de la performance mécanique, de la durabilité à long terme et de l’aspect de surface. L’écart entre les composites et le métal se réduisant, de plus en plus d’industries et d’applications bénéficient des avantages que sont un faible poids, une flexibilité de design, une résistance à la corrosion, un bel aspect de surface et une coloration aisée.», déclare Eric Martin, directeur Produits Thermoplastiques pour 3B.

« En travaillant avec un partenaire d’un niveau d’expertise similaire, comme Lati, nous fournissons à nouveau aux designers et ingénieurs une solution d’une flexibilité accrue et qui leur permet de réduire le coût des composants. Cette solution est très attractive pour plusieurs marchés. Elle apporte une performance supérieure tout en minimisant l’impact sur l’environnement.»
Luca Posca, directeur marketing et technique de Lati Industria Termoplastici SpA, basé à Vedano Olona en Italie, complète : « Notre principal challenge était de garantir des propriétés mécaniques et une stabilité dimensionnelle exceptionnelles avec un fini de surface inégalé dans des géométries complexes. La performance de la solution de renfort Advantex de 3B nous a permis de conserver le PA 66 comme polymère de base, ce qui est particulièrement adapté aux composants complexes, tout en étant compétitif en prix et d’une transformation aisée. Latigloss  trouvera sans aucun doute de nombreuses applications dans divers marchés tels que l’automobile et l’électroménager ».  

Déplacer les molécules dans des verres avec la lumière

Les verres et plus généralement les matériaux amorphes (c’est-à-dire non-cristallins, depuis les polymères jusqu’aux verres de silice) font toujours l’objet de nombreuses recherches car étrangement, ils ne se distinguent pas des liquides par leur structure, bien que leurs propriétés dynamiques soient considérablement différentes (le verre est solide à température ambiante).

Certains verres sont dits photochromiques, c’est-à-dire qu’ils ont la propriété de changer de couleur sous l’action de la lumière. Quelle est l’origine de ce phénomène ? En 1995, deux équipes d’Amérique du Nord ont montré qu’il était possible d’induire des transports de matière macroscopiques en illuminant des polymères contenant des molécules photochromiques, les azo-benzènes. Mais quelle est l’origine de ce phénomène ? De nombreux modèles ont alors été développés mais aucun ne permettait de donner une vision globale des phénomènes observés, ni de rendre compte du comportement de matériaux très différents (verres, polymères…).

Les chercheurs de l’Institut des Sciences et Technologies Moléculaires d’Angers (CNRS / Université d’Angers) et de l’Université de Limoges viennent de démontrer par une simulation de dynamique moléculaire que l’action réversible de la lumière (le photochromisme) sur un verre photochromique induit une diffusion de matière qui s’apparente à la diffusion dans l’état liquide. Un peu comme dans un métro aux heures de pointes, pour sortir de la rame, il faut que les autres passagers acceptent de bouger. De même, pour bouger, les molécules qui constituent ces solides doivent attendre que l’une de leurs voisines bouge. On observe alors des mouvements d’ensemble dits coopératifs. Ce temps d’attente qui peut être extrêmement long explique que le milieu soit solide et non liquide.

Ces chercheurs ont également montré qu’il était possible de contrôler la viscosité du matériau c’est-à-dire la vitesse de diffusion de la matière dans le solide en changeant les molécules photochromiques et/ou la lumière. Ces résultats ouvrent ainsi la voie à de nombreuses applications. On peut par exemple espérer encapsuler un liquide gelé dans les nanopores d’un verre photochromique poreux qui, à priori, ne s’écoule pas. Sous l’action d’une lumière qui commandera le mouvement des molécules photochromiques, par effet coopératif, le liquide pourra lui aussi se déplacer jusqu’à sortir du milieu solide et donc être libéré à la demande. On pourrait ainsi réaliser de nouveaux dispositifs pour la délivrance contrôlée et localisée de médicaments.