Technologies d’identification et d’authentification pour un système de traçabilité

La traçabilité est un concept devenu familier aux consommateurs que nous sommes. Le mot est même aujourd’hui passé dans le langage courant.

La recherche de sécurité est omniprésente dans notre quotidien (sanitaire, agroalimentaire, etc.). Le consommateur, le citoyen veut être rassuré et est prêt à engager des procédures si une défaillance, un risque potentiel ou avéré le concerne. Les entreprises, les organisations, les États sont confrontés à de nouvelles menaces dans leur macroenvironnement : agressions économiques (intelligence économique, contrefaçon) ou agressions physiques (banditisme mafieux, terrorisme). Le besoin de prévenir le risque est omniprésent. La traçabilité est ainsi devenue une préoccupation pour nombre d’entreprises et d’organisations.

Au-delà de la maîtrise des risques, c’est une véritable démarche stratégique conduisant à la mise en place de systèmes de traçabilité qui s’organise dans l’entreprise ; son objectif est d’assurer la compétitivité, la pérennité et de contribuer à la création de valeur.

La prise de conscience de l’obligation de traçabilité a généré une grande créativité dans les technologies, créativité peu ordonnée au départ, mais qui tend à se structurer tant sur le plan normatif que sur les architectures système interopérables et la sécurité inhérente.

Bien souvent, la réponse à un besoin amène à une traçabilité plurielle alliant identification, authentification, localisation, sécurisation et ouvrant des perspectives vers de nouveaux services associés.

Ce dossier s’intéresse aux technologies qui supportent les fonctions d’identification et d’authentification.

Lire la suite

Traçabilité des bagages dans le transport aérien – Déploiement de la technologie RFID

Al’image d’autres secteurs d’activité, le transport aérien voit le RFID s’imposer comme un moyen d’amélioration de la traçabilité, en complément de technologies plus classiques comme les codes à barres. L’Association internationale du transport aérien (IATA) joue un rôle majeur dans cette prise de conscience.

Cet article présente la manière dont le RFID peut être utilisé dans le transport aérien. Il développe plusieurs points clés :

  • Le RFID étant un moyen de collecter des données sur les flux des bagages et leur contenant, les déploiements doivent être tirés par l’amélioration de la traçabilité et de la performance des processus.
  • Le RFID n’est en aucun cas une solution universelle. Cette technologie est un outil qui s’applique à certains types de problèmes opérationnels. L’analyse des processus et des flux est nécessaire pour permettre de déterminer les bénéfices potentiels.
  • Sur le plan technique, le RFID est largement normalisé dans le transport aérien et a démontré son efficacité sur de nombreuses applications dans de grands aéroports comme Amsterdam, Paris – Charles-de-Gaulle, Hong-Kong, Las Vegas, Tokyo Narita. Les problématiques techniques portent surtout sur la mise au point lors des installations. La plupart des tests de faisabilité ont d’ores et déjà été faits.
  • Le RFID vient en complément d’autres technologies de suivi comme les codes à barres, ou encore les messages EDI définis par IATA.
  • Mettre en œuvre le RFID nécessite une méthodologie rigoureuse dès l’étude économique de faisabilité, une bonne coordination entre les volets informatiques et l’ingénierie du projet, et des équipes expérimentées.
  • Valider l’intérêt du RFID sur une plateforme aéroportuaire nécessite de bien prendre en compte la répartition des rôles et les relations contractuelles entre les différents acteurs.

Lire la suite

Traçabilité et système d’information : quelles interactions ?

Avant même d’avoir acquis la faculté d’écrire, il est très probable que l’homme avait commencé à tracer, ne serait-ce que son chemin, tel le Petit Poucet en semant des cailloux, ou encore en relatant les scènes de chasse de son groupe et celles de la vie de tous les jours, par des peintures rupestres sur les parois des grottes. L’action de tracer est-elle une faculté innée ou acquise ? La réponse n’est probablement ni simple, ni binaire. De façon naturelle, cette acquisition peut résulter des habitudes de la chasse ou du suivi des traces d’animaux permettant aux chasseurs de reconnaître et de traquer leurs proies… Peu importe d’ailleurs le processus d’acquisition, le point essentiel est que la société humaine est confrontée à un double problème :

  • celui de tracer l’activité propre des siens dans un but de saine gestion, ou pour s’y retrouver, ou encore pour témoigner auprès des générations futures ;
  • celui de tracer – dans le sens de « traquer », ou marquer – son environnement afin d’assurer sa subsistance.

Les deux approches étaient, et sont encore, nécessaires à la survie de l’espèce humaine. Et les choses n’ont guère changé sur le fond, entre les notions de traçabilité archaïques et celles qui font partie de nos préoccupations actuelles, si on excepte la complexification des flux et le nombre considérable d’acteurs intervenants dans les transactions qui sont venues brouiller les pistes, aux sens figuré et littéral du terme.

Aujourd’hui, la traçabilité des produits industriels et agricoles est devenue un enjeu majeur sur le plan de l’économie, de la santé, de l’écologie. Et cette situation est amplifiée dans le domaine informatique, aussi bien en ce qui concerne la traçabilité au sein du fonctionnement du système d’information (SI) lui-même qu’en ce qui est relatif aux effets gérés par l’informatique.

Tant que le management des produits agricoles, industriels et commerciaux supposait systématiquement des entrées-sorties papiers avant et après traitement de gestion ou de calcul, la traçabilité restait matérialisée. Ce n’est plus le cas depuis un bon quart de siècle ! En effet, nous constatons :

  • une dématérialisation croissante des échanges qui se font de façon numérique, par les « échanges de données par l’informatique » (EDI) par exemple ;
  • la généralisation toujours plus large des paiements par transactions électroniques ;
  • la reconnaissance du fait que les courriels font foi dans les relations entre entreprises.

Si, sur le plan technologique, les outils ont considérablement évolué, sur le plan des habitudes acquises par les professionnels des systèmes d’information, de vastes lacunes restent à combler. Ainsi, dans nombre de projets informatiques, le volet « traçabilité » demeure, encore en ce début de deuxième décennie du XXIe siècle, au mieux, une pièce rapportée a posteriori, et au pire, un pan de sous-projet complètement oublié car souffrant d’une spécification a minima, tantôt dans le cahier des charges techniques, tantôt dans les spécifications fonctionnelles. En effet, dans de nombreux dossiers, le besoin de traçabilité se borne à l’unique phrase de douze mots : « Le système sera en mesure d’assurer la traçabilité de son fonctionnement ». Les conséquences peuvent être alors très fâcheuses, d’autant que de telles pratiques impliquent :

  • des dépenses non budgétées, donc considérées comme surcoûts ;
  • des efforts pour implémenter un système de traçage qui sera peu ou mal intégré à l’ensemble des applications ;
  • par contre-réaction, une exagération des exigences de traçabilité élaborées bien après la conception du système, et, le plus souvent, dans un contexte de crise ou de pré-crise, avec, de surcroît, une grande pression sur les délais ;
  • une détérioration de la performance du SI.

Nous décrirons dans ce fascicule une approche de la traçabilité nativement prise en compte au niveau des dimensions des projets de conception des systèmes d’information, qu’ils s’adressent à des progiciels de gestion intégrée (PGI) que nous désignerons ci-après par l’acronyme anglais ERP (Enterprise Resource Planning), ou qu’ils concernent des applications unitaires.

Lire la suite

Premier logiciel gratuit d’éco-conception pour la filière textile

TF Création, une TPE de 5 salariés qui fabrique annuellement 400 000 mètres de tissus techniques, tissus non-feu, résistants à l’abrasion… dont 60 % à l’exportation, a décidé d’introduire l’éco-conception dans son activité. Après une prise de conscience générale et six mois de réflexion stratégique autour des normes du futur, elle a lancé le développement d’un logiciel innovant, le projet Teksajo. Ce premier logiciel d’aide à la décision destiné à répondre à la problématique de l’intégration de l’environnement au moment de la conception d’un produit, il a été mis au point en collaboration avec deux laboratoires de la région Champagne- Ardenne : l’Université de Technologie de Troyes (UTT) et l’Institut Français du Textile et de l’Habillement (IFTH).

Entièrement gratuit pour la filière textile, le logiciel Teksajo apportera un outil accessible et simple d’utilisation pour donner aux industriels une perception environnementale très en amont dans le processus de conception. Il permettra ainsi aux différents acteurs d’élaborer des stratégies tenant compte de l’adéquation de leurs activités avec les enjeux du développement durable.

A travers une série de cinq indicateurs pertinents pour la filière, le logiciel calcule l’impact environnemental de la conception d’un produit textile. Par exemple : le logiciel calculera la consommation d’eau, les émissions de gaz à effet de serre, le taux de produits chimiques utilisé… générés par la conception de tel ou tel tissu. Parmi les indicateurs retenus, seront intégrés ceux qui feront l’objet du futur affichage environnemental des produits de grande consommation tel que l’a décidé le Grenelle de l’environnement. La base de données du logiciel Teksajo sera en constante évolution, chaque utilisateur du programme pouvant l’enrichir de manière anonyme.

« L’UTT nous a apporté une réelle maîtrise de l’approche scientifique des impacts environnementaux et l’IFTH possédait une vision globale des métiers du textile » souligne Antoine de Villoutreys, président de TF Création.  « Le but était de partir d’une base solide, d’une définition claire, avant d’entrer dans la phase de développement du projet. Je crois qu’avec le logiciel Teksajo, nous entrons véritablement dans une logique de développement durable. Pouvoir calculer efficacement et simplement l’impact environnemental de telle ou telle conception, va grandement améliorer la prise de décision des industriels», ajoute-t-il.

Le programme Teksajo a fait partie de l’un des 50 pré-projets retenus dans le cadre d’un appel à projets de recherche collaborative lancé par le Conseil régional de Champagne-Ardenne afin de stimuler la collaboration entre les entreprises et les laboratoires publics/privés. Ce qui lui a permis de bénéficier de subventions publiques accordées par les fonds régionaux et les fonds structurels européens et sont pilotées par la Région Champagne-Ardenne à hauteur de 189 000 € pour développer son projet.

M.C

Assises de la RFID : d’un marché de niche vers une dilution dans le grand public

Premier constat qui ressort de cette journée, l’identification par radiofréquence est une notion qui recouvre des enjeux différents et une réalité large. Les principes technologiques sont bien connus, les technologies sont maîtrisées depuis plusieurs années, et sont déjà utilisées à grande échelle et en évolution constante (UHF, dual frequency…). Les usages se développent principalement au travers des applications de traçabilité en temps réel. Les applications résultent d’ailleurs souvent d’aspects liés à la sécurité des biens et des personnes (syndromes post 11 septembre, sécurité alimentaire, contrôle des flux humains et logistiques…). Au delà, on observe un regain d’intérêt des entreprises pour une optimisation renforcée de leurs chaînes logistiques intermédiaires, qui sont toujours des facteurs de coûts importants.

Les usages par secteurs prennent le pas sur la technologie. Les business models s’avèrent complexes. Ils se situent principalement en milieu industriel. Etant donnée la fragmentation de la chaîne de valeur entre matériel et logiciel et entre offreurs petits et grands, la rentabilité d’un projet de traçabilité par RFID n’est pas immédiate à trouver pour l’utilisateur industriel. Pour les offreurs, cela rend les projets longs et complexes à déployer avec un fort risque de non déploiement total et de perte d’investissement. Du côté des utilisateurs, le bénéfice de la RFID est souvent « indirect » et nécessite une décision d’entreprise à haut niveau, toujours aléatoire. Les lignes de forces se déplacent : interaction avec le client final dans une relation client élaborée, tagging à la source et mutualisation des infrastructures et enfin convergence des technologies.

Deuxième conclusion, tous les secteurs économiques sont potentiellement impactés par cette technologie et ses applications.

  • La grande distribution est le secteur phare de part son implication dans les usages d’interaction avec le grand public et ses besoins en optimisation de chaînes logistiques intermédiaires. Il existe un terreau favorable grâce à la grande complexité des produits à cycle de vie court. Les intervenants de la table ronde (Auchan et Carrefour) ont montré l’importance de faire des tests qui révèlent les coûts cachés. « Les proofs of concept » sont longs. Reste également à mieux préciser les éléments de la recommandation « silence des puces ».
  • Dans l’automobile et l’aéronautique, on se trouve confronté à des process juste à temps et des produits à forte valeur ajoutée. Pour Michelin, Eurocopter et Renault, la RFID n’est qu’un aspect du système de traçabilité, par essence multi-technologique. Il faut parvenir à une réglementation globale en Europe où certains pays conçoivent et d’autres demandent.
  • Dans le secteur de la santé, les conditions sont extrêmes et la technologie doit être compatible avec les gestes hospitaliers et médicaux. On peut espérer des gains économiques sur la chaîne logistique. Avec la loi Hôpital, patients, santé et territoires, le périmètre de l’hôpital s’ouvre.

Des processus métier peu automatisés

Cependant, et c’est le troisième point, pour que la RFID se développe à plus grande échelle, des freins restent à lever. Il existe des verrous technologiques liés à la fiabilité des puces et des lecteurs. Le déploiement à grande échelle des services de traçabilité RFID n’est pas « naturel ». Tous les offreurs et utilisateurs ont vécu des moments difficiles de passage du test au déploiement. Il faut se concentrer sur la sécurisation des puces, leur miniaturisation et le fonctionnement en milieu extrême (lecture simultanées, environnement interférentiel).

La RFID entraîne également des questions d’architecture de réseaux, de protocoles et de normes, de logiciels (archivage, nommage…), encore non résolues. Les logiciels devant donner du « sens métier » à ces flux de données brutes s’avèrent très complexes. Il faut aussi un bon dimensionnement des réseaux de télécommunications, pour favoriser le temps réel. Le coût d’intégration d’un système complet de traçabilité RFID constitue également un frein.

Les processus métiers sont finalement peu automatisés. Ils sont bien optimisés pour une utilisation « humaine » mais souvent peu pensés pour la mise en place de systèmes de traçabilité automatique. Parfois très standardisés dans certaines industries, ces processus ne sont que peu améliorés par l’introduction d’une composante RFID.

Autre frein pour la RFID, son impact sur la vie humaine. Citons par exemple la vie privée, le droit à l’oubli ou encore la confusion avec l’Internet des objets. On constate une confusion entre traçabilité des objets et suivi des utilisateurs : dialectique autour du « profilage du consommateur », de la notion de données personnelles et du « silence des puces ». Quid de la destruction des milliards de puces produites ? La formation (employés, utilisateurs) repoussera la science fiction produite à propos des RFID.

Quatrième constat après ces Assises, les opportunités apparaissent grandissantes. La RFID représente un secteur économique important pour l’Europe, aussi bien en offre qu’en utilisation (tourisme, transports, distribution…). L’Europe est le premier continent pour le tourisme et le deuxième pour le transport. Certaines technologies RFID en microélectroniques sont porteuses. Il faut construire ensemble un modèle d’  » éthique des TIC « . En effet, ne pas s’approprier le débat éthique revient à laisser perdurer des peurs. C’est un secteur en pointe du progrès et l’on en attend des réponses prescriptrices. Il ne faut pas laisser aux autres la primeur des sujets mais prendre les devant afin que cela ne nous soit pas reprocher dans l’avenir.

reference

Daniel Nabet, président du comité d’orientation stratégique et scientifique du CNRFID (Centre national RFID) et directeur de l’unité d’affaires M2M chez Orange business services, lors de son discours de clôture des Assises de la RFID du 10 mai 2010

Après avoir dressé ce bilan, quelles recommandations peut-on faire aujourd’hui ? Il faut dans un premier temps encourager le déploiement de normes et de standards. Le CNRFID et d’autres groupes s’y attèlent. Les normes et standards, qui participent à l’acceptabilité, doivent  être incarnés par secteurs d’usage. Les recommandations de l’UE doivent anticiper les usages, en étant suffisamment protectrices mais pas trop restrictives, afin d’engager les discussions sur des bases communes.

Une transition approche

Il faut aussi structurer les offres RFID, en accompagnant nos champions nationaux dans leur R et D et en développant les secteurs d’usage. Soutenir les grands acteurs n’est pas antagoniste avec le développement d’un écosystème de PME. 2,5 milliards d’euros vont être dégagés pour le développement des usages (via le grand emprunt national). Des projets tels que le smart grid ou la ville numérique seront éligibles à ces financements et pourront encourager des consortia de grands groupes sur la thématique RFID. La certification RFID est encore relativement vierge en UE. Elle est critique pour la structuration des offres, leur acceptation par les utilisateurs industriels et pour leur acceptabilité par le grand public. Ce fut également une conclusion unanime du conseil d’orientation stratégique et scientifique du CNRFID : il faut susciter la création d’un ou de quelques laboratoires de certifications RFID au niveau européen. Enfin, nous devons favoriser la montée en puissance de « systémiers RFID » capables d’intégrer l’offre dans un package cohérent pour l’utilisateur.

Autre recommandation importante, il est nécessaire de continuer à promouvoir ce secteur d’activité vers les utilisateurs pour déclencher des usages. Pour cela, il faut soutenir les filières métier et leur rendre la technologie tangible. Les pôles de compétitivité et leurs membres publics et privés, par le passage de la recherche appliquée aux services, œuvrent dans ce sens, de même que la DGCIS dans les appels à projets IPER et l’accompagnement public-privé. J’appelle les offreurs à continuer la promotion du RFID vers les entreprises et à développer leur capacité d’intégration et de service dans ce secteur. La RFID est toujours un « marché d’investissement ». Non pas que les projets ne soient pas rentables, mais l’investissement excède encore la rentabilité. La RFID reste un marché de spécialistes et de professionnels. Cependant une transition approche : d’un marché de niche business avec des consolidations, vers une dilution dans le grand public.

Enfin, il faut informer le grand public des avancées de la RFID et s’approprier le débat sur les conséquences sociétales de ces technologies. Cela doit se faire en développant un effort transverse conjoint entre Etats, entreprises et utilisateurs, avec l’implication des organisations représentant le grand public. Nous devons rester vigilants sur ces sujets lors que nous mettons en place des process et des produits.

Par Daniel Nabet

A lire aussi : RFID : ce que dit la loi informatique et libertés (Claire Levallois-Barth – Télécom Paris Tech, intervenante lors des Assises de la RFID)

 

 

La traçabilité des parachutes assurée par RFID

La garnison de Montauban (Midi-Pyrénées) abrite une Base de Soutien Matériel de l’Armée, et un centre national de maintenance automatisé des parachutes (CMAP). Des milliers de parachutes en partent et y reviennent par containers pour équiper les régiments et les lieux d’interventions. La maintenance gérée à Montauban doit être parfaite : c’est une question de sécurité, vitale pour un équipement sensible. Tous les parachutes doivent être inspectés et reconditionnés régulièrement, et leurs pièces vérifiées.

Pour le CMAP de Montauban, gérer de façon efficiente le stock, c’est aussi savoir immédiatement et de façon totalement fiable, le nombre de parachutes en stock central et en circulation, leur date de mise en service et de renouvellement prévue… Une gestion complexe quand on sait que le parachute est un équipement se composant de plus d’une quinzaine de pièces avec des durées de vie spécifiques. De plus, les parachutes ont des conditions d’exploitation qui ont une incidence sur leur pérennité (saut en milieu humide, saut sur terre…). Enfin, il existe différentes catégories de parachutes militaires : parachutage humain avec ouverture automatique ou avec ouverture commandée, parachutage de matériel et d’approvisionnement…

Le maintien en condition opérationnelle de la CMAP est géré par le groupement d’entreprises SPIE Sud-Ouest et Cinetic Service sur la base d’un marché quinquennal. En 2009, suite à un appel d’offres lancé par la Direction générale de l’armement (DGA) destiné à améliorer le système d’informations central afin de lui donner plus de réactivité, le groupement lance à son tour un appel d’offres au terme duquel la société toulousaine Jidelec est sélectionnée car, outre le rapport qualité / prix, elle proposait une solution éprouvée sur d’autres cas de maintenance de pièces détachées. « Initialisé en mars 2010, ce projet nous permet d’innover avec cette application de gestion des équipements en temps réel reposant sur la technologie RFID. Une solution à haute performance compte tenu du caractère sensible de l’équipement mais qui rentre dans notre cœur d’expertise en ingénierie mobile » commente Jérôme Delorme, directeur de Jidelec.

Jidelec a fourni un système complet de mise à jour en temps réel des stocks depuis des sites distants. Un parc de terminaux mobiles durcis communicants (PDA Psion Workabout Pro), intégre, outre un mode 3G, une électronique spécifique pour répondre au cahier des charges et permettant l’exploitation des puces RFID d’identification des parachutes.

L’application qui a été testée en milieu d’année 2010, tourne maintenant en grandeur réelle. Aujourd’hui, un parachute qui vient d’être utilisé et a été grossièrement replié par le militaire, est restitué à sa base où un agent de maintenance scanne en quelques clics, avec le terminal fourni par Jidelec, les différentes pièces constitutives et saisit un compte-rendu d’intervention. Ces informations sont remontées immédiatement au système d’information central, le système informatique lecteur-enregistreur (SILE) dont l’acquisition a été conduite par l’Unité de Management des opérations d’armement terrestre (UM-TER) de la Direction des opérations (DO) de la DGA. Les parachutes sont ensuite renvoyés par container à Montauban pour révision et remise en circulation.

M.C
 

Comment tirer parti des avantages de la fibre optique ?

A l’heure de la communication électronique, entreprises et particuliers se ruent massivement vers les offres haut débit afin de profiter de leurs nombreux avantages. En effet, la banalisation des réseaux et du haut débit permet désormais d’utiliser de nouveaux services : applications virtualisées dans un contexte professionnel, téléchargement de contenus dans le grand public…

De nos jours, la fibre optique est donc un média utilisé pour transmettre toutes les données numériques, telles que les paquets Ethernet, la vidéo et le son. Tous ces usages considérés comme de simples concepts, il y a quelques années, sont désormais une réalité concrète. Ces nouveaux champs d’application se sont progressivement développés grâce aux liens ADSL. Désormais, le très haut débit semble s’imposer au travers de la fibre optique.

Avant toute chose, il convient de donner une courte définition de ce que représente la fibre optique. Cette dernière offre un débit d’informations nettement supérieur à celui des câbles coaxiaux et supporte un réseau « large bande », par lequel peuvent transiter aussi bien la télévision, le téléphone, la visioconférence que les données informatiques. Elle s’appuie sur des technologies de rupture qui imposent de repenser l’approche réseau traditionnelle pour entrer de plein-pied dans le monde du numérique.

Oui mais voilà, au-delà du débit proposé se cache le problème de la disponibilité. En effet, opter pour la fibre revient à repenser son infrastructure hardware. Un tel dispositif impose de s’appuyer sur des solutions dédiées à la fibre optique. Ainsi, au-delà de l’éligibilité qui représente le premier pré-requis, il convient également d’intégrer les notions liées à l’équipement. Ce point est souvent abordé en phase deux par les entreprises alors qu’il est aussi important que le fait de pouvoir se raccorder à la fibre optique. L’un et l’autre sont donc des pré-requis incontournables.

Ainsi, dans de nombreux cas, les utilisateurs se sont interrogés sur le mauvais fonctionnement de leur installation lors de leur connexion à la fibre optique.  Ils ont en effet oublié de se pencher de plus près sur leur infrastructure et plus particulièrement sur leur routeur… N’oublions pas également que la généralisation de la fibre optique dans un contexte professionnel s’est accompagnée d’un lot d’innovation telle que la QoS (priorisation des flux…). Là encore, la dimension liée à l’infrastructure doit être impérativement prise en compte afin de bénéficier de ces nouveaux avantages.

La fibre optique offre donc des potentialités importantes mais exige de bien penser son architecture technique afin de fonctionner correctement et de remplir toutes ses promesses. A n’en pas douter, un travail d‘évangélisation des constructeurs, intégrateurs, opérateurs doit être réalisé afin que les entreprises mesurent bien les étapes nécessaires à la mise en œuvre de la fibre optique dans leur structure. Cela permettra de clarifier les points clés liés à l’usage de la fibre optique et de son déploiement.

par Fabrice Jard, Responsable Business Development France chez Draytek 

Se préparer à l’arrivée des observateurs sur les réseaux sociaux d’entreprise

Elle permet en effet de développer les infrastructures et technologies de communication existantes des organisations, et de promouvoir leur culture. Cette pratique est à l’opposé du principe « construisez, et les gens viendront » : la création de communautés virtuelles nécessite une planification réfléchie et une optimisation permanente du réseau, afin de faire de cette plateforme communautaire un outil utile et opérationnel respectant les méthodes et habitudes de travail propres à chaque entreprise et à ses salariés. Ce n’est pas une tâche facile, mais les résultats valent bien l’investissement de temps consenti.

Un des éléments clefs que doit prendre en compte pour la création de communautés virtuelles est la participation, et, plus particulièrement, le phénomène de l’observation exclusivement passive (le badaudage, ou l’exploration de contenu de plateformes en ligne par des membres ne contribuant jamais à leur animation ou aux échanges) sur les réseaux sociaux. Lors de la phase de conception d’une communauté virtuelle à destination d’employés, il est essentiel de penser d’abord à ceux qui vont utiliser cet outil. Comment vont-ils s’en servir ? Dans quel but ? Quels changements son utilisation impliquera-t-elle dans leurs habitudes de travail quotidiennes ? En quoi cet outil améliorera-t-il leur expérience au travail et leur productivité ?

Il existe une vérité universelle lorsqu’on se lance dans la création de communautés virtuelles : les employés ne sont pas tous enclins à intégrer des réseaux sociaux, et ceux qui le feront ne publieront pas tous des informations. Cette problématique, liée à l’adoption d’un réseau social et à son utilisation « visible », et à laquelle doivent faire face les entreprises dans leur réseau, repose sur le principe des Inégalités de Participation. Ce concept décrit le fait que dans les communautés élargies réunissant de nombreux utilisateurs ou au sein des réseaux sociaux en ligne animés par les contributions spontanées, la plupart des utilisateurs ne prennent pas part aux échanges et se contentent d’observer en silence.

Généralement, on considère que ce phénomène suit la « règle des 90-9-1 » : 90% des utilisateurs sont des adeptes du « badaudage », c’est-à-dire des observateurs qui lisent et parcourent les réseaux sociaux, mais ne contribuent pas ; 9% contribuent de temps en temps, et 1% des utilisateurs représentent l’essentiel des publications sur le réseau.

Ces chiffres sont décourageants, en effet, en particulier pour l’équipe chargée de lancer une communauté censée transformer de façon radicale les modes de communication de l’entreprise. Pour une communauté d’utilisateurs potentiels de 10.000 employés dans une entreprise, il faut donc s’attendre à ce que 9.000 d’entre eux adoptent un comportement relevant essentiellement de l’observation, ce qui signifie qu’ils passeront de longues périodes à profiter des informations mises à disposition sans en produire, voire qu’ils n’en publieront peut-être jamais. Dans les faits, beaucoup de chercheurs estiment que le ratio observateurs/contributeurs s’élève à 100:1.

Il n’y a donc rien de surprenant à ce que les leaders et créateurs de communautés virtuelles s’inquiètent du fait que l’évolution de leurs propres réseaux suive le même schéma : le fait que les sources d’informations se réduisent à une poignée de personnes n’est de toute évidence pas un gage de l’intérêt ou de la viabilité d’un outil. D’après nos discussions avec bon nombre de clients, le partage plus rapide et l’accès simplifié aux informations pour les équipes opérationnelles sont les facteurs les plus importants pour inciter les utilisateurs à rejoindre un réseau social d’entreprise. Si les employés ne partagent pas d’informations (ce à quoi doivent servir les logiciels sociaux), les attentes des utilisateurs ne seront pas satisfaites. Le fait que la communauté ne soit pas aussi efficace qu’annoncé et que prévu peut engendrer un effet de désenchantement et provoquer une chute du taux d’utilisation.

Cependant, ce challenge représente également une opportunité

Les créateurs de communautés virtuelles doivent comprendre que les statistiques ordinaires concernant l’Inégalité de Participation ne constituent qu’une règle générale, et sont issues de réseaux sociaux n’ayant pas eu à intégrer d’autres facteurs liés à des différences sociales propres au lieu de travail (comme des formes de communication, des exigences professionnelles et des statuts sociaux variés). En transposant ce phénomène à un contexte concret au travail, la frontière entre contributeurs actifs et observateurs prend une toute autre forme : l’idée selon laquelle l’observation serait en réalité bénéfique devient valable. Le fait d’observer peut et doit être présenté aux employés comme un comportement utile, lorsqu’approprié, tout comme des tactiques tout aussi appropriées doivent être employées afin d’encourager l’apparition de contributions de valeur.

Les créateurs de communautés virtuelles tiennent une occasion de mesurer et de définir des objectifs afin d’utiliser la règle des 90-9-1 comme un point de départ pour évaluer le succès initial d’une communauté. Il n’existe pas de « bon » ratio entre observateurs et contributeurs, mais l’important est la valeur obtenue en continu par les individus et les effectifs.

C’est pourquoi nous recommandons qu’une partie d’un programme de création d’une communauté inclue la prise en charge d’un ensemble d’évaluations grâce à des enquêtes auprès des employés, afin de définir leurs attentes et de voir ensuite à quel point elles ont été satisfaites. Par exemple, une enquête pourrait être créée avant le lancement d’une communauté afin de s’enquérir des prévisions des utilisateurs quant à leur propre rôle probable (observateur, contributeur actif ou extrêmement actif), au sujet de la valeur que leur apporteront certaines activités (par exemple, la lecture, la publication, l’évaluation de contenus – j’aime – ou la publication de commentaires) ou de leur opinion au sujet des communautés sociales virtuelles en général (positive, négative, neutre).

À divers intervalles, au cours de la première année et plus tard, des enquêtes supplémentaires pourront être menées afin de comprendre comment les utilisateurs utilisent réellement le réseau, mais également de voir à quel point leurs attentes sont satisfaites. Les entreprises découvriront peut-être qu’elles ont un ratio observateurs/contributeurs élevé, mais que leurs observateurs trouvent la lecture des contributions extrêmement utile. À l’inverse, elles pourraient également découvrir que les utilisateurs sont principalement passifs, mais ne tirent qu’une faible valeur de leur exploration silencieuse : à ce stade, un revirement de stratégie s’avère nécessaire.

Attention : les créateurs de communautés virtuelles doivent éviter d’utiliser des indicateurs erronés pour évaluer le succès de leurs plateformes. Récemment, un grand groupe financier a soumis à notre service clientèle l’idée que pour un programme pilote de 90 jours, le « succès » serait de parvenir à 500 utilisateurs actifs et à la création d’au moins 50 groupes, et lorsque chaque membre appartiendrait à au moins 5 groupes et contribuerait à la hauteur d’au moins cinq publications par mois. Il s’agit d’un piège dans lequel on tombe facilement : les dirigeants soutenant un réseau social ont besoin de données et de critères de réussite solides. Cependant, l’utilisation de chiffres entiers, tout ronds, et l’existence d’activités tout aussi quantifiables peuvent sembler être une façon simple de « démontrer » la valeur d’un réseau social, mais ces indicateurs ne sont en réalité pas pertinents. La quantité de publications ne doit pas éclipser leur qualité, et la valeur qu’apporte la lecture et la prise des informations vaudra toujours mieux qu’un partage sans intérêt et machinal.

Par Carrie Young, directrice senior en charge du développement stratégique chez VMware
 

Le caoutchouc fête ses 100 ans !

En 1909, le chimiste Fritz Hofmann parvenait à produire une substance élastique, le méthylisoprène, posant ainsi la première pierre de l’édifice des caoutchoucs synthétiques. F. Hofmann était chercheur dans les laboratoires du fabricant de colorants « Farbenfabriken vorm. Friedr. Bayer & Co. », d’Elberfeld, une entreprise dont le groupe chimique de spécialités Lanxess AG est l’héritier.

 

Hoffman

Fritz Hofmann

Il est impossible d’imaginer le monde moderne sans le caoutchouc. Ce matériau est en effet indispensable, que ce soit pour les supports de machines ou de moteurs, la transmission des forces, le transport de liquides, l’étanchéification d’arbres en rotation ou de systèmes sous pression. Les élastomères hautes performances actuels n’ont pourtant pas beaucoup de points communs avec les matériaux obtenus à partir de caoutchouc naturel.

Nous n’irions pas très loin aujourd’hui avec les produits à base de caoutchouc naturel. En effet, depuis l’époque où l’on produisait les premiers manteaux, bottes, encriers et même peignes en caoutchouc (durci) obtenu par vulcanisation du caoutchouc naturel, la technique et les exigences requises de ce matériau ont énormément changé. Les températures plus élevées, les machines toujours plus rapides et les exigences croissantes en matière d’efficacité énergétique et de rentabilité font que les ingénieurs ont de plus en plus souvent recours à des types spéciaux. Même les pièces en caoutchouc banales, de faible coût, sont un facteur décisif pour la rentabilité de biens d’équipement onéreux : en effet, les produits à plus grande longévité, comme les joints et paliers particulièrement robustes, permettent de réduire les coûts de maintenance et donc d’assurer la rentabilité.

Au commencement du caoutchouc de synthèse…

Avant l’invention du caoutchouc synthétique par Hofmann, l’industrie a été pendant longtemps tributaire du caoutchouc naturel. Cette matière première, d’origine végétale, était soumise à des fluctuations de qualité et de prix. De plus, elle était pratiquement impossible à modifier chimiquement et s’est donc trouvée de plus en plus inadaptée aux besoins croissants de la technique. Les Farbenfabriken d’Elberfeld avaient donc offert une récompense de 20.000 marks au scientifique qui trouverait avant le 1er novembre 1909 « un procédé de fabrication de caoutchouc ou d’un substitut équivalent ».

À l’époque, les connaissances sur le caoutchouc étaient assez rudimentaires et il avait fallu attendre 1905 pour comprendre que les molécules linéaires de ce matériau élastique étaient constituées de multiples composants constituant une chaîne et appelés « isoprènes ». On ne savait pourtant pas comment les réticuler, mais Hofmann s’attela tout de même à la tâche. Comme il était difficile de se procurer de l’isoprène, ce « composant du caoutchouc naturel », Hofmann se rabattit sur un parent chimiquement proche, le méthylisoprène, dont la production était plus aisée. Il remplit des boîtes métalliques de cette substance, les chauffa et attendit, des semaines, parfois même des mois. Selon la température de polymérisation, le contenu des boîtes se transforma en un matériau plus ou moins mou, mais toujours élastique, le caoutchouc méthyle. Le premier caoutchouc synthétique fut breveté il y a cent ans, le 12 septembre 1909.

 

methyl caoutchouc

Echantillons originaux de méthylcaoutchouc

Dès 1910, la société Continental, qui était déjà une grande usine travaillant la gomme, fabriquait les premiers pneumatiques de voiture à partir de ce nouveau matériau. Carl Duisberg, le patron d’Hofmann, parcourut 4.000 km « sans crevaison » dans un véhicule chaussé de pneumatiques en élastomère synthétique et même l’empereur allemand était « plus que satisfait » des pneumatiques du même type qu’il avait fait monter sur sa voiture personnelle.

Empereur_Pneu_Caoutchouc

L’empereur Guillaume II et ses nouveaux pneus

 

 

Découvrez les formations Techniques de l’ingénieur

 

 

 

 

 

 

 

 

 

 

… à son développement

Le caoutchouc synthétique a vu son importance croître encore quand les chercheurs, utilisant du sodium, sont parvenus à réaliser une polymérisation plus rapide et plus performante des composants du caoutchouc comme le méthylisoprène d’Hofmann. Dans les années 20 du siècle dernier, le sodium et les innombrables astuces utilisées par les successeurs d’Hofmann ont même permis de produire une autre gomme synthétique à base de butadiène, un parent chimiquement proche, mais « plus simple », de l’isoprène, le composant de base du caoutchouc naturel. Ce nouveau matériau allait devenir légendaire sous le nom de « Buna » (pour Butadien et Natrium, « sodium » en allemand).

 

Buna_Caoutchouc

Le caoutchouc Buna !

Pendant le premier tiers du siècle dernier, les chimistes ne cessèrent d’améliorer les caoutchoucs produits à partir du butadiène, la nouvelle matière de base. Quelque temps plus tard, les chimistes Walter Bock et Eduard Tschunkur franchirent l’étape suivante. C’est notamment à Walter Bock que l’on doit l’utilisation d’un autre additif très prometteur, le styrène, qu’il a associé au butadiène, créant ainsi le Buna S. Ce « caoutchouc styrène-butadiène » est encore aujourd’hui, sous une forme améliorée, l’un des principaux composants des pneumatiques de voiture. Dès leur commercialisation en 1936, les premiers pneumatiques à bande de roulement en Buna S ont très vite fait sensation, car ils duraient beaucoup plus longtemps. Le brevet portant sur la copolymérisation du butadiène et du styrène a été enregistré le 21 juin 1929.

 

Bock_Tschunkur_Caoutchouc

Bock et Tschunkur, découvreurs de la copolymérisation Butadiène-Styrène : le Buna S

À cette époque, un autre élastomère issu des laboratoires de Leverkusen fit parler de lui, surtout en raison de sa résistance à l’huile : il s’agissait du caoutchouc nitrile Buna N, fruit des recherches effectuées par les chimistes Eduard Tschunkur, Helmut Kleiner et Erich Konrad. Leur équipe avait trouvé le « nitrile acrylique » alors qu’elle cherchait de nouvelles solutions intéressantes. Une fois de plus, c’est en variant les composants chimiques que les chercheurs purent obtenir un nouveau caoutchouc doté de propriétés tout à fait inédites. En effet, le nitrile acrylique est « polaire » et donc oléophobe. Le brevet correspondant a été enregistré le 26 avril 1930. Ce nouvel élastomère changea de nom en 1938, trois ans après le début de la production à grande échelle, et fut dès lors commercialisé sous le nom de Perbunan, pour mieux le distinguer du Buna S.

Et maintenant ?

De plus en plus de caoutchoucs issus des réacteurs de l’industrie chimique, porteurs de nouvelles propriétés techniques, furent commercialisés. On peut citer le Baypren, le Levapren ou le Buna EP, utilisés dans les adhésifs, les tuyaux, les gaines de câble ignifuges, les joints résistants aux intempéries ou aux U.V. ou les articles en gomme translucide. À cela sont venues s’ajouter d’innombrables innovations dans le domaine des produits chimiques nécessaires à la production de caoutchouc, comme les antioxydants (agents antivieillissement) et les accélérateurs de vulcanisation comme le Vulkanox et le Vulkacit. Parmi ces développements, bon nombre sont dus aux études des chimistes et des techniciens travaillant dans les laboratoires de Lanxess.

Levapren_Caoutchouc

Le caoutchouc Levapren enveloppant les installations photovoltaïques d’un film réfractaire, résistant à l’oxygène et à l’ozone.

En 2007, les industries du monde entier ont absorbé près de 13,6 millions de tonnes de caoutchouc synthétique et « seulement » dans les 9,7 millions de tonnes de caoutchouc naturel. Les spécialistes estiment qu’en raison de leurs propriétés, la part des caoutchoucs de synthèse augmentera plus rapidement que celle du caoutchouc naturel.

Le caoutchouc synthétique constitue aujourd’hui la base d’un grand nombre de produits hautes performances et restera à l’avenir indispensable à de nombreuses possibilités et applications.

Source : culturesciences.chimie.ens.fr

Une intelligence artificielle plus performante que jamais

« – Je te croyais mort…
– Techniquement, je n’ai jamais été vivant, mais merci de vous soucier de mon sort. »

Voilà une réplique tirée du film I, Robot qui pourrait bientôt être énoncée par SPAUN (Sematic Pointer Architecture Unified Network), le premier cerveau artificiel conçu pour fonctionner à l’identique du cerveau humain. Les chercheurs canadiens à l’origine de cette création tenaient à étudier notre cerveau, sans recourir à la chirurgie ! Pour reproduire au mieux son fonctionnement, ils ont fabriqué SPAUN, un ordinateur de 2.5 millions de neurones informatiques communiquant entre eux à l’aide de signaux électriques. Si on est encore loin des 100 milliards de neurones du cerveau humain, la prouesse est notable et constitue une avancée majeure vers un cerveau artificiel quasi-humain.

Publiés dans Science, leurs travaux présentent les capacités de SPAUN censé simuler le cerveau humain. Ainsi, leur petit s’est vu doté d’une caméra et d’un bras robotisé, lui permettant de voir et d’écrire. SPAUN sait notamment reconnaitre des chiffres et des lettres. Et n’essayez pas de le piéger en variant les styles d’écriture, SPAUN sait parfaitement lire ! Ses performances ne s’arrêtent pas là puisqu’il est aussi capable de résoudre des problèmes mathématiques tels que des suites. D’après Chris Eliasmith, créateur canadien de cette entité cérébrale complexe, « SPAUN n’est pas aussi intelligent que le singe pour ce qui est de catégoriser, mais il le dépasse quand il s’agit de reconnaître des structures syntaxiques, que les singes ne sont pas capables de faire ».

En effet, malgré les prouesses indéniables de ce cerveau-cyclope-manchot, nous avons encore quelques temps devant nous avant d’être éradiqués puisque SPAUN est particulièrement lent. Il lui faut plus de deux heures pour reconnaitre une lettre. Autre lacune, SPAUN est un bon exécutant mais n’a pas encore la capacité d’apprendre. Bref, ce super cerveau artificiel va surtout permettre d’étudier le cerveau humain, comme l’impact du vieillissement par exemple. « Il n’y a pas que des questions philosophiques profondes que vous pouvez aborder avec ce travail, tel que comment l’esprit représente le monde, il y a aussi des questions très pratiques que l’on peut poser », conclut Eliasmith.

Pour découvrir comment fonctionne SPAUN :


 

Par Audrey Loubens, journaliste scientifique

« Le degré de réflexion est passé au stade supérieur »

;Techniques de l’ingénieur : Quel bilan tirez-vous du RFID show qui s’est tenu fin mars à Paris ?

Laurent Gonzalez : Par rapport aux autres années, il est intéressant de noter que le degré de réflexion est passé au stade supérieur. Aujourd’hui, on parle de gestion des données et de système d’information. Il y a deux ou trois ans, on se demandait ce qu’est un tag… Que ce soient les PME ou les grands groupes, tous posent des questions qui reflètent un certain degré de maturité. Cela devrait maintenant se concrétiser. Les intégrateurs ont constaté qu’il y avait moins de monde que les autres années, mais des acteurs prêts à sauter le pas.

Quel état des lieux de la RFID en France dressez-vous ?

La France a rattrapé son retard par rapport aux autres pays, sous l’impulsion d’entreprises comme Carrefour, Airbus ou encore Rica Lewis. Dans le textile, on observe une pénétration de la RFID. Il se développe également des applications dans le contrôle d’accès, par exemple pour le Grand prix de Formule 1. Une percée s’opère ainsi dans plusieurs secteurs. Aujourd’hui, il faudrait un projet plus large pour « mailler » l’ensemble. Si un tissu d’entreprises intéressées par la démarche se constitue, elles pourront mieux partager la valeur ajoutée. Pour la supply chain, l’event management devient un impératif. Par exemple, cela peut permettre de rappeler un produit très vite en cas de crise ou d’échec d’une promotion. Il faut alors gérer l’événement, partager les informations entre acteurs pour déclencher une action.

Quels sont les freins au développement de la RFID ?

Les bandes de fréquence ne sont pas les mêmes selon les régions, notamment en Europe et en Amérique du Nord. Il faudra arriver à une convergence, cela passe entre autre par la normalisation, mais aussi par la réglementation, notamment au niveau européen.
La crise constitue aussi un frein, il est plus difficile de convaincre. Je pense qu’il faut insister sur la valeur ajoutée apportée par la RFID.
Il existe également une crainte sur le caractère privé des données. Le sujet va être traité par la Commission européenne, en concertation avec les industriels et les associations de consommateurs.
Par ailleurs, on a l’impression que ce sont toujours les mêmes qui font de la RFID. Dans le cadre de l’association Fil RFID, je me rends compte que ce n’est pas le cas. Nous avons donc mis en ligne une base de données pour mettre en avant des retours d’expérience (NDRL : www.race-networkrfid.eu).

Le coût des technologies ne constitue-t-il pas un frein ?

Ce n’est pas la vraie question. Il faut raisonner par application. Lorsque l’on améliore un procédé, il faut prendre en compte le coût mais aussi tout ce que cela génère.

Quelle est la situation aux Etats-Unis ?

Les initiatives sont plus nombreuses. Dans le RFID Journal, on peut constater qu’il se développe chaque jour une application nouvelle. Le salon qui a lieu en Floride est un événement très important. Concernant les données, les Américains ont une approche plus pragmatique et plus orientée marché.

Et en Asie ?

J’ai vu des entreprises asiatiques qui venaient sur le salon RFID pour démarcher des partenaires. La Chine a réalisé l’une des plus grandes expériences de contrôle d’accès des personnes. Compte tenu de la population de ce pays, les projets prennent tout de suite une autre envergure.

Pourriez-vous donner un exemple d’application de la RFID ?

L’exemple d’Edifret qui a équipé des wagons en puces donne une idée de ce que cela peut apporter (voir encadré ci-dessous). D’autant plus qu’Edifret a travaillé avec d’autres partenaires sur ce projet. La logique du consortium me semble très intéressante.

On parle beaucoup de l’Internet des objets. A quel horizon va-t-il se développer ?

La Commission européenne finance en ce moment beaucoup de projets sur l’Internet des objets. C’est une évolution naturelle. Quand sera-t-elle effective ? Cela dépendra notamment de la sortie de crise et de la capacité à lever le frein des craintes concernant les données privées. Cela passe aussi par la capacité des entreprises à offrir des services innovants et reconnus comme des besoins par les particuliers et par les entreprises.

Propos recueillis par Corentine Gasquet

 

Le retour d’expérience d’Edifret
Lors du RFID show, Edifret, filiale de SNCF-Geodis, a présenté un projet ambitieux utilisant la RFID pour la traçabilité des wagons. Auparavant, la traçabilité s’opérait principalement par saisie manuelle (pour une information 48 heures après) ou par suivi GPS (ce qui pose le problème de la durée de vie des piles et du coût). Edifret a dû faire face des contraintes spécifiques : poussière, bruit, interférence métallique, vitesse, distance… Le coût d’équipement d’un wagon est inférieur à 15 euros. Les bornes, installées sur les sites industriels, reviennent à 7.000 euros. Elles sont alimentées par panneaux solaires. Elles sont déployées sur 10 sites pilote, avec pour objectif d’atteindre 40 sites en Europe. Pour Edifret, la RFID a de nombreux intérêts, notamment :

  • améliorer la rotation des wagons ;
  • optimiser le temps de stationnement ;
  • réduire le nombre de litiges entre chargeurs et entreprises ferroviaires ;
  • réduire le délai de facturation pour les entreprises ferroviaires ;
  • réduire le coût de saisie des opérations.

Parcours

Laurent Gonzalez, cofondateur de l’association Fil RFID, dirige le pôle de conseil en technologie RFID du cabinet Trévise-Consulting. Il a été membre du projet GTAG (identification des objets par la radiofréquence dans la chaîne d’approvisionnement) pour les organisations de standardisation EAN*UCC (Uniform code council). Il dispose par ailleurs de plus de dix ans d’expérience opérationnelle en supply chain, en Europe, pour des entreprises comme Kimberly Clark, Bacardi, ou l’Oréal. Il est l’auteur de RFID : Les enjeux pour l’entreprise ! aux Editions Afnor.

 

Un système RFID « spécial » en entrepôt frigorifique

Fondée il y a plus de 110 ans, la boulangerie Junge de Hambourg a mis en oeuvre avec succès une solution RFID conçue spécialement pour elle. Cette solution due à Jungheinrich inclut un lecteur RFID fixé sur le porte charge d’un chariot à mât rétractable ETV 214 version frigorifique, équipé d’un terminal embarqué connecté à un système de radiocommunication ainsi que d’un scanner codes barres pour identifier les palettes (ces deux éléments sont dotés d’un chauffage intégré). Un transpondeur est collé à chaque emplacement de palette sur les lisses des rayonnages ou sur le sol pour les emplacements à ce niveau.

A la réception, la marchandise est étiquetée. L’étiquette inclut des données concernant la marchandise et un identifiant sous la forme d’un code barre. L’identifiant de la palette est scanné et la marchandise est saisie dans le système de gestion de l’entrepôt puis transportée dans l’entrepôt frigorifique avec le chariot à mât rétractable. C’est dans le magasin que le cariste choisit un emplacement approprié pour la palette. Au moment où le cariste dépose la palette, il appuie sur un champ de l’écran du terminal embarqué (équipé d’un système de chauffage intégré). Le lecteur RFID qui est situé entre les bras de fourche est alors activé. Lors de l’opération de pose, le lecteur détecte le transpondeur installé sur le sol ou la lisse correspondante. C’est à ce moment que s’établit la liaison au niveau du WMS (Warehouse Management System) entre l’identifiant de la palette et l’emplacement dans le magasin.

Cette information est automatiquement transmise au WMS qui enregistre l’emplacement précis de la référence dans l’entrepôt. Ce n’est donc pas le système de gestion de l’entrepôt qui attribue un emplacement mais le cariste qui cherche lui-même la place appropriée. Au moment du déstockage, le cariste prélève la palette indiquée par le WMS. Le système RFID permet d’identifier l’emplacement et le système de gestion enregistre la sortie de stock de cette palette. Cela signifie que l’emplacement est libéré physiquement et en même temps dans le système informatique.

 » Cette solution représente, d’une part, une simplification des tâches pour le personnel et, d’autre part, une amélioration sensible de la sécurité au niveau de la production et de la gestion des stocks. La planification de la production, en particulier, et, par conséquent, les plans de travail pour le personnel sont déterminés dans notre entreprise par les stocks « , précise Tim Elsholz, responsable adjoint de la production de la boulangerie Junge.

Par Marc Chabreuil

Comment devenir un maître en LabVIEW et se faire des amis en même temps?

Il travaille pour la société Tecnova, Partenaire Alliance de National Instruments et Partenaire certifié en conception (« Certified Design Partner »). En dehors de son propre travail, Mark participe de façon très régulière à la communauté LabVIEW, qui a su contribuer à son ascension en tant qu' »expert LabVIEW ». Mark a pris le temps de nous faire partager ses expériences en LabVIEW, de nous expliquer la façon dont il a enrichi ses connaissances et les bénéfices que la communauté LabVIEW lui a apportés.

Quels ont été les premiers projets sur lesquels vous avez travaillé sous LabVIEW ?

La première fois que j’ai entendu parler de LabVIEW, j’étais encore élève ingénieur dans les Laboratoires Underwriters de Northbrook, dans l’Illinois. J’étais à la recherche d’un logiciel capable de m’aider en matière de test de sécurité automatisé lorsque j’ai découvert le nouveau LabVIEW 4.0. Dès que j’ai pu télécharger la version de démonstration du logiciel sur l’un des ordinateurs du service, nous avons « joué » avec. Je me souviens de la sensation que j’ai éprouvée en dessinant du code informatique au lieu de devoir l’écrire.

Une fois mes diplômes obtenus, j’ai travaillé pour une société de systèmes de commande en tant qu’ingénieur de test. Lors de mon entretien d’embauche, j’ai dit au recruteur, mon futur responsable, que si on me confiait la tâche de construire des testeurs, je souhaitais utiliser LabVIEW. Il m’a fait suivre les cours de formation élémentaires, et c’est ainsi que ma carrière en tant qu’ingénieur LabVIEW débuta.

Mon premier projet LabVIEW s’articulait autour d’un testeur d’encodeur rotatif. Après avoir pataugé avec l’équipement pendant deux semaines, mon responsable et moi-même en avons conclu qu’il nous fallait de l’aide. Nous avons donc pris contact avec un ingénieur commercial de National Instruments qui nous a mis en relation avec un membre du programme Alliance Partner de NI, capable de nous aider avec le testeur. Pendant six mois, à ses côtés, j’ai emmagasiné un maximum de connaissances en LabVIEW. Avoir quelqu’un capable de m’expliquer la bonne façon de procéder m’a mis sur les rails et cela m’a permis de découvrir très tôt les machines d’état, les variables globales fonctionnelles, ainsi que les techniques d’interface utilisateur élémentaires. À ce propos, je conseille vivement aux nouveaux utilisateurs de se trouver un tuteur en mesure de leur montrer la façon de procéder correctement.

La chose la plus sympa sur laquelle j’ai travaillé en tant que programmeur LabVIEW a été un testeur et un outil d’étalonnage pour une matrice de distribution de puissance intelligente de 15 KV. J’ai eu besoin de rassembler toutes mes connaissances en LabVIEW pour mener à bien ce projet, ce qui impliquait toute une variété de matériels comme des multimètres numériques (DMM) 8 chiffres ½, de la commutation matricielle, des phasemètres, des communications SPI (interface périphérique série), des matériels d’acquisition de données et des communications sans fil.

Comment avez-vous amélioré vos compétences en programmation LabVIEW ?

Dès que je pouvais, je parlais de LabVIEW à un maximum de gens. L’une de mes formules préférées reste « Je préfère apprendre de mes pairs que de mes erreurs. » J’ai rejoint le groupe d’utilisateurs LabVIEW au Sud du Wisconsin et j’ai fini par devenir membre de son comité de pilotage. On avait l’habitude de se rencontrer une fois par trimestre et de prévoir les présentations pour les prochaines rencontres entre utilisateurs. C’était un super moyen de connaître les nouvelles fonctionnalités prévues dans LabVIEW, ainsi que les techniques pour écrire un meilleur code.

Je suis un Développeur LabVIEW Certifié (CLD) depuis 2002. En tant que programmeur dans une entreprise, j’ai voulu obtenir cette certification pour me prouver que j’étais à la hauteur. Ensuite, lorsque je suis devenu consultant, cela a pris de l’importance car ça a donné confiance à nos clients en mes capacités en programmation. En vue de me préparer aux examens CLD et CLA, je me suis renseigné sur les nouvelles techniques et j’ai demandé conseil à d’autres développeurs. Au bout du compte, j’ai fait d’une pierre deux coups : j’ai appris à créer un meilleur code tout en me faisant de nouveaux amis !

NIWeek 2010 a été ma 12ème édition de NIWeek. À l’origine, j’y assistais pour assimiler un maximum de connaissances. Désormais, je sais que je vais y faire de belles rencontres, et cette simple idée me plaît. NIWeek est le rassemblement d’utilisateurs LabVIEW par excellence ! Construire un réseau solide de programmeurs LabVIEW fait toute la différence sur la façon dont vous pouvez améliorer vos connaissances.

Comment contribuez-vous, à votre tour, à la communauté LabVIEW ?

Après 14 années à programmer sous LabVIEW à des fins professionnelles, je viens de réaliser que ma soif de succès est désormais beaucoup plus personnelle.

Je suis actuellement l’administrateur référentiel de code pour le site Internet lavag.org (LabVIEW Advanced Virtual Architects) (LAVA). Il s’agit d’un site Internet, indépendant de ni.com, où les novices et les experts en LabVIEW se côtoient pour poser des questions et partager des idées, du code et la même philosophie. En tant qu’administrateur, je vérifie le code que les membres souhaitent partager. LAVA m’a vraiment aidé à exceller dans LabVIEW. Avec tout le temps passé sur ce site, mes compétences en programmation ont été multipliées par cinq.

Je me fais aussi un plaisir d’enseigner à d’autres la façon optimale d’utiliser LabVIEW, en répondant à des questions sur LAVA, en dispensant un cours LabVIEW, et en dirigeant mon équipe lors de la FIRST (For Inspiration and Recognition of Science and Technology) Robotics. Ce que j’apprécie le plus c’est de pouvoir faire profiter à quelqu’un de mes connaissances, en tête à tête. Régulièrement, j’assiste à des réunions composées d’utilisateurs LabVIEW ainsi qu’à des rencontres locales. Et dernièrement, j’ai pu participer au tout premier sommet qui rassemblait des architectes LabVIEW certifiés. Ce fut pour moi l’occasion extraordinaire de rencontrer les meilleurs programmeurs LabVIEW au monde. Depuis toutes ces années, c’est LabVIEW qui m’a servi de moteur pour rencontrer des ingénieurs de haut niveau. Même si je continue à me tenir informé des toutes dernières technologies et des produits en vogue, je pense sincèrement que l’essentiel de mon travail consiste à rencontrer des ingénieurs et des scientifiques et d’échanger des idées avec eux. LabVIEW est le lien qui nous unit les uns aux autres.

Source : http://zone.ni.com/devzone/cda/pub/p/id/1202

De l’ingénierie collaborative à la certification ISO 13485

Spécialiste des instruments de laboratoire pour le diagnostic in vitro, les biotechnologies, mais aussi pour l’agro-alimentaire ou l’environnement, la société ILSA, implanté à Marchaux (25), offre une expertise complète aux industriels, aux fabricants de réactifs et aux distributeurs de ces secteurs. En effet, son offre va de l’étude de faisabilité à l’industrialisation d’un système, en passant par la production en phase de présérie et de petite et moyenne série. Elle est partenaire des plus grands distributeurs (Diamed, Biorad, Bio Mérieux…). En termes de production, elle conçoit trois nouveaux sous-ensembles par an et produit 750 automates d’analyses de laboratoire.

L’organisation interne pour le développement produit de cette PMI de 19 personnes est organisé de la façon suivante :

  • un bureau d’études pluridisciplinaire avec une forte expertise en mécatronique ;
  • un bureau des méthodes pour valider l’industrialisation ;
  • un atelier de fabrication pour les maquettes et les prototypes ;
  • un atelier de production de 1000 m2 pour les préséries et les séries.

En 2009, ILSA décide d’être certifié ISO 13485, une norme qui précise les exigences des systèmes de management et de qualité dans le domaine médical, exclusivement. Un atout supplémentaire pour ses clients et un gage de qualité et de sécurité, deux mots qui sont primordiaux dans ce secteur. Pour ce faire, la société doit se structurer suivant trois thèmes :

  • DHF (Directory History File) pour le dossier de conception ;
  • DMR (Directory Manufacturing File)  pour la fabrication en phase série ;
  • DHR (Directory History Record) pour le suivi des modifications, des livrables et des procès verbaux de libération d’instrument.

Un outil stratégique

Dans un premier temps, elle se dote d’une solution d’ingénierie collaborative de PI3C : la plateforme « Entreprise étendue » qui s’interface avec les solutions de CAO les plus répandues sur le marché. Cette dernière est destinée aux entreprises qui veulent optimiser leur collaboration intra et inter-entreprise pour la gestion de leurs projets, par la mise à disposition d’outils de management, de communication et de planification. « Entreprise étendue » est aujourd’hui un outil stratégique et central, que ce soit pour l’obtention de la certification ISO 13485 et sa gestion au quotidien ou pour assurer la traçabilité, et ce afin de garantir le marquage CE et UL des produits développés. Il permet d’optimiser les process et processus internes et d’obtenir cette certification. « La plateforme PI3C  est notre base de référence unique pour l’ensemble de  nos projets, que ce soit pour la gestion du cycle de vie des produits, pour la consultation des études par nos clients, nos partenaires ou les organismes de contrôle, tel que le GMED (organisme de certification dans le domaine médical) ou l’AFSSAPS (l’agence française de sécurité sanitaire des produits de la santé). Au travers de la plateforme, nous assurons une parfaite traçabilité des instruments fabriqués, quel que soit leur lieu de livraison dans le monde et ce, pendant toute leur durée de vie, qui peut aller de 7 à 15 ans, en incluant la gestion des pièces détachées et le SA V sur site » explique Emmanuel Beuffe, gérant de ILSA.

« Aujourd’hui, nous avons douze utilisateurs au sein d’ILSA et peut être le double en externe, qui travaillent sur la solution de PI3C. Tous les services sont concernés, du bureau d’études à la production, en passant par le service commercial, le marketing ou la qualité, » poursuit  Emmanuel Beuffe,. « Nous gérons les autorisations/accréditations en fonction du degré d’implication et d’intervention d’une personne sur un projet, que ce soit pour un collaborateur, un client ou un partenaire. Cela nous assure une parfaite sécurité de la gestion de nos données. Nous pouvons ainsi permettre à nos clients de consulter, mais aussi de modifier une étude, si besoin est. Un outil collaboratif très apprécié et très efficace car, structurant et sécurisant ». Autre point important pour la société : « Il nous serait difficile de gérer tous les aspects normatifs et réglementaires imposés par la norme ISO 13485 sans la plateforme collaborative. La centralisation des informations, leur sécurisation et leur traçabilité, sont autant de « plus » pour notre service qualité, qui veille au bon respect des directives ».

La société a maintenant tous les atouts pour développer de nouveaux axes stratégiques. Un savoir-faire reconnu, une équipe motivée, une organisation technologique et structurelle de pointe, il ne manquait plus que des nouveaux locaux et un nouveau challenge. C’est chose faite depuis quelques jours avec un  bâtiment de 1200 m2, rénové et agrandit pour optimiser les flux de production. ILSA se lance également dans un nouveau défi, celui de concevoir et de fabriquer ses propres produits.  

La messagerie instantanée s’invite dans le monde de l’entreprise

Qui a dit que les technologies Web 2.0 étaient de simples phénomènes de mode réservés à quelques geeks ? A y regarder de près, ce constat est loin de refléter la réalité. En effet, largement adoptées par le grand public, ces technologies font aujourd’hui partie des outils de communication incontournables. Dans ce contexte, l’on assiste à de profondes modifications dans le monde professionnel, lequel tend à s’emparer de ces technologies et à les adapter à ses exigences. Parmi les technologies ayant connu ce cheminement, nous pouvons par exemple citer les mashups, les outils de visioconférence…
 
Au-delà de ces solutions, il est désormais incontournable de mentionner les outils de messagerie instantanée qui connaissent un fort développement dans l’entreprise. A mi-chemin entre de nombreux services de communication, ils synthétisent un nombre important d’avantages et sont un vecteur d’échanges très pratique, en particulier pour les entreprises justifiant d’une organisation décentralisée. Cette tendance de fond, plus qu’une révolution technologique, est un véritable phénomène sociétal et comportemental qui ne cesse de s’intensifier pour représenter, dans certains cas, la majorité des échanges pratiqués. Ce phénomène est-il durable ? Est-il en train de remplacer des canaux comme le téléphone, le SMS, voire l’email dans certains cas ?
 
A l’inverse des canaux traditionnels, la messagerie instantanée permet d’échanger en temps réel et de se rapprocher d’un mode de communication naturel, tout au moins, de par sa spontanéité comme le classique téléphone  et il permet grâce aux émoticons de simuler un sentiment. Dans ce contexte, nombre d’éditeurs de solutions B2B développent des outils de messagerie instantanée afin de répondre aux attentes de leurs clients. Ils s’inspirent bien entendu des traditionnelles solutions B2C, mais intègrent des fonctionnalités et niveaux de sécurité différents au regard de leur utilisation. Ne nous y trompons pas : outils Web 2.0 oui ! Intuitifs oui ! Mais sécurisés et adaptés au monde de l’entreprise. Cette condition est un élément  essentiel et inéluctable.

Des solutions complémentaires plus que concurrentes

En regardant de plus près, la messagerie électronique n’est pas un réel concurrent de l’email. Elle est utilisée pour des échanges « spontanés » ou synchrones qui ne nécessitent pas d’être archivés, par exemple. L’email d’un naturel asynchrone conserve, pour sa part, un aspect plus formel : échange de documents, informations sensibles… Ces différents éléments expliquent la bonne cohabitation entre ces canaux qui se complètent parfaitement.
 
En revanche, force est de constater que les solutions de messagerie instantanée commencent à concurrencer le fameux SMS et le canal téléphonie ! Plusieurs raisons expliquent ce phénomène. La première tient à la notion de convergence, largement relayée par les opérateurs, constructeurs et éditeurs du marché. En effet, acheter un téléphone portable non convergent est aujourd’hui pratiquement impossible.  De plus, les politiques tarifaires pratiquées ont largement contribué à démocratiser l’usage de l’Internet mobile ! On notera qu’il est désormais possible de ne plus se séparer de son environnement de messagerie professionnelle et d’y accéder directement depuis son portable ! Là encore, le caractère ludique de la messagerie instantanée professionnelle prend le pas. Le SMS apparait alors comme un outil « dépassé ».
 
Il convient également de préciser que l’essor de ce type de technologie en environnement professionnel s’explique par l’arrivée sur le marché du travail d’une génération bercée par ces outils et particulièrement sensibilisée à leur usage et à leurs avantages. Plus qu’un simple concept, l’utilisation de la messagerie instantanée dans l’entreprise est donc une réalité. Les DSI doivent prendre en compte ce phénomène grandissant et intégrer cette catégorie d’outil dans leur évolution de système. Il conviendra de revenir dans quelque temps sur ce point afin de voir de quelle manière ils ont su concilier et intégrer les exigences professionnelles aux solutions de messagerie instantanée.
 
par Philippe Gilbert, Président d’Alinto 

La virtualisation joue la carte de la sécurité

Désormais incontournable au sein des entreprises comme des administrations, la virtualisation a su répondre pragmatiquement à des besoins fonctionnels et métiers. Dans ce conteste, les technologies de virtualisation du poste de travail se positionnent au centre des préoccupations des DSI qui recherchent par tous les moyens à déployer aisément des postes de travail sur mesure et à le demande.

Cette forte croissance du poste de travail virtualisé s’explique également par son approche particulièrement sécurisée. Cette dernière s’appuie sur le principe du PC virtuel en mode « Read Only » ou « non persistant ». Un PC Read Only offre une sécurité de premier plan dans la mesure où lors de chaque redémarrage il retrouve sa configuration initiale. Il n’est en ce sens pas un point de vulnérabilité critique pour l’entreprise. Le poste de travail retrouve à chaque démarrage son intégrité.

N’oublions pas que le poste de travail est à l’origine de la plupart des vulnérabilités. Ce dernier étant largement ouvert vers l’extérieur et souvent mal contrôlé. En cas d’installation malveillante ou non autorisée (jeux, applications) par un utilisateur, le PC Read Only retrouve ses configurations d’origine, sur un simple arrêt ou redémarrage. Le stockage différentiel est temporaire et non permanent ! Les PC Read Only sont donc inaltérables par l’utilisateur et complètement sécurisés. Cette caractéristique est rendue possible grâce au processus de virtualisation. De manière imagée, un PC Read Only permet à l’utilisateur de retrouver un PC flambant neuf chaque matin.

Sécuriser des données applicatives confidentielles

A noter également que l’utilisation d’un boîtier de connexion (client léger) pour atteindre un PC virtuel permet aussi de sécuriser des données applicatives confidentielles. En effet, aucune donnée n’est stockée dans les boîtiers et il est possible d’interdire l’utilisation des ports USB pour tous les stockages de masse externe. Le PC est donc complètement hermétique à toutes menaces. L’on notera aussi qu’en cas de vol ou de dégradation du boîtier de connexion, le PC virtuel et les données restent sécurisés.

L’approche dite « Read Only » connaît donc un très fort développement. Adaptée aux PME disposant d’un petit parc de PC comme aux entreprises justifiant d’un parc étendu, elle permet le déploiement en quasi temps réel de centaines de postes de travail virtualisés en toute sécurité. Ces différentes caractéristiques ont permis à certains secteurs d’activité, comme celui de la santé, de bénéficier de postes de travail totalement sécurisés. Ces derniers se transforment en de simples points d’accès permettant, par exemple, d’accéder après identification aux dossiers patients…

Les entreprises reprennent donc le contrôle des postes de travail. Les erreurs (suppression inopinée…) et les abus de certains utilisateurs (installations sauvages…) ne sont plus une menace puisqu’une simple action permet de revenir à une configuration initiale. Sans impacter la sécurité du système d’information, l’administrateur peut donc mettre à disposition des PC virtuels restreints aux stricts usages nécessaires, à destination de prestataires temporaires ou à disposition des employés souhaitant travailler à distance.

par Wilfrid Albersdorfer, Président de Neocoretech
 

Comment Volvo fabrique t-il ses camions sur mesure ?

Le délai séparant un projet à l’état d’ébauche du produit fini est de plus en plus court mais, en même temps, le rôle que joue le consommateur dans le processus de développement du produit devient de plus en plus important. Ainsi, lorsque le constructeur de camions suédois Volvo Trucks a décidé de développer son nouveau camion de construction, le Volvo FMX, la participation des clients a joué un rôle central dans le processus. Certes, le cycle de vie d’un modèle de camion est toujours très long (entre 10 et 20 ans environ), mais les adaptations des clients et la multiplication des versions sont de plus en plus fréquentes. « Nous constatons qu’un marché plus segmenté est en voie de développement. Les clients qui le constituent sont de moins en moins prêts à accepter un camion de série. La plupart de nos clients influencent la conception afin que le camion réponde à leurs exigences individuelles », déclare Gunnar Eliasson, responsable du marché pour le segment de la construction chez Volvo Trucks en Europe.

Transformer les souhaits des clients en spécifications techniques

La concurrence mondiale augmente les exigences sur la capacité des entreprises à lancer de nouveaux produits sur le marché. « La course s’intensifie », affirme le professeur en génie industriel Jeffrey Liker de l’Université du Michigan, qui est, entre autres, l’auteur du livre à succès « Le modèle Toyota ». Au cours de ses recherches, il a étudié les raisons qui font du constructeur automobile japonais un modèle unique. Cela l’a conduit à un examen approfondi de la méthode de production optimisée (« Lean production »), qui consiste à retirer tout ce qui est superflu du processus de développement et à réduire les délais de mise au point. « Les cycles de vie de tous les produits sont réduits car la concurrence alimente un développement continu. Personne ne veut courir le risque de perdre des parts de marché », explique-t-il. Étant donné que l’utilisateur final participe au processus de développement du produit, de nombreuses cultures d’entreprise traditionnellement orientées vers la technologie se retrouvent face à des défis majeurs. « Toutes les entreprises affirment travailler en étroite collaboration avec leurs clients, mais en réalité elles ne sont pas si nombreuses à le faire. Parce que c’est compliqué », remarque-t-il. Cette approche exige de passer du temps auprès des clients. Elle nécessite une méthode d’identification des exigences des clients, qu’il faut ensuite transformer en spécifications techniques.

Lorsque Volvo Trucks a élaboré son modèle le plus récent, le Volvo FMX, un camion conçu pour le secteur du bâtiment et de la construction, une nouvelle approche a été adoptée dans le cadre du processus de mise au point du produit. La société voulait procéder à un développement inédit, impliquant des clients, des conducteurs de camions, du personnel de vente ainsi que des experts en marketing. « Nous souhaitions poser deux questions : quels étaient les points positifs du modèle existant, que nous avions proposé aux clients du secteur de la construction, et quels changements auraient-ils souhaité voir », explique Gunnar Eliasson qui a entrepris une tournée européenne avec plusieurs collaborateurs, afin d’établir une liste de souhaits pour le futur modèle. Cette liste était longue.

Aller au-delà des desiderata de la  clientèle

Après une synthèse de ce dialogue réalisé à travers l’Europe, le moment fut venu d’organiser les priorités. En haut de la liste des mesures à prendre figuraient un nouvel extérieur pour la cabine, des rétroviseurs mieux adaptés, des pare-chocs plus résistants et plus faciles d’entretien, des prises d’air moteur mieux positionnées, et des phares avant plus faciles d’entretien. C’est aux chargés de développement produit et aux concepteurs qu’est revenue la mission de convertir la liste de souhaits en prototypes et en maquettes à échelle réelle. « Mais se limiter à l’énoncé de la liste ne suffit pas. Nous devons aller plus loin et surprendre nos clients, ajouter ce petit plus. Notre équipe était constituée d’un groupe de collaborateurs issus du marketing et du développement produit. Leur travail commun a permis de rehausser le résultat », rappelle Gunnar Eliasson. D’après Jeffrey Liker, c’est exactement là que réside la principale différence entre la méthode optimisée, dite « lean », et le développement produit classique. « Dans la production optimisée, les spécialistes de différents départements et de différents domaines travaillent librement ensemble, de façon à répondre le mieux possible aux demandes exprimées par les clients. Parallèlement, cette approche encourage l’apprentissage constant des procédés de production ainsi que la compréhension des modalités relatives au processus de développement produit. Le développement produit classique, pour sa part, survient dans des cellules distinctes où chaque équipe de développement fait de son mieux dans son propre domaine, mais les échanges d’expérience entre les différents départements sont très réduits », explique-t-il.

Dans la plus grande discrétion, et après la signature d’un accord de confidentialité très strict, des clients ont ensuite été invités à venir évaluer ensemble le nouveau camion de construction, dans le cadre de différents ateliers de présentation. Un camion de démonstration était présenté dans un studio, et des photos mettant en scène ce nouveau modèle dans différents environnements de travail tapissaient les murs. « Le nouveau design extérieur, plus robuste, a reçu un accueil extrêmement chaleureux lors de l’exposition du camion au sein de nos ateliers de présentation. Les participants ont reconnu la signature Volvo, tout comme nous l’avions espéré », affirme Gunnar Eliasson. Dans un autre studio étaient exposée une cabine de conduite avec l’ensemble des nouveaux équipements. Les clients pouvaient voir, toucher et essayer le matériel, et faire part de leurs impressions. Par exemple, concernant la nouvelle échelle : était-elle correctement positionnée, de sorte que le chauffeur puisse facilement accéder à la cabine et vérifier aisément la plate-forme de charge, sans avoir à se prêter à des acrobaties ? Gunnar Eliasson estime que le projet a été un véritable succès, avec des délais serrés. De plus, l’intervention des conducteurs de camions et des clients, survenue tôt dans le projet, a permis aux ingénieurs du développement de consacrer plus de temps aux priorités. « Les avantages résultant de l’invitation des clients à prendre part au processus de développement du produit dépassent de loin le risque de fuites d’informations chez nos concurrents », ajoute-t-il.
 

Le premier bâtiment certifié NF EN 16001

Grâce aux solutions développées par le Groupe et mises en œuvre au Hive, le siège social de Schneider Electric se distingue par ses performances en management de l’énergie. C’est en réalité une triple certification qui est venue saluer les efforts entrepris en matière d’efficacité énergétique. Situé à Rueil Malmaison (92), le Hive est en effet aujourd’hui le 1er bâtiment de France certifié NF EN 16001 (systèmes de management de l’énergie). Il est aussi HQE Exploitation (évalation de l’exploitation d’un bâtiment tertiaire) et ISO 14001 (management environnemental).

Lorsque Schneider Electric s’est installé à la  fin de 2008 dans ce bâtiment neuf de 35 000 m2 sur 7étages, la priorité a été de l’inscrire dans une gestion performante de l’énergie et une approche environnementale responsable. Le projet de certification ISO 14001 a été rapidement lancé en accord avec la politique environnement du Groupe. Le bâtiment étant certifié HQE construction (3 000 poutres froides destinées à une meilleure répartition de la chaleur dans le bâtiment, 2 420 stores motorisés  et positionnés en ouverture et angle des lamelles…) , la démarche a été renforcée en visant le label HQE Exploitation

En juillet 2009, lorsque le référentiel NF EN 16001 a été publié, Schneider Electric a décidé de s’inscrire dans ce cadre méthodologique très structurant pour l’organisation de sa politique énergétique et le suivi de performance de ses solutions de management de l’énergie mises en œuvre au Hive.

Pour satisfaire aux exigences de ces normes, Schneider Electric s’est donc engagé dans une démarche de progrès d’amélioration continue visant plusieurs objectifs :

  • l’optimisation des équipements et de l’exploitation du bâtiment ;
  • la diminution de ses consommations énergétiques ;
  • l’amélioration du confort des occupants ;
  • la réduction de l’impact environnemental du bâtiment sur l’environnement ;
  • la mise en application des solutions d’efficacité énergétique proposées à ses clients.

Un projet partagé par tous

Le projet de certification a été structuré en trois volets. Un groupe projet a d’abord été constitué, impliquant le directeur du site et ses équipes, ainsi que les facilities managers internes et le partenaire en charge de la gestion des installations techniques du bâtiment.
Ensuite, avant de concevoir son système de management environnemental et énergétique, Schneider Electric a fait réaliser deux audits d’efficacité énergétiques, l’un par ses propres experts et un second par un prestataire extérieur. Son objectif était de disposer d’un bilan énergétique de l’immeuble qui serve de référence pour la construction du système de management et pour les plans d’actions futurs.

Enfin, le déploiement de la norme NF EN 16001 a permis de structurer la communication auprès des 1 700 collaborateurs et, en particulier, de les sensibiliser sur leurs propres consommations d’énergie. Une action rendue possible par la mise en place des systèmes de comptage de l’énergie préconisée par la norme NF EN 16001. L’engagement de Schneider Electric se traduit également au sein du Hive par des actions impliquant les collaborateurs :

  • mise à disposition de véhicules électriques pour les collaborateurs lors de déplacements urbains ;
  • partenariat avec la ville de Rueil Malmaison pour des actions de co-voiturage ;
  • module de e-Learning interne de sensibilisation à l’éco-conduite ;
  • information sur la qualité de l’air (température, qualité…) ;
  • sensibilisation à l’efficacité énergétique.

Installé dans un 1er temps dans l’International Customer Lounge, le Hive Energy Display relié au système de GTB permet aux collaborateurs de suivre la consommation énergétique globale du bâtiment, mais aussi l’éclairage, le chauffage, l’informatique…, le rendement énergétique quotidien (mais aussi mensuel, annuel…), les tendances mensuelles de la consommation énergétique par usage, les économies d’énergie réalisées (quotidiennement, mensuellement, annuellement…). Un projet est en cours de développement pour rendre cette information disponible sur les PC individuel des collaborateurs.

Une démarche et des solutions validées

Ce travail en vue de la certification a permis de mettre en perspective et de valider les grandes étapes de la démarche d’efficacité énergétique préconisée par Schneider Electric à ses propres clients : mesurer, déployer les fondamentaux, optimiser les consommations d’énergies, pérenniser le niveau de performance.

Le projet a proposé un cadre structuré, facilitant la compréhension des enjeux et des objectifs. Et notamment un objectif ambitieux en ce qui concerne la consommation énergétique du bâtiment : 80 kWh-ef/m2/an à la fin 2010. Pour cela, un plan d’actions est en cours de mise en œuvre. La réflexion menée autour des solutions d’automatisation des systèmes et équipements (éclairage, chauffage, climatisation…) a amené à ajuster de manière très fine l’équilibre entre le confort des collaborateurs et les économies d’énergie. Mais d’autres travaux sont en cours, comme par exemple :

  • l’amélioration de la ventilation du bâtiment avec la réduction des débits et la réinjection d’un volume d’air recyclé ;
  • la mise en place de sondes de CO2 dans les gaines de ventilation pour adapter les volumes renouvellements d’air au taux d’occupation ;
  • l’optimisation du système de gestion technique du bâtiment pour programmer plus finement les plages de températures.

Chaque année, les équipes Schneider Electric devront prouver que la démarche a été poursuivie et que des progrès ont été accomplis. Cette démarche représente une occasion unique de démontrer l’efficacité et la pertinence des solutions Schneider Electric et permet d’offrir un formidable retour d’expérience à ses propres clients. 

L’approche « Case Management » rationalise la gestion de contenus

Pour les  entreprises développant des relations à long terme avec leurs clients, fournisseurs, agences, abonnés… les logiciels de gestion électronique de documents (GED) sont souvent amenés à démontrer leur aptitude à assurer la gestion de ces relations et des procédures associées. Cependant, les projets de gestion des processus métier (Business Process Management ou BPM) ont montré, au fil des années, que le retour sur investissement promis était souvent peu réaliste en raison de la complexité des procédures, de l’incapacité à gérer les flux documentaires ad hoc et du manque d’expertise métier du domaine.

Augmenter l’efficacité des procédures repose principalement sur l’optimisation de l’interaction entre les personnes, les processus et les applications métiers impliquant le traitement de documents papier ou électroniques. Pour atteindre cet objectif, les entreprises s’orientent de plus en plus vers des plates-formes dédiées à ces problématiques. Ces dernières sont traditionnellement qualifiées de plate-forme de « Case Management ».

Les outils de « Case Management » permettent avant tout de construire des solutions composites. Le niveau de maturité de la gestion de contenu permet aujourd’hui de créer des applications métier composites qui se focalisent sur les besoins métier des utilisateurs. Concrètement, les outils de « Case Management » facilitent la gestion de contenu en combinant GED, BPM et publication. L’approche de « Case Management » permet donc aux organisations de simplifier la circulation des documents et d’automatiser leurs processus de traitement, tout en gardant assez de flexibilité pour permettre des interventions humaines, si nécessaire. La rapidité du déploiement des technologies de « Case Management » a également largement contribué à améliorer le ROI (Return On Investment) des projets de gestion de contenu. 

L’approche de « Case Management » combine un ensemble de stratégies et d’outils logiciels visant à augmenter l’efficacité et à réduire les coûts de procédures métier reposant sur des informations structurées et non structurées. Trois points clés sont essentiels dans les projets de « Case Management » :

  • optimiser le traitement des procédures liées aux documents tels que la gestion de courrier ou la facturation ;
  • améliorer l’interaction et la collaboration entre les gestionnaires et l’équipe d’encadrement ;
  • valoriser l’information et la connaissance au sein de toute l’entreprise.

Une adaptation transversale

Le « Case Management » se présente donc comme une véritable alternative aux stratégies comme le BPM ou le travail collaboratif. Elle s’adapte en effet de façon plus transverse à l’évolution des besoins de l’organisation, tout en permettant un contrôle et une traçabilité complète des opérations. Les outils de « Case Management » permettent de mettre en œuvre un très grand nombre de procédures comme le traitement des réclamations, le cycle de validation des factures, l’ouverture de comptes, la gestion de projets, la gestion de courriers… 

Le « Case Management » est donc une brique stratégique du système d’information. Des architectures techniques les plus simples aux plus complexes, l’intégration du « Case Management » avec le système d’information devient une nécessité. ERP (Enterprise Resource Planning), portails, applications spécifiques… les contenus issus de ces applications doivent nécessairement être récupérés pour être exploités. Les technologies de « Case Management » doivent donc communiquer avec l’ensemble des applicatifs du système d’information. 

Les outils de « Case Management » apportent donc de nombreux bénéfices à différents niveaux : métier, organisationnel et financier. Au-delà de leur simplicité de configuration, ils sont donc en mesure de répondre aux besoins métier, de réduire les cycles de déploiement et de dégager un retour sur investissement mesuré en moyenne sur moins d’un an. La diffusion des outils de « Case Management » permettra donc d’optimiser la gestion des processus autour des documents et de placer la gestion de dossiers au cœur des initiatives ECM  (Enterprise Content Management) durant ces prochaines années.

 Par Ziad Wakim, vice Président Solutions d’Ever Team 

En savoir plus sur l’endommagement des isolants

Les problèmes technologiques associés à la fabrication et à l’utilisation des matériaux isolants demeurent nombreux et sont souvent récurrents dans beaucoup de secteurs industriels. Cette situation reflète les insuffisances des théories de l’endommagement des isolants.
L’ouvrage « Les isolants –  Physique de la localisation des porteurs de charge – Applications aux phénomènes d’endommagement » propose ainsi un nouveau modèle d’endommagement des isolants permettant d’en prévoir le comportement et décrit une méthode de mesures des grandeurs préconisées par ce modèle. L’ouvrage présente :

  • les phénomènes de claquage, de fracture et d’usure expliqués à travers ce modèle ;
  • des applications à des problèmes technologiques variés et plusieurs stratégies d’amélioration des matériaux ;
  • les caractérisations à effectuer dans un microscope électronique à balayage pour évaluer  la qualité des isolants.

L’exposé de cette méthode comporte plusieurs développements originaux essentiels à la maîtrise technologique de ce type de matériaux. Les résultats obtenus sur échantillons de laboratoire permettent ainsi de poser les bases d’une ingénierie des défauts destinée à adapter tout isolant industriel (polymère, céramique, porcelaine, composite…) aux contraintes qui lui sont imposées (température, pression, champ électrique et rayonnements ionisants).
 
Rédigé par Christiane Bonnelle, professeur émérite à l’université Pierre et Marie Curie, Guy Blaise,  docteur ès sciences et professeur émérite de l’université Paris XI, Claude Le Gressus,  docteur ès sciences appliquées, ingénieur à l’INSA de Lyon et consultant dans le domaine des isolants et Daniel Tréheux , docteur ès sciences physiques, diplômé de métallurgie spéciale (INSTN) et ingénieur à l’École Centrale de Lyon (ECL), l’ouvrage « Les isolants »  est découpé en trois grandes parties : Perturbation du champ cristallin et endommagement, Caractérisation des isolants et microscopie à balayage, Isolants et technologies (mécanique, génie électrique, optique…). Il constitue un mémento original destiné à servir de guide pratique à des ingénieurs et à des chefs de projet concernés par la maîtrise technologique des isolants. Il contribuera aussi à la formation des étudiants et à la sensibilisation des chercheurs à de nouvelles approches fondamentales des isolants. 

Traitement de l’air : des émissions industrielles aux espaces confinés

Les enjeux de société liés à l’amélioration de la sécurité sanitaire et environnementale conduit les acteurs, notamment gouvernementaux, à dépasser la préoccupation traditionnelle de diminution des rejets consécutifs à l’activité industrielle. En effet, le respect des réglementations de plus en plus contraignantes doit être couplé aux enjeux économiques et énergétiques et imposent la mise en place de nouvelles technologies et stratégies de traitement de ces rejets.

De plus, le renforcement de la législation européenne sur les substances chimiques et leur utilisation dans et par l’industrie, Reach, n’autorise les plus dangereux non substituables qu’à condition de maîtriser les risques à toutes les étapes de la chaîne. Ainsi, préconisations et valeurs seuils de polluants sont en cours de définition, tant pour la qualité de l’air sur les lieux de travail et au voisinage de sites industriels que dans les espaces occupés. Parmi les polluants de l’air en ligne de mire, sont cités les particules fines et ultrafines (PM2.5 à PM0.1), les aérosols microbiens, les composés organiques volatils ainsi que de nombreuses autres substances chimiques volatils.

Le Département Systèmes Energétiques et Environnement (DSEE) de l’Ecole des Mines de Nantes développe des activités de recherche et d’enseignement au sein de l’UMR CNRS GEPEA, dans le domaine du génie des procédés appliqué à la maîtrise énergétique et environnementale des systèmes. Son équipe Ingénierie de l’Environnement s’intéresse à la compréhension, au développement et au couplage de procédés de traitement de l’air, en considérant une démarche intégrée d’amélioration de procédés existants ou de développement de procédés innovants. Les travaux de recherche portent sur le traitement des émissions industrielles avant rejet dans l’atmosphère ainsi que sur les solutions de dépollution des espaces confinés industriels ou recevant du public.

Concernant le traitement des COV, des composés soufrés et odeurs, les procédés mettant en œuvre leur séparation par adsorption/désorption de polluant, leur dégradation chimique par photocatalyse ou leur dégradation biologique au sein de biofiltres ou biolaveurs sont plus particulièrement étudiés. La séparation des particules fines, ultrafines et des aérosols microbiens est développée au travers de l’étude de la filtration sur médias fibreux pour différente composition ou géométrie des filtres. La capture du CO2 est abordée au travers de l’étude des procédés d’adsorption par modulation de pression (PSA). Enfin, le traitement combiné de ces polluants en mélange est étudié par couplage de procédés ou développement d’unité de traitement intégrant plusieurs mécanismes de capture ou de dégradation de polluants. Ainsi, s’appuyant sur les concepts et les méthodologies du génie des procédés, les travaux de recherche développés au DSEE se focalisent sur l’étude, le développement, le dimensionnement et la modélisation de procédés mettant en jeu des interactions solide – fluide dans les milieux complexes (multi-phases, multi-composés, composés toxiques ou faible concentration).

Par Laurence Le Coq, responsable du Département Système Energétique et Environnement de l’Ecole des Mines de Nantes

 

Un data center d’un nouveau type

Capgemini, qui gère déjà plus de 26 000 serveurs physiques répartis dans 25 data centers, vient  d’ouvrir un nouveau centre de données à Swindon (Royaume-Uni) : Merlin. Une installation  ultramoderne dont l’architecture innovante se caractérise par son efficacité énergétique qui en fait l’un des plus écologiques au monde. Il affiche en effet  un indice de consommation énergétique PUE (Power Usage Effectiveness) annualisé, testé en usine, de 1,08 (total de l’énergie consommée par le datacenter divisée par le total de l’énergie utilisée par l’équipement informatique : serveur, stockage, réseau).  Toutefois, en tenant compte de toutes les pertes électriques, ce PUE serait probablement de 1,10 à comparer à la moyenne du marché qui se situe encore entre 2,0 et 2,5. Bénéficiant du climat tempéré de Swindon, son système de refroidissement par apport d’air extérieur permet de garantir ce niveau d’efficacité énergétique. Résultat, Merlin consomme deux fois moins d’électricité qu’un data center traditionnel et ses coûts de maintenance sont quatre fois inférieurs.

Pour obtenir les performances, Capgemini a entièrement repensé la conception de ce data center ce qui a notamment abouti, pour Merlin,  à une structure modulaire en fonction des demandes des clients. Il est, en effet, composé de différents blocs amovibles (le centre offre une capacité d’hébergement de serveurs 24 modules d’environ 232 m2 sur une surface de  5  574 m2). Chaque module  qui contient 80 % de matériaux recyclables, est assemblé et testé en usine, ce qui permet aux clients de disposer d’un data center personnalisé en 22 semaines au lieu de 12 à 18 mois dans les installations classiques. Doté d’un plancher technique composé de 4 sections, il offre une puissance minimale de 1 000 W/m2 qui peut être doublée sans interruption de service. Sur les 232 kW disponibles, seulement 10 kW sont utilisés pour refroidir les serveurs, ce qui correspond à un PUE de 1,043. Une réduction de 93 % par rapport à un data center classique refroidi à l’eau (PUE de 2)  ou de 75 % comparé à un système « free cooling » au glycol (PUE de 1,5).  Quant aux systèmes d’alimentation sans interruption (UPS ou Uninterruptible Power Supply), au lieu d’utiliser les traditionnelles batteries au plomb, ils font appel à des volants d’inertie.

Merlin est doté d’un système de refroidissement pratiquement à 100% par apport d’air extérieur. Chaque module est équipé d’un système qui refroidit l’air en deux étapes : par apport d’air extérieur si la température ne dépasse pas 24 °C, puis par évaporation si la température extérieure est comprise entre 24 et 34 °C. Toutefois, un troisième système  DX ( Direct Expansion) peut être utilisé pour les modules utilisant 2 000 W/m2 ou en cas de panne de l’un des 2 autres systèmes. Chaque module  comprend un système d’optimisation et du contrôle de l’air.

Relié à des centaines de capteurs qui mesurent la température, l’humidité, la pression et la vitesse de l’air, un système de gestion des bâtiments (BMS, Building Management System), doté d’un véritable système expert, régule avec précision les flux d’air chaud et froid  en fonction du nombre et de la puissance des serveurs, pour que les 12 ventilateurs à vitesse variable qui brassent l’air dans le hall qui accueille les modules, utilisent un  minimum d’énergie. Par ailleurs, une caméra thermique permet de vérifier l’éventuelle présence d’air  chaud dans les zones froides.

Merlin bénéficiera de la certification « Tier 3 data center » décernée par l’Uptime Institute qui, créé à l’initiative de plusieurs acteurs du secteur des centres de données, a introduit un système de classification des centres de données en fonction de leur niveau de fiabilité (« Tiers I à IV »). Deux autres data centers seulement ont reçu cette certification au Royaume-Uni.
 

Le retour des applications sur mesure

L’âge d’or du tout intégré et du progiciel de gestion intégré (PGI) semble plus que jamais toucher à sa fin. En effet, après avoir voulu jouer la carte du packaging tous azimuts, les entreprises se tournent désormais vers une nouvelle approche très fortement axée vers les solutions sur-mesure.
 
Bien entendu, il serait néanmoins absurde de ne pas capitaliser sur un certain nombre de progiciels qui peuvent parfaitement répondre à des besoins génériques… Il ne s’agit pas de passer d’un extrême à un autre, mais plutôt d’enrichir les SI d’applications sur mesure parfaitement adaptées à leur logique organisationnelle.
 
Cette tendance est largement portée par le métier qui souhaite bénéficier d’outils pensés pour répondre à son besoin. Cette approche est différente de celle prônée par les PGI, où il est la plupart du temps nécessaire de s’adapter à l’outil. Cet élément explique en grande partie le rejet d’un certain nombre de solutions par les utilisateurs. Le projet doit sortir de la seule Direction des Systèmes d’Information et être réalisé en collaboration avec une population de fonctionnels. 
 
Ce constat semble se généraliser dans de nombreuses entreprises : création de groupes de travail pour faire évoluer l’outil informatique… Le développement sur mesure gagne donc ses lettres de noblesse. Cela s’explique également par l’évolution des technologies du marché qui permettent de supprimer la complexité historique liée au développement sur-mesure…
 
Parmi les exemples les plus marquants, on peut citer le poste de travail. En effet, force est de constater que ce dernier connaît de profondes mutations. Destinées aux utilisateurs finaux, les applications du poste de travail sont au centre de toutes les attentions : applications composites, etc. Il est donc matériellement impossible de s’appuyer sur une solution packagée pour répondre à des besoins organisationnels spécifiques. Bien sûr, les PGI permettent de réaliser quelques ajustements, mais pas d’accéder à de réelles applications métiers.
 
Le développement spécifique ne semble donc plus perçu comme un mal nécessaire, mais plutôt comme une réponse opérationnelle et génératrice de gain de productivité. Au niveau économique, il est aussi indispensable de briser une fausse croyance : développer sur mesure n’est pas forcement une opération très coûteuse et réservée à quelques grands comptes.
 
En effet, les technologies dites de RAD (Rapid Application Development) permettent de développer rapidement des applications et de contenir les coûts de développement. De plus, adapter un PGI peut s’avérer particulièrement coûteux ! Il est nécessaire de trouver des consultants et des développeurs spécialisés… Il est aussi difficile d’optimiser un progiciel sans impacter ses performances et sa logique de fonctionnement. L’argument coût est un faux problème pour les entreprises.
 
A travers ces quelques exemples, nous comprenons donc parfaitement que la religion du tout PGI devrait progressivement s’estomper pour laisser place à un paysage où PGI et applications sur mesure vont cohabiter. A n’en pas douter, ce constat devrait se renforcer à court et moyen terme et permettre aux administrations, grands groupes et PME de s’adosser sur un Système d’Information et sur des applications répondant à leurs besoins spécifiques.
 
par Laurent Henault, Président de W4 

Quelle création de valeur pour sortir de la crise ?

Alors que les effets de la crise se font durement sentir, la recherche et l’innovation sont convoquées pour renouer avec une croissance durable. Le paysage français ayant été profondément remodelé depuis 2005, les attentes sont fortes. Cinquième opus d’une série annuelle, « La Recherche et l’Innovation en France » fournit aux observateurs et décideurs publics ou privés des repères et des perspectives dans le paysage de la recherche. Rédigé sous la direction de Jacques Lesourne, professeur émérite au Conservatoire national des arts et métiers, membre de l’Académie des technologies et prospectiviste renommé, et de Denis Randet, délégué général de l’Association nationale de la recherche et de la technologie (ANRT), cet ouvrage est le fruit des travaux menés au sein de FutuRIS, qui rassemble acteurs et experts de la recherche et de l’innovation.

Au sommaire :

  • le SFRI (système français de recherche et d’innovation) et son environnement européen : les champs décisionnels des acteurs, 2000-2010, entre politique de croissance et gestion de crise, l’avenir des relations enseignement supérieur et recherche, l’Espace européen à l’horizon 2020 ;
  • Recherche, entreprises et création de valeur : logique de la valorisation, les stratégies en matière de propriété intellectuelle, la place des entreprises de taille intermédiaire, la coopération Fraunhofer-Carnot ;
  • Innovation et nouveaux défis socio-économiques : les politiques d’innovation à l’épreuve de la variété, l’innovation dans les services, éthique et innovation.

Rester vigilant au regard de la disponibilité des fonds publics 

A l’occasion de la présentation de ce rapport, François Goulard, député du Morbihan et ancien ministre délégué à l’Enseignement supérieur et à la recherche, a souligné l’utilité pour les décideurs publics des productions venant de plateformes « neutres et indépendantes mais engagées », telles que FutuRIS. De sa position de parlementaire, il regrette qu’elles fassent défaut dans de nombreux secteurs de l’action politique.  Il se réjouit de constater que la recherche et l’enseignement supérieur constituaient une priorité gouvernementale non seulement dans les mots mais aussi dans les décisions budgétaires. Il a toutefois mis en garde contre le fait que l’on s’en est jusque-là tenu à des réformes « aimables », proposant de nouveaux outils et dispositifs aux acteurs, sachant que les questions de cohérence d’ensemble, d’arbitrages nécessaires et de mise en œuvre volontariste demeurent posées.  Les réponses seront par ailleurs d’autant plus difficiles à apporter que les décisions budgétaires à venir risquent fort d’être particulièrement contraintes.

Pour sa part, Francis Mer, président du conseil de surveillance de Safran et ancien ministre de  l’économie, s’est étonné que le crédit impôt recherche, très généreux depuis sa dernière réforme en 2008, n’ait pas été entouré d’un dispositif de suivi. Ce qui aurait permis, d’une part d’anticiper l’évolution de son coût qui semble avoir surpris tout le monde, et d’autre part servirait, aujourd’hui à trancher dans les débats controversés sur son rapport coût/bénéfices. 

Comprendre les nouveaux modèles d’affaires

Quant à Philippe Lemoine, président de Laser, il considère que FutuRIS, en proposant un ouvrage de référence à la fois « complet et stimulant » dans un contexte en évolution rapide, fait figure  « d’agent transformateur du présent ». D’où la nécessité d’appréhender toutes les dimensions de l’innovation telle qu’elle se pratique aujourd’hui. Ce que l’on nomme « la » crise repose à ses yeux sur la conjonction en réalité de trois blocages :

  • une première difficulté tient à la notion de valeur de l’entreprise : l’essai de compromis, incarné sur le plan comptable par les normes IFRS, entre une conception patrimoniale longtemps dominante («shareholders value ») et une représentation plus générale mais moins tangible («stakeholders value ») a volé en éclats. La prise en compte des actifs immatériels est une nécessité, comme le montrent les analyses de FutuRIS sur la propriété intellectuelle, mais il faut encore trouver des outils unanimement admis pour le faire ;la deuxième difficulté
  • consiste pour les entreprises à se reconnaître des frontières claires, alors même qu’elles doivent inventer de nouveaux modes d’organisation pour puiser dans leur environnement extérieur les ressources humaines et technologiques indispensables à leur  ompétitivité. La plateforme FutuRIS  joue son rôle quand elle aide à comprendre et à promouvoir les nouveaux modes d’innovation ouverte ;
  • le troisième enjeu provient de la transformation de la relation entre l’individu et le collectif. Dans une économie de services, l’usager devient aussi producteur à son échelle. Cela exige des entreprises mais aussi de toutes les institutions qui les entourent de s’éloigner d’une conception  ndustrielle classique (une entreprise fabrique un produit qu’elle vend à une masse de consommateurs) pour devenir partie prenante d’une « économie pollen », où le produit sert de plateforme de base pour le développement de services. Sur ce point, Francis Mer a réagi en soulignant que Safran, entreprise typiquement industrielle à première vue, réalisait plus de 40 % de son chiffre d’affaires sur l’ « after market », autrement dit sous la forme de prestations de services. Un outil aussi important que le crédit impôt recherche, dans ses contours actuels, tient encore insuffisamment compte de cette réalité. Son extension à l’innovation est une question ouverte, délicate, qui demandera « un peu d’effort », auquel FutuRIS pourrait contribuer.  

Des fibres de verre pour doper un polyamide

Dans le passé qu’il s’agisse des industriels de l’automobile, de la machinerie industrielle, de l’électroménager ou des produits de loisirs, tous avaient tendance à privilégier le métal alors que bien souvent les matières plastiques s’y révèlent les plus adaptées. Ultralégers, les thermoplastiques présentent trois atouts majeurs. Dans le domaine de la mobilité, ils permettent des gains de poids et donc une réduction de l’impact sur l’environnement et les ressources naturelles. Dans le domaine de la construction de machines industrielles complexes, ils offrent une intégration de fonctions et une liberté de formes.

C’est ce qui explique la perte de vitesse du marché du métal, de plus en plus souvent remplacé par les matières plastiques dans la fabrication de pièces d’assemblage. La sophistication des applications exige des matières plastiques qu’elles soient de plus en plus performantes. Sans tenir compte des thermoplastqiues hautes températures comme le PEEK ou le polysulfone, les meilleures avancées ont été réalisées sur les polyamides créés pour des usages spécifiques dans l’automobile comme l’ont démontré les premiers essais en série, réalisés en 2009, sur les traverses de boîte de vitesses et les supports de moteur. Néanmoins, si cette gamme de matériaux veut rester privilégiée pour les pièces hautement sollicitées du secteur automobile et de l’industrie mécanique, des évolutions techniques seront nécessaires.

Des performances accrues grâce au réseau tridimensionnel

Les pièces en matière plastique renforcé avec des fibres de verre longues comme le polyamide Ultramid Structure (LF) de BASF présentent la caractéristique d’être pourvues d’un réseau tridimensionnel qui se forme au moment du procédé standard de moulage par injection.  Celui-ci  confère au produit final de bonnes propriétés mécaniques tant à basses températures qu’à hautes températures. Le réseau de fibres de verre constitue le squelette de la pièce, lequel sera conservé même en cas de calcination. Tout en conservant les qualités traditionnelles des matières plastiques, les propriétés de ce squelette se rapprochent déjà beaucoup de celles des métaux tant au niveau de la déformation, des caractéristiques de fluage que de l’absorption d’énergie.

La fabrication des matières plastiques à fibres longues se fait en deux étapes :

  • Lors du procédé de pultrusion, il se forme des fils de matière plastique continus et renforcés de fibres de verre ;
  • Ces profilés sont ensuite coupés pour former des granulés d’une longueur de 12 mm. Libre ensuite au client de transformer les granulés LF sur une machine traditionnelle de moulage par injection.

Grâce à une répartition optimale des fibres dans la pièce en matière plastique, il peut se former un réseau tridimensionnel constitué de fibres de 3 à 6 mm de long, sans que cela ne nécessite d’opérations complexes. Sans être obligé de réaliser de gros investissements, le transformateur dispose ainsi d’un nouveau type de matériau hautement performant et innovant comparé aux polyamides traditionnels renforcés de fibres de verre courtes de 0,3 mm de long.

Pour l’automobile et les pièces  fortement sollicitées

Les propriétés exceptionnelles conférées aux pièces sont à mettre sur le compte d’une résistance mécanique accrue, liée au renfort du matériau en fibres de verre longues. Les polyamides Ultramid Structure LF sont très rigides et stables à hautes températures. A basses températures, ils disposent d’une excellente résilience à l’impact. A cela s’ajoutent enfin de bonnes caractéristiques de fluage, une faible déformation ainsi qu’une absorption énergétique nettement supérieure à celle des matériaux conventionnels. Les résultats aux tests de collision sont donc nettement meilleurs. D’ailleurs, l’industrie automobile est l’un des domaines d’application privilégiés des polyamides LF utilisés par exemple pour les supports de moteur ou les inserts métalliques des structures des sièges. Ils servent également à fabriquer des poutres d’absorption de chocs, conçues pour se briser en cas de collision, de façon à absorber un maximum d’énergie et à protéger le reste du véhicule. Dans d’autres secteurs de l’industrie, les polyamides LF servent à la fabrication des pièces hautement sollicitées, par exemple sur les machines à café pour y remplacer les pièces moulées ou encore sur les vélos ou les perceuses pour les pièces filetées et autres composants.

 

Extraits de l’exposé du Dr. Andreas Wollny : Marketing Spécialités Ultramid BASF SE, Ludwigshafen (Allemagne) 

Jeudis du CNRI : le risque agricole

Environnement et volonté citoyenne obligent, le récent Grenelle a permis de mettre en évidence les risques : gestion de l’eau, qualité des sols, risques professionnels auxquels sont exposés les agriculteurs…, mais également risques de déficit de rentabilité, de dépendance accrue de financements publics ainsi que de difficultés de transmissions d’entreprises. La prévention de ces risques est un véritable enjeu planétaire et les pouvoirs publics semblent vouloir se saisir du dossier et peser sur des choix dont découlent non seulement le devenir d’une filière, mais plus largement l’avenir de chaque citoyen.

Qu’en est-il aujourd’hui de la gestion de ces risques ? Quelle prévention met-on en oeuvre pour parvenir à subvenir à nos besoins immédiats tout en préservant ces richesses naturelles pour les générations futures ? Entre agriculture intensive et agriculture biologique, cette agriculture raisonnée est-elle à même de prévenir ces risques ?

Ce sont ces questions auxquelles les intervenants sélectionnés par le CNRI vont tâcher de répondre, le jeudi 9 décembre. « Pour que cette manifestation soit la plus pertinente possible, nous avons réuni des intervenants au fait de leur domaine d’expertise et des problématiques du monde agricole : sur le thème des risques « santé/travail » bien sûr, mais aussi concernant les risques financiers ou encore ceux inhérents à la transmission du patrimoine, pour ne citer que ces trois exemples », précise t-on du côté du CNRI.

Voici le programme de cette journée :

PREMIERE TABLE RONDE

  • Bernard DELAVY : CFPPA de Bourges, Directeur : Un diagnostic global des risques, comme aide à la décision !
  • Patrick PINET : CER France Alliance Centre, Consultant : Anticiper ou subir, la démarche stratégique comme méthode de gestion des risques pour l’exploitation agricole
  • Bertrand JAMET : Crédit Agricole Centre Loire, Responsable des Engagements Agriculture : La gestion du risque en agriculture
  • Docteur Michel GAGEY : Médecin conseiller technique, Échelon National de Santé au Travail, Caisse Centrale de Mutualité Sociale Agricole de Bagnolet. Directeur de l’Institut National de Médecine Agricole à Tours : Productions agricoles et prévention santé… Des cultures à une culture…

DEUXIEME TABLE RONDE

  • Claude TREMOUILLE : Vice-Président du Conseil Régional Limousin : Transmission du patrimoine agricole, un enjeu économique et territorial :une action innovante en Région Limousin
  • Pierre MELLIN : Administrateur du groupe coopératif AXEREAL : Les enjeux du système coopératif dans le monde agricole
  • François DESNOYERS : TV Agri : Les 10 grands défis de l’agriculture française

Pour en savoir plus et assister à cette journée, voir le site du CNRI

Première unité HQE de production de bétons en France

La construction d’une unité de production de béton située sur les bords de Seine du 13e arrondissement de Paris, associée à un quartier en plein essor à proximité d’une université et de la Bibliothèque Nationale de France, aurait de quoi surprendre, sinon choquer, alors que les discours environnementaux se multiplient. Mais c’est sans compter sur le fait que, en 2008, lors du projet de construction de l’unité de production de Paris Tolbiac, Cemex s’est engagé dans une démarche HQE et a décidé de décliner la méthodologie avec l’aide d’un bureau d’études (STIPE).

En concertation avec les architectes de Ports de Paris, Cemex, signataire de la charte Sable en Seine, a fait du confort des riverains une priorité. Innovation majeure, les berges de Seine jusque-là occupées en permanence par des activités industrielles seront désormais ouvertes, au fur et à mesure, aux piétons en dehors des horaires de production. Plantation d’arbres, rénovation du bord à quai par Ports de Paris, architecture épurée des bâtiments, visibilité de la Seine conservée au maximum grâce à des pilotis… Tout a été conçu pour que ce site Cemex réponde à sa double vocation : industrielle et publique. La nuit, l’ensemble est mis en valeur grâce à un éclairage architectural assurant également la sécurité des passants. Cette nouvelle construction prend ainsi place dans le contexte très particulier de la réhabilitation des berges par la ville de Paris pour les rendre accessibles au plus grand nombre.

La qualité environnementale du bâtiment se base sur 14 cibles, notées sur trois niveaux : le site a d’ores et déjà atteint le niveau très performant pour 5 cibles. L’emprise au sol de l’unité de production a été réduite de 50 % par rapport à l’ancienne installation. Des filtres électrostatiques ont été installés pour prévenir toute émission de poussières. Le bruit est maîtrisé et ne dépasse en aucun cas celui du trafic routier adjacent. Quant à la gestion des eaux, elle est conforme aux prescriptions de l’agence de l’eau Seine Normandie (collecte des eaux de process dans les bassins de décantation, stockage et recyclage dans la fabrication des bétons). Enfin, pour limiter les émissions de CO2, Cemex a mis en place des moteurs à haut rendement (classe EFF1) tout au long de la chaîne de production.

Le site se veut également exemplaire en termes de sécurité tant des salariés que des usagers. En dehors des horaires de fonctionnement, l’accès aux différentes parties des installations est condamné et les bassins de décantation recouverts. A noter également, la gestion différenciée des accès, la mise en place d’un plan de circulation ainsi que la sensibilisation des chauffeurs de camions à la sécurité.

Approvisionné en matières premières par voie fluviale, l’unité de production de Paris Tolbiac qui est dédiée aux bétons dits spéciaux (chapes fluides, architectoniques, désactivés…) se distingue comme un projet pionnier dont le retour d’expérience contribuera à la construction de nouvelles installations Cemex exemplaires en France (unités de production de BPE ou installations de traitement sur les carrières). Afin d’améliorer de façon continue le fonctionnement de l’installation en tenant compte des critères environnementaux, l’exploitation du bâtiment intégrera fin 2010 un système de management environnemental certifié ISO 14001.
 
« Le nouveau site de production de Paris Tolbiac s’inscrit parfaitement dans notre politique de développement durable », déclare Alain Plantier, directeur de Cemex Bétons Seine Nord. « En menant ce projet à son terme, nous prouvons qu’il est possible de concilier les intérêts environnementaux et économiques de façon harmonieuse. Cela dans la continuité d’innovations récentes, comme le lancement d’Optim’ CO2, un outil novateur permettant de connaître la quantité de CO2 générée par la production et la livraison de nos produits) ou le développement de filières de recyclage des bétons non utilisés sur les chantiers, » 

Des briques essentielles à l’innovation : les micro et nanoparticules

Qu’il s’agisse des secteurs de la biotechnologie, de la cosmétique, des plastiques, des textiles, des revêtements ou encore des céramiques, tous sont intéressés par l’intégration de micro et nano particules susceptibles d’améliorer les propriétés de leurs produits finis ou d’apporter de nouvelles fonctionnalités. Pour preuve, la croissance de  Pylote, une jeune entreprise innovante issue du Centre d’Élaboration des Matériaux et d’Études Structurales (CEMES), laboratoire du CNRS de Toulouse qui vient de déménager aux portes de Toulouse pour installer son nouvel outil. Cette nouvelle configuration va multiplier par dix sa capacité de production actuelle afin d’atteindre des rendements de l’ordre de deux tonnes par an. Cette montée en puissance sera également appuyée par une augmentation notable des effectifs avec un objectif de 20 personnes d’ici deux ans.

Pylote qui conçoit, intègre et produit des micro et nano particules minérales sphériques à forte valeur ajoutée de 5 µm à 50 nm de diamètre, présente un avantage concurrentiel fort qui réside dans le développement résolument « vert » de ses procédés, ses particules ou encore de ses additifs. Cette volonté se concrétise par l’utilisation de procédés propres et d’additifs respectueux de l’environnement, que la démarche de certification ISO 14001 viendra bientôt appuyer.

A la base de l’activité de l’entreprise, une technologie « propre », n’utilisant que de l’eau, de l’air et de l’électricité, qui permet de concevoir des particules sphériques, de taille maîtrisée,  le tout en une seule étape de quelques secondes, sans intervention humaine intermédiaire (désagglomération, tamisage, broyage, etc) limitant ainsi les risques HSE, la consommation énergétique et donc les émissions de CO2. Le principe est simple : un brouillard de gouttelettes sphériques contenant chacune 1 à N composés est conduit au travers d’un tube de plus en plus chaud. La forme des gouttelettes est conservée tout au long du process par mémoire de forme conduisant ainsi à des nano et micro particules sphériques désagglomérées. Les gouttelettes étant composées de 1 à N composés, chaque particule fabriquée est constituée d’un mélange extrêmement homogène de 1 à N composés.

En mode partiel « basse température », le procédé Pylote  permet de concevoir des matériaux sensibles à la température (hydroxyde, hybrides organique / métaux ou oxydes). En mode complet, il permet de fabriquer des matériaux densifiés et réfractaires.
 
Les micro et nanoparticules sphériques pleines ou creuses, à parois fines ou épaisses qui peuvent présenter des propriétés antibactérien, ignifugeant, luminescence, anti-UV, isolation thermique, mécaniques, électriques… offrent des avantages différents selon leur structures :

  • particules sphériques : préservation de l’intégrité cellulaire, apport de l’onctuosité lorsqu’elles sont employées en tant que charge, augmentation du taux de compaction des céramiques ;
  • particules pleines : idéal pour les propriétés nécessitant le travail du cœur de la particule, résistance mécanique des particules ;
  • particules macro ou mésoporeuse : surface développée atteignant 1000 m²/g, encapsulation d’une grande variété de composés ;
  • particules désagglomérées : plus grande stabilité en dispersion, augmentation du taux de charge sans altérer les propriétés rhéologiques des produits ;
  • particules creuses avec des épaisseurs de parois contrôlées : diminution conséquente de la masse, utilisation pour l’encapsulation d’une grande variété de composés, apporte un haut niveau d’isolation thermique.

Des snowparks nouvelle génération grâce à la RFID

Son nom évoque les snowparks, la vidéo et Internet. Et pour cause. Live@park est une installation à base de technologie RFID qui permet aux surfeurs ou aux skieurs de se chronométrer, de connaître leur vitesse et de se voir en vidéo sur Internet. A2K technologies l’a présentée lors du RFID show fin mars à Paris.

 

La RFID est couramment utilisée pour la course à pied, mais pas pour le ski à cause de la vitesse qui peut aller jusqu’à 50 ou 60 km/h. « Ce n’est pas la même technologie, explique Paul Bonnaure, directeur général et directeur technique de A2K technologies. En course à pied, on peut se servir de bandes fréquences plus basses grâce à un tapis au sol. » A noter également que le Live@park ne fournit pas un chronométrage officiel, il s’agit d’une installation ludique. « Nous utilisons des tags passifs avec bande fréquence UHF [NDLR : ultra haute fréquence] classique », détaille-t-il. Reste qu’il a fallu faire face à un milieu spécifique : la neige, très réfléchissante, et des températures très basses la nuit (-20°C). « Nous avons travaillé avec Orcanthus pour l’électronique. Nous avons mis au point nous-mêmes l’assemblage, toutes les campagnes de test, la diffusion sur Internet, l’intégration et le logiciel. » L’entreprise bénéficie d’une équipe d’ingénieurs spécialisée en RFID. « Nous avons rencontré des difficultés mais nous avons pu soulever tous les obstacles. Un concurrent mettrait au moins un an pour arriver à réaliser le même produit », estime Paul Bonnaure.

Sur une piste de ski, l’installation est constituée de portiques en haut et en bas, et d’une caméra. « C’est un système complètement libre, sans contrainte, sans badge ni tourniquet, commente-t-il. On passe deux portiques sans s’arrêter. » Le système se déclenche grâce à une puce RFID dans un autocollant à coller sur le casque. « A l’origine, nous voulions trouver un moyen d’inciter les skieurs à mettre un casque », rappelle Paul Bonnaure.

original

Un outil marketing pour les stations

Lorsque le skieur passe le portique, le système le détecte et déclenche le chronométrage. La caméra filme en permanence et un logiciel de traitement d’images enregistre dès que le skieur se trouve dans le champ de l’image. A l’arrivée, un autre portique permet d’arrêter le chronométrage. Le relevé de vitesse se fait grâce à un capteur radar. Une fois en bas, le skieur peut voir son temps et éventuellement sa vitesse et sa vidéo sur écran géant. Les vidéos sont ensuite diffusées en streaming sur un site Internet.

Pour une station de sports d’hiver, Live@park constitue un bon outil de communication. Les totems peuvent permettre de communiquer sur ses sponsors ou sur elle-même. De même, les autocollants sont personnalisables. Les stations disposeront également de leur propre site de consultation des vidéos, accessible grâce à une création de compte. Elles récolteront ainsi des adresses mails, ainsi que des informations sur l’âge, la fréquentation, ou encore les sports de leur clients.

Lancé il y a un an, le projet était en phase de démonstration pendant la saison hivernale dans plusieurs stations. « Les premiers retours sont très bons. Nous sommes satisfaits, conclut-il. Nous avons déjà quelques contacts pour l’hiver prochain. » A2K technologies a financé tous les développements et compte rentabiliser son investissement dans les trois ans.

Sécuriser une messagerie électronique : l’exemple du canton du Jura

Dans le cadre de sa nouvelle stratégie de sécurité informatique, baptisée projet « Cofrepi », le service informatique du Canton du Jura a décidé de remplacer son ancienne solution de sécurité de messagerie pour deux raisons principales. D’une part, les performances de filtrage de sa solution anti-spam open source n’étaient pas assez élevées et, d’autre part, les organisations publiques extérieures travaillant avec Le Canton souhaitaient profiter de ses services de messagerie sans pour autant faire partie du même réseau informatique. Après avoir examiné différentes solutions sur le marché, le service informatique du Canton du Jura a opté pour le déploiement de  la plateforme de sécurité de messagerie FortiMail de Fortinet pour protéger ses 1 800 utilisateurs contre les spams et virus.

« Avant d’utiliser FortiMail, nous étions confrontés à d’importants problèmes de messagerie, avec près de la moitié de nos e-mails internes composés de spams », déclare Bruno Kerouanton, CSO du Canton du Jura. « Non seulement FortiMail nous a permis d’éradiquer les logiciels malveillants de nos boîtes e-mails, mais il a également facilité le travail de nos responsables réseaux. Cette solution est simple à gérer grâce à ses options préconfigurées et ses mises à jour automatiques. Nous avons également été convaincus par son mode de fonctionnement et de déploiement, qui nous a permis de gagner en flexibilité et fiabilité. »

Un cluster FortiMail-400B a été déployé pour protéger le système de messagerie interne du Canton du Jura, qui compte près de 1 500 comptes. Les deux appliances opèrent en mode de fonctionnement transparent avec fail-over, pour une facilité d’entretien et une haute disponibilité. Ainsi, chaque jour, une moyenne de 180 000 mails sont filtrés.
 
Pour protéger ses communications par courriel avec des organismes publics extérieurs, le Canton du Jura a également déployé deux appliances FortiMail-100 en mode serveur. Le cluster fournit toutes les fonctionnalités du serveur de messagerie SMTP (Simple Mail Transfer Protocol), avec anti-spam, anti-virus et un support flexible pour sécuriser le POP3  (Post Office Protocol)  Près de 5 000 virus en moyenne sont contrés chaque mois.

« La quantité de spams et autres logiciels malveillants atteignant les boîtes de réception de messagerie électronique augmentent tous les jours, représentent un véritable fléau pour toutes les organismes qui voient leur productivité sérieusement affectée », déclare Patrice Perche, Vice-Président Senior des ventes internationales et du support à Fortinet.