Rien de personnel

La société Muller organise une réception à l’occasion du lancement d’un nouveau produit. Au cours de la soirée, on découvre qu’il s’agit en réalité d’un exercice de coaching pour les cadres de l’entreprise. Progressivement, les rumeurs sur le rachat prochain de la société vont bon train et chacun se retrouve à tenter de sauver sa place.

Le film est composé et décomposé comme un puzzle – à l’image de la restructuration évoquée – et sa reconstruction à l’écran révèle progressivement la gravité d’une situation qui contraste avec l’ambiance festive de la réception organisée par les ressources humaines.

Réalisateur : Mathias Gokalp

Acteurs : Zabou Breitman, Mélanie Doutey, Jean-Pierre Darroussin, Denis Podalydès

Date de sortie : 16 Septembre 2009

Comment réaliser le contrôle d’un ressort ?

Dans la plupart des cas, le ressort est placé dans un mécanisme qui possède une position au repos et une position en fonctionnement. On définit donc un ressort en déterminant deux hauteurs de fonctionnement, H1 et H2 et on mesure les charges attendues lorsque le ressort est comprimé à H1 et H2. Le contrôle demandé consiste à mesurer les forces développées par le ressort à H1 et H2. Pour un ressort standard, l’intervalle de tolérance est de 10 %, il est ramené à 5 % pour un ressort dit de « précision ».

Plusieurs facteurs vont influencer la qualité de la mesure :

La géométrie du ressort :
 

  • concentricité de spires : l’axe du ressort doit être centré ;
  • équerrage des faces d’appui : on obtiendra une meilleure répétitivité avec un ressort dont les faces sont meulées, et dont la dernière spire est jointive ;
  • le rapport hauteur / diamètre : un ressort « élancé » aura tendance à fléchir au cours de la compression (flambage). Dans ce cas, il est nécessaire de le guider pour qu’il reste bien vertical. On utilise généralement des piges de guidage interne. Ces piges doivent être définies avec soin afin que le frottement du ressort sur la pige au moment du flambage, soit minimisé et surtout constant ;
  • le taux de contrainte interne : certains ressorts sont calculés à la limite des taux de contrainte interne admissible. Dans ce cas, lors des premiers essais de compression, le métal travaille dans le domaine plastique et le ressort se « détend » un peu. Les valeurs obtenues lors d’un premier essai seront plus élevées que pour le 3e ou le 4e essai. On demande généralement d’effectuer des mises à spires jointives (souvent 5) avant de réaliser la mesure pour éviter ces variations.

Les paramètres de fabrication :

  • la constance des caractéristiques du fil utilisé, qui peuvent varier dans une même bobine mais surtout d’une bobine à l’autre ;
  • la constance des réglages des machines à enrouler les ressorts ;
  • les contraintes sur le fil au moment du formage du ressort qui conduisent parfois à la nécessité de « détendre » le ressort avant la mesure.

 

Les caractéristiques des testeurs  de ressorts

Voici les points les plus importants pour les machines d’essai de ressorts :

  • géométrie des plateaux : les plateaux doivent avoir une surface parfaitement plane, les deux plateaux doivent être parfaitement parallèles ;
  • la résolution des capteurs : les caractéristiques des capteurs de force et de déplacement (résolution, précision) sont, bien sûr, des éléments déterminants ;
  • pour le capteur de force, les précisions généralement demandées sont de 0.1 % et la résolution plus fine que 1/1000 ;
  • pour le capteur de déplacement, une résolution de 0,01 millimètres est suffisante, sauf dans le cas de tout petits ressorts, de ressorts de faibles charges ;
  • une attention toute particulière doit être apportée à la précision du capteur de déplacement, dans le cas de ressort de grande raideur. En effet, dans ce cas, une petite erreur dans la mesure de déplacement entraînera une grande dispersion dans la mesure de force ;
  • les qualités générales du bâti support de capteur, et surtout sa rigidité.

par Matthieu Legrand pour le blog Andilog Technologies

Des panneaux photovoltaïques recyclables et flexibles

Le moratoire sur les grosses centrales photovoltaïques n’a eu que peu d’impact sur la société Auversun qui avait choisi de cibler une clientèle de particuliers avec le kit 3kWc et des installations sur des toitures de bâtiments agricoles ou industriels. Pour preuve, l’entreprise a la volonté de doubler sa capacité de production, non pas en installant une deuxième chaine de production, mais en innovant pour doubler la productivité grâce à de nouvelles technologies de production d’un nouveau panneau, le premier de ce type, entièrement recyclable. Ainsi, la puissance d’un panneau qui était de 190 Wc en 2009, va passer à plus de 300 Wc à la fin 2011 pour une même surface de cellules. Ces nouvelles cellules sont produites en partenariat avec un producteur de cellules de technologie de pointe.
 
Ces gains de productivité vont permettre de réduire les coûts de production même si les matières premières des cellules de deuxième génération qui en représentent la majeure partie (80 % et le silicium lui-même 80 % de ce pourcentage) et l’encapsulant recyclable sont plus chers dans un premier temps. A contrario, les coûts de production en main d’œuvre et en énergie sont proportionnellement réduits. Par exemple, la main d’œuvre représentant aujourd’hui moins de 5 % du prix de revient du produit fini, il n’y a donc aucune raison de vouloir délocaliser. Au final, en tenant compte de tous ces paramètres, le panneau recyclable est moins cher que l’ancien non recyclable.

Ce développement d’Auversun par l’innovation passe par la création de partenariats avec des jeunes entreprises comme Athélios pour les cellules et panneaux photovoltaïques, Solaire 2G pour la production de panneaux hybrides, chauffe-eau solaire-photovoltaïque, ou encore des fabricants de cellules pour le façonnage de cellules de seconde génération.

Des panneaux 100% recyclables

Auversun et Athélios ont travaillé à la mise au point de nouvelles cellules à partir de semi-conducteurs. Grâce à une meilleure réponse spectrale, les nouvelles cellules ont un rendement de 17,2 à 17,4% contre 15,8 à 16,4%  auparavant pour les polycristallines (+7%) et de 18,6 à 19,1% contre 17,6 à 18% pour les monocristallines (+5 %). Ce qui est énorme en termes de productivité. De plus ces cellules sont flexibles à 360°.

Lionel Girardie, créateur de la jeune entreprise innovante Athélios, précise la définition du panneau recyclable : « Un objet manufacturé ne peut être considéré comme recyclable que si chacun des éléments qui le compose a un cycle de vie propre après la fin de vie de l’objet considéré ». Ce qui n’est pas le cas des panneaux photovoltaïques actuels :

  • le verre solaire utilisé est un verre solaire classique ;
  • le polymère d’encapsulation des cellules, EVA (Ethylène Vinyle Acétate), est réticulé sur le verre et de ce fait non séparable de celui-ci ;
  • la combinaison verre/EVA ne permet de recycler ni l’EVA ni le verre en un nouveau verre en raison des pollutions de la silice cristalline lors de la refonte ;
  • les cellules standard sont à soudure au plomb ;
  • la feuille arrière de protection, à base de Tedlar, est un PVF (polyvinyle fluoride) non recyclable.

En revanche, pour les panneaux photovoltaïques recyclables Auversun, la technologie est tout autre :

  • l’encapsulant à base de silicone devient un joint de fenêtre ou un joint d’étanchéité ;
  • la feuille arrière composée des polymères PVDF (Polyvinylidene Fluoride) ou Téflon est réutilisée en polymère ;
  • la cellule soudée sans plomb et sans métaux lourds est refondue pour récupérer le silicium ;
  • la connectique sans plomb est réutilisée dans les câbles électriques.

Montage et encadrement de tuiles solaires brevetés

Auversun l’utilisera cette nouvelle technologie de production qui est industriellement opérationnelle, dés l’obtention du certificat CSTB. Auversun pourra alors répondre aux besoins exprimés par les prescripteurs, qu’ils soient installateurs, architectes, garants de la protection de l’environnement urbain ou rural. Les cellules de deuxième génération permettront, entre autres, de produire des brise-soleil avec des cellules bifaces permettant de capter les reflets des surfaces vitrées et des tuiles solaires flexibles de toutes les couleurs.

Les procédés de montage et d’encadrement des nouvelles tuiles solaires Auver’clip ont fait l’objet de plusieurs dépôts de brevet. Sur les cotés latéraux, les tuiles se recouvrent et s’emboitent les unes dans les autres grâce à des rainures. L’écoulement de l’eau est facilité par l’absence sur la partie basse de rebord dépassant de la surface de la tuile. Le mode de fixation par clip, très rapide, et le poids léger ne nécessitent pas de renfort de structure de la charpente. L’étanchéité est identique à celle obtenue avec une tuile mécanique.

Les résines s’imposent dans les applications médicales

Lors de la conception de son nouvel équipement mobile de radiologie X (Optima XR220amx), GE Healthcare, un leader mondial dans les technologies médicales, a sélectionné deux résines qui lui permettent de répondre aux exigences de plus en plus contraignantes imposées sur les appareils médicaux. Ces deux résines haute performance, le Valox et le Xylex de SABIC Innovative Plastics qui combinent légèreté, résistance chimique, et durabilité, lui ont permis de répondre à la demande d’amélioration de la sécurité des patients, d’efficacité et de qualité des soins délivrés à des coûts réduits.

Avec cet appareil mobile, le diagnostique radiologique arrive jusqu’au chevet du patient. « Grâce aux résines Valox et Xylex, nous avons créé « une salle de radiographie sur roues », portable, facile à nettoyer et attrayante. Le large gamme de résines et les nombreux services de développement d’applications fournis par SABIC Innovative Plastics nous ont aidés à optimiser la conception et à améliorer les performances de cet appareil de diagnostique nouvelle génération », a déclaré Guillermo Sander, directeur du marketing international, Mobile DXR, GE Healthcare.

Une plus grande liberté de conception que le métal

GE Healthcare a choisi la résine Valox V3900WX, un mélange de polyester et de polycarbonate à fort impact (PC), pour répondre aux demandes de l’industrie des soins de santé d’une sécurité accrue des patients et d’une meilleure maîtrise des coûts. Ce produit fournit la résistance chimique exceptionnelle du polyester et est capable de résister aux désinfectants les plus puissants adoptés afin de lutter contre les infections nosocomiales.

Pour des équipements portables tels que l’appareil de GE Healthcare, la haute résistance aux chocs et la stabilité dimensionnelle du PC permettent de résister aux chocs et aux coups lors du transport au sein de l’hôpital. Cette résine ignifuge, stabilisée aux rayons ultraviolets, qui offre esthétique et aptitude à la coloration lors du moulage, fournit une alternative rentable au traditionnel métal peint. Ainsi, GE Healthcare a pu réaliser un blanc brillant personnalisé, sans le coût et l’impact environnemental de la peinture secondaire. De plus, cette couleur évite  le problème de rayures de la peinture et rend les pièces plus faciles à nettoyer. Enfin, la résine Valox offre une liberté de conception nettement plus élevée que le métal et permet de créer de nouvelles conceptions ergonomiques.

Quant à la résine Xylex X7519HP, elle est composée d’un mélange transparent de PC et de polyester amorphe. Par rapport au PC seul, l’ajout de polyester offre une meilleure résistance aux produits chimiques, tout en aidant à réduire les infections nosocomiales. Le polyester améliore également la résistance de la résine aux fissures sous pression et tolère des traitements à basse températures. Comme la résine Valox, ce matériau présente une bonne aptitude à la coloration.

L’apport calorifique des eaux usées grises pour une production de chauffage

Répondre aux objectifs de 20 % de la consommation quotidienne par des énergies renouvelables en 2020, nécessite le développement et la recherche sur des postes clés consommateurs importants d’énergie comme le chauffage des habitations et des bureaux, l’éclairage, l’eau chaude, l’alimentation des appareils électroménager… Près de 42 % de la consommation énergétique finale est absorbée par ces postes énergivores, correspondant à peu près à 8 % du budget, tendant à croître si les mesures de développement se stabilisent.

L’amélioration technique des installations, l’apparition de de nouvelles réglementations obligeant l’affichage des performances énergétiques amènent un consensus général sur la maîtrise de l’énergie et de son coût. La société Biofluides Environnement, spécialisée dans la fabrication de matériels et produits de traitement d’eau, a présenté une nouvelle technologie permettant la récupération de la chaleur sur eaux grises. L’ERS (Energy Recycling System) est capable d’extraire l’énergie calorifique rejetée dans les canalisations d’eaux usées, en provenance des baignoires, douches, lavabos, éviers et machines à laver, sans perturber leur évacuation vers le réseau public. Face aux pertes de chaleur importantes et quotidiennes évacuées à l’égoût, le pôle de Recherche et Développement de Biofluides Environnement a développé la technologie  TREC (Technologie de Recyclage Calorifique), dont le principe consiste à recycler les calories perdues des fluides caloporteurs au service de tout autre process.

L’Energy Recycling System, issu de cette technologie, est un dispositif d’extraction de la chaleur contenue dans les eaux usées, non chargées, provenant d’usages domestiques (douches, baignoires, lave-linge, lave-vaisselle…), ou industriels (condensats de vapeur d’eau, eaux de lavage, et autres points d’eau chaude). Cette chaleur recyclée permet d’alimenter des installations de production de chauffage, d’eau chaude sanitaire ou de traitement d’air. L’ERS est associé à une pompe à chaleur combinée, spécialement développée pour cette application. Une installation positionnée dans le prolongement de l’écoulement des eaux usées, qui ne perturbe pas leur évacuation vers le réseau public et qui est constituée d’un échangeur inox grande surface à forte inertie et à très faible perte de charge, associé à une pompe à chaleur spécifique. Le process consiste à récupérer les eaux usées à des températures comprises entre 25 et 35 °C vers l’échangeur puis rejetées vers les égouts. Les calories sont récupérées dans la cuve et transférées à la pompe à chaleur, laquelle s’adapte au flux d’évacuation. Parallèlement, l’eau provenant d’un ballon de préchauffage passe, via le circuit condenseur de la pompe à chaleur, de 8 à 55°C (coefficient de performance (COP) de la PAC (pompe à chaleur) de 4,2 à la mise en service). Une chaufferie se charge, en cas de besoin (maintenance), de maintenir l’eau à 55°C, température nécessaire pour l’eau chaude sanitaire.

L’Energy Recycling System apporte une véritable valeur ajoutée, là où la performance énergétique est devenue un critère dominant, notamment dans les projets de construction affichant des objectifs ambitieux ou visant des labels de qualité environnementale sous l’appellation « bâtiment basse consommation » ou « bâtiment à énergie positive ». L’ERS est une nouvelle clé, encore peu exploitée, pour répondre aux exigences de la nouvelle réglementation thermique relative au parc existant. Elle constitue une réponse quant au plan d’efficacité énergétique et dans le cadre du Grenelle de l’Environnement fixant les objectifs pour 2020, et notamment à travers le plan climat adopté par la ville de Paris qui vise une réduction de 30 % des émissions de gaz à effet de serre et une consommation annuelle de 80 kWh/m² de surface habitable de son parc existant. Outre son application dans les bâtiments tertiaires ou à usage d’habitation, l’ERS trouve un intérêt complémentaire dans l’industrie utilisant des process à forte consommation d’eau chaude ou de vapeur à condensats non recyclés.

Luc Vieri pour le Blog de l’Habitat Durable

2011, horizon prometteur pour le marché du MtoM

En 2010, les évolutions technologiques ont semblé de mieux en mieux adaptées aux usages et aux contraintes du MtoM, avec une offre technologique diversifiée et des tarifications plus accessibles. Par exemple, les tags RFID deviennent plus disponibles à faibles coûts. De même, les opérateurs intègrent tous aujourd’hui la consommation au kilo-octet et la couverture en roaming à leurs offres MtoM. Pourtant, ces innovations engendrent encore un coût important et peu d’usages ont obtenu un engouement durable du marché, malgré la disponibilité des solutions techniques. En effet, il n’est pas rare de rencontrer des difficultés à trouver les périphériques sans contact adaptés aux besoins d’un utilisateur, qui proposent des modes de communication online et offline. À cela, s’ajoute une véritable résistance au changement. « Généralement les décideurs demandent à voir, et vont notamment hésiter à investir massivement dans le MtoM sans une maîtrise du ROI (Return On Investment ou retour sur investissement) et une garantie d’efficacité sur les périphériques utilisés », commente Laurent Rapin, responsable BU chez P&T Consulting. « De même, la crise financière, comme dans beaucoup d’autres secteurs, a ralenti le déploiement des technologies MtoM en 2010, la rationalisation des coûts ne permettant pas d’investissements dans les nouvelles technologies. »

Dans l’attente d’une offre ciblée par métier

L’avènement du cloud computing et la maturité du SaaS permettent aujourd’hui de pallier cette situation en déportant les investissements sur les fournisseurs. Ainsi, les décideurs n’ont plus besoin d’investir en termes de serveur ou de technologie en interne : il ne leur reste qu’à juger de la pertinence de la solution MtoM adoptée. Mais ils expriment aussi leur volonté de s’adresser à un prestataire unique qui porterait l’ensemble de l’offre. En effet, il y a beaucoup de prestataires impliqués dans les solutions MtoM : les fournisseurs de périphériques, les opérateurs téléphoniques, les techniciens télécoms, les distributeurs…  D’après P&T Consulting, seul un opérateur télécom est vraiment capable de proposer des solutions complètes et évolutives économiquement, en raison de leurs différents partenariats avec les prestataires technologiques. Enfin, P&T Consulting souligne que les offres MtoM se doivent de proposer des solutions au plus près des exigences requises par les utilisateurs finaux, c’est-à-dire ne plus avoir une offre de MtoM globale, mais bien une offre ciblée par métier qu’il s’agisse du BTP, de services à la personne, de services d’hygiène…

Le marché du MtoM arrive seulement à maturité

Selon les chiffres de l’IDATE (anciennement Institut de l’Audiovisuel et des Télécommunications en Europe), le marché mondial du M2M s’élevait à 11,2 milliards d’euros en 2009 et devrait atteindre 27,7 milliards en 2013. De plus, le marché de la connectivité représente pour les opérateurs mobiles un chiffre d’affaires de plus de 2 milliards d’euros. Avec un rythme de croissance de 20 % par an, ce marché devrait atteindre 4,3 milliards en 2013. Le marché du MtoM représente donc un potentiel énorme pour les années à venir.

Au-delà de l’effort de standardisation et de rationalisation des échanges de données, l’une des priorités de 2011 est de définir un modèle économique permettant la mise en place dans l’entreprise de solutions MtoM à petite échelle, avant un déploiement massif à grande échelle. Ceci permettrait de tester et d’éprouver le système en interne, afin de déterminer les besoins professionnels, le ROI et les répercussions sociales à l’usage avant un déploiement plus général. « Plus globalement, il faudrait déterminer les avantages et les inconvénients de cette technologie en déployant des solutions MtoM sur une liste ciblée de personnes, sur des secteurs déterminés, avant de pouvoir attaquer un marché plus large », estime Laurent Rapin. Si le cloud computing et le SaaS répondent assez bien à cette nécessité, c’est encore le modèle économique des opérateurs, avec abonnement, facturation à l’usage, et dégressivité en fonction du volume, qui apparaît comme le plus pertinent, alors que le marché du MtoM arrive seulement à maturité.

Une des valeurs ajoutées du MtoM reste les aspects liés à la traçabilité et donc au reporting en temps réel, qui génère des gains en réactivité et en productivité dans tous les secteurs. « Que ce soit dans le transport de personne comme dans le suivi de colis ou la géolocalisation des machines, toutes ces données en temps réel apportent une vraie valeur ajoutée au service et à l’activité en soi », commente Laurent Rapin.

Un projet de loi pour doper le MtoM

« L’un des défis de 2011 est d’avoir accès économiquement à une vraie panoplie d’équipements et de techniques de transport de l’information répondant à toutes les situations et permettant de couvrir 99,9 % des besoins des entreprise en MtoM : Ethernet, badgeuse GPRS, téléphone NFC, cartes sans contact, RFID, WiFi et collecte d’informations online et offline. C’est par la baisse du coût des équipements, et par le volume, que l’envol du marché M2M aura lieu. En s’intégrant à des modèles opérateurs, les subventions apportées permettraient également de réduire encore ce coût » souligne Laurent Rapin.

Le marché du MtoM apparait comme une aubaine pour les opérateurs télécoms. En effet, le revenu par nombre de carte SIM est bien moindre que pour l’usage des particuliers, mais en revanche, le taux de rotation est presque nul, car les clients ne changent pas aussi facilement de téléphone ou d’opérateur lorsqu’une centaine ou plus de cartes SIM avec service MtoM a été déployée. « Il faut être le premier opérateur télécom à se positionner sur ce marché prometteur du MtoM », suggère Laurent Rapin. « Je soulignerais enfin un point spécifique à la France : un projet de loi qui devrait influencer fortement le marché du MtoM. Cette loi vise la traçabilité des interventions dans le secteur du service à la personne. Si ce projet est adopté en 2011 comme prévu, les structures de services à la personne seront obligées de s’adapter très rapidement. Elles vont donc devoir anticiper cela courant 2011 », conclut-il.

Portables et appareils électroniques peuvent dialoguer

Les dernières technologies dans les domaines des mémoires non-volatiles et des microcontrôleurs sécurisés ouvrent de nouvelles possibilités d’intéraction entre les téléphones portables et des appareils électroniques. Ainsi, équipé d’un circuit NFC (Near Field Communication) de STMicroelectronics, un téléphone portable peut facilement envoyer et recevoir des données en mode sans fil vers et à partir de tout appareil équipé d’une mémoire EEPROM RF unique dans l’industrie, qu’il s’agisse de systèmes personnels de surveillance médicale, de téléviseurs ou de lave-linge, et ce sans aucune consommation d’énergie embarquée.

« L’association puissante entre des mémoires non-volatiles accessibles par liaison sans fil et la technologie sans contact NFC va modifier la façon dont les utilisateurs interagissent avec toutes sortes d’appareils électroniques au moyen de leur téléphone portable », déclare Sylvain Fidelis, responsable marketing des mémoires RF de STMicroelectronics. « Seule société à proposer à la fois des solutions NFC et EEPROM à interface duale, ST permet d’échanger des données en mode sans contact avec simplicité et sobriété en puissance dans un large éventail d’applications, telles que les diagnostics, la mise à jour de paramètres, l’activation à distance et le suivi des équipements dans les secteurs médicaux, industriels et grand public. »

Les mémoires EEPROM à interface duale de ST assurent un accès RF aux paramètres enregistrés dans des appareils électroniques à l’aide de la technologie RFID passive qui ne consomme aucune énergie embarquée. Dans différents appareils de surveillance médicale par exemple, ces mémoires EEPROM stockent les informations relatives aux patients, ainsi que d’autres données importantes. Avec un téléphone portable qui intègre un routeur NFC conforme à la norme ISO 15693, il est alors possible de télécharger les données, puis d’afficher les informations sur le combiné téléphonique ou de les envoyer à un médecin qui effectuera un diagnostic en temps réel, même lorsque l’appareil de surveillance est hors tension.

Programmation et maintenance faciles 

La combinaison des technologies NFC et EEPROM à interface duale permet également de simplifier considérablement la programmation et la maintenance d’appareils électroménagers et d’électronique grand public. Il suffit en effet à l’utilisateur de placer son téléphone portable à proximité du téléviseur ou du lave- linge pour lire et envoyer des informations de traçabilité ou des données opérationnelles au centre d’entretien. De même, l’utilisateur pourra reprogrammer ou recalibrer l’appareil concerné à l’aide d’un code envoyé par le prestataire de services sur son téléphone portable. La mémoire EEPROM M24LR64 de ST intègre une interface numérique standard I2C et une interface RF passive (conforme ISO 15693). En mode RF, la mémoire fonctionne sans alimentation électrique dans la mesure où l’énergie électrique et les données lui sont fournies par le système. Ceci permet de faire l’économie d’énergie embarquée, et représente un moyen simple et pratique pour programmer ou actualiser des produits électroniques à distance, à tout moment et en tous lieux. Le système sur puce ST21NFCA de ST intègre les éléments logiciels et matériels nécessaires pour constituer un système NFC complet, et prend en charge tous les standards sans contact existants de proximité et de voisinage, parmi lesquels la technologie RF ISO 15693. Cette solution associe l’architecture de microcontrôleurs flexible à une mémoire non-volatile embarquée qui permet de procéder facilement à la mise à jour fonctionnelle du progiciel, et propose plusieurs canaux de connectivité correspondant aux architectures systèmes de différents téléphones.

 

 

Nestlé Nespresso double sa capacité d’emballage

Au cours des dernières années, la demande en produits Nestlé Nespresso, les fameuses « capsules » de café, a atteint un taux de croissance annuel record. Cet accroissement de la demande a conduit Nestlé Nespresso à augmenter la capacité de sa ligne de production, en doublant notamment la productivité de sa ligne d’emballage. Pour ce faire, l’entreprise italienne Cama a créé une machine d’emballage robotisée, assortie d’un système d’alimentation dédié, et conçue sur mesure pour répondre aux exigences de la gamme Nespresso. La réussite de ce projet, devant constituer à terme un prototype pour tous les futurs équipements Nespresso, était donc cruciale. Le principal défi consistant à améliorer la sécurité liée à la manipulation de capsules de petite taille à des cadences variables.

« Nous étions soumis à une pression importante pour que le projet soit mené à bien de façon rapide et efficace », raconte Enrico Induni, directeur de l’ingénierie au sein de Nestlé Nespresso. « C’est toujours un véritable casse-tête de parvenir à respecter à la fois les normes de qualité et des contraintes serrées en termes de délai et de budget. Cama a su résoudre  tous les problèmes et le projet a pu être livré à temps et dans les limites budgétaires. »

La ligne automatisée Nespresso, construite par Cama, est un exemple de système d’emballage totalement automatisé : elle se compose d’un système de chargement robotisé, d’une encartonneuse à chargement latéral et d’une filmeuse. Le système de chargement consiste en un robot à deux axes équipé de têtes « cueilleuses », conçu par Cama pour répondre aux exigences spécifiques de l’application Nespresso. L’encartonneuse à chargement latéral permet d’insérer jusqu’à 10 capsules de café par tube cartonné. Une fois rempli, chaque tube est scellé et reçoit un code par le biais d’un système de codification laser. La machine d’emballage charge les tubes dans des cartons d’expédition contenant chacun 20 tubes. Un système de palettes ramasse ensuite les cartons et les transporte jusqu’en sortie de ligne. Toutes les informations de fabrication sont transmises à un système central de collecte de données via Ethernet.

CAMA a utilisé tout un ensemble de produits et solutions Allen-Bradley de Rockwell Automation pour la conception de cette ligne d’emballage : contrôleurs ControlLogix et CompactLogix, interfaces opérateur RSView et PanelView, variateur Kinetix pour les commandes moteur, servovariateurs et variateurs Allen-Bradley…. Le logiciel ControlLogix, utilisé sur la ligne, comprend des modules standard pour les moteurs et valves, les alarmes et la mesure d’E/S analogiques, ainsi que des boucles PID, et des exemples de séquences de supervision.

Cama a organisé à Locco, en Italie du Nord, un atelier d’une semaine pour les techniciens de Nestlé Nespresso afin qu’ils se familiarisent avec les spécifications techniques des machines. Par la suite, l’entreprise a continué d’assurer des missions de formation pratique au sein des sites de production Nestlé Nespresso, pour apprendre aux techniciens à utiliser l’équipement.

Le projet a été bouclé en à peine huit mois, un délai très court pour un projet aussi complexe. « Dans de telles conditions, le fournisseur et le client doivent faire preuve d’un engagement fort en termes de ressources et de volonté afin de mener à bien le projet », affirme Enrico Induni.  « Ceci suppose de travailler avec des personnes extrêmement compétentes, très qualifiées, disposées à consacrer beaucoup de temps et d’efforts au projet. Elles doivent souvent être joignables 24 heures sur 24 pendant toute la durée du projet. Je constate que les équipes Cama et Rockwell Automation ont réussi une belle collaboration et atteint tous les objectifs fixés. » Depuis l’achèvement de la première ligne de production, Cama a déjà livré six autres lignes et les suivantes ont déjà été commandées par Nestlé Nespresso.

Hacklberger conditionne 36 000 bouteilles à l’heure

Fondée en 1998, l´entreprise Hacklberger Getränke-und Logistikcenter (HGL – Boissons Hacklberger et Centre logistique), issue de la brasserie Hacklberger, vient de se doter d’un nouveau centre de remplissage et d’embouteillage d’une capacité de 36 000 bouteilles par heure. Elle livre, à environ 1 200 marchands de boissons, 14 sortes de bières différentes, 25 bières sans alcool, 4 eaux minérales et 12 produits destinés à la revente. Plus de 300 000 hectolitres quittent chaque année le centre de production.

Les consommateurs n’hésitent pas à mélanger différents types de bouteilles vides pour remplir les casiers qu´ils rapportent pleins au magasin. Une situation difficile à gérer lorsque les caisses remplies de bouteilles mélangées débarquent chez Hacklberger. À leur arrivée, ces caisses sont chargées sur un convoyeur qui les transporte jusqu´à l´atelier de production lui-même, puis sont placées sur un tapis de convoyage où elles sont automatiquement identifiées puis acheminées vers les zones de stockage correspondantes. Les caisses et bouteilles non reconnues lors de cette opération sont triées à la main. Les caisses traversent ensuite une installation de lavage. Lors de l´étape suivante, les bouteilles sont débarrassées de leurs capsules, bouchons et autres éléments de fermeture. Le tapis transporte alors les bouteilles au lavage. Après un traitement de rinçage, les bouteilles sont contrôlées pour vérifier la présence de dommages et impuretés, les bouteilles défectueuses étant automatiquement rejetées. Après la phase de remplissage, les bouteilles sont fermées ou capsulées, puis étiquetées avant d’être dirigées sur la station d´évacuation où elles sont conditionnées dans des casiers puis empilées sur des palettes. Une fois cerclées, les palettes retournent dans la zone de stockage centrale.

Les systèmes d´emballage, de palettisation et de convoyage émanent d´une seule et même source, la société BMS Maschinenfabrik. « Ce qui est important, c´est, d´une part, l´utilisation d’une technique automatisée et, d´autre part, d’appliquer des mesures de tri les plus variées aux différents lots qui sont déballés par l´installation », explique Gerhard Bielmeier, concepteur chez BMS Maschinenfabrik. « La cadence du système est déterminante et ce sont les entraînements qui donnent le « la ». Par conséquent, la technique d´entraînement constitue un facteur essentiel pour la productivité de l´installation. Notre succès tient probablement, en partie, aux techniques d´entraînement de la société Getriebebau Nord que nous employons systématiquement. »

L´installation de conditionnement, de palettisation et de convoyage de BMS fait appel aux techniques d´entraînement mécaniques et électroniques de Nord. Des concepts de systèmes décentralisés sont mis en oeuvre avec le Trio SK 300E compact, qui associe un moteur, un motoréducteur et un variateur de fréquence qui est implanté directement sur le moteur et donc intégré à l´entraînement. L´interface CANopen, sur le variateur de fréquence, permet le paramétrage et la commande des appareils. Il est ainsi possible d´affecter jusqu´à 127 participants à un seul bus. Outre des entraînements décentralisés, l’installation utilise aussi des variateurs de fréquence installés de manière centralisée, qui comportent une commande de positionnement permettant d’effectuer un réglage de position relative ou absolue. « Les options de positionnement supplémentaires simplifient le travail de commande. On peut, par exemple, faire agir une barrière photo-électrique directement sur l´entraînement, afin de l´arrêter ou de le redémarrer. Cela simplifie la programmation », souligne Gerhard Bielmeier.

Les aspects économie d´énergie et respect de l´environnement des entraînements ont beaucoup compté dans le choix de Nord comme partenaire. Ses entraînements sont équipés d´un moteur à faible consommation et d´un motoréducteur à engrenages cylindro-coniques à deux étages présentant un taux de rendement de 97 %. Par ailleurs, tous les matériels bénéficient d´une peinture respectueuse de l´environnement et utilisent une huile biodégradable comme agent lubrifiant. Les variateurs de fréquence garantissent une adaptation optimale des entraînements aux paramètres de l´application et aux conditions du processus grâce à la régulation vectorielle du courant sans capteur. De même, les unités Trio SK 300E présentent de faibles taux d´émissions électromagnétiques : les fils d’alimentation reliant inverseur et moteur n´étant plus nécessaires, les problèmes de compatibilité électromagnétique sont éliminés. Par ailleurs, des filtres réseau intégrés mettent le réseau d´alimentation à l´abri des interférences.

 

 

Ecologie tous azimuts pour des imprimantes

HP, qui s’était engagé à utiliser plus de 45 millions de kilos de plastique recyclé dans ses produits d’impression entre 2007 et 2010, a produit, à ce jour, plus d’un milliard de cartouches d’encre avec du plastique recyclé. Pour ce faire, l’entreprise a mis au point le premier processus de recyclage de cartouches d’encre en « boucle fermée », utilisant des matières plastiques recyclées provenant des cartouches d’encre usagées retournées par les clients. Résultat : une réduction des émissions de carbone d’environ 22 % et de la consommation totale d’eau de 69 %, par rapport à l’utilisation de matières plastiques vierges. Entre 2005 et 2010, la production de cartouches d’encre avec des plastiques recyclés aura conduit à une réduction de 89 % de la consommation d’eau liée à la production de matières plastiques et à une réduction de 33 % de l’empreinte carbone de HP, tout en tenant compte de l’impact de la collecte, du transport et du traitement des cartouches et des bouteilles en plastique usagées. Tel est le résultat d’une étude de Four Elements Consulting, visant à comparer l’impact environnemental de l’utilisation de plastique polyéthylène téréphtalate (PET) avec celui du PET recyclé (RPET). Ainsi, en 2010, l’utilisation de matières plastiques recyclées dans les cartouches (au moins 50 % du poids) aura réduit de 62 % la consommation d’énergie fossile associée à la fabrication, au transport et au recyclage des cartouches.

Par ailleurs, l’engagement d’HP concernant la production de produits composés de matériaux responsables a abouti au développement de la première imprimante sans polychlorure de vinyle (PVC) sur le marché. Ainsi, la Envy 100 e-All-in-One est conforme à la définition du « sans PVC » dans le document « iNEMI Position Statement on the Definition of Low-Halogen Electronics (BFR/CFR/PVC-free) » et réservée aux pièces en plastique contenant moins de 1000 ppm (0,1 %) de chlore (si le chlore provient de plastique armé de fibres de carbone, de PVC ou de copolymères de PVC). Du reste, certains équipements d’impression sont composés jusqu’à 35 % de plastique recyclé.

Des imprimantes labellisées Energy Star

HP propose des imprimantes qui répondent aux critères du label Energy Star, réduisant ainsi la consommation d’énergie et permettant aux clients de réduire leurs coûts. La plupart d’entre elles offrent une fonction automatisée d’impression recto- verso, permettant de réduire considérablement les déchets associés aux impressions. Selon une étude réalisée en 2010, l’empreinte carbone des imprimantes à jet d’encre MiniLab serait inférieure de 33 % à celle des systèmes à halogénure d’argent. En un an, cela représente une réduction des émissions de gaz à effet de serre équivalant à une baisse de la consommation d’essence de 1 242 litres pour une automobile. Si tous les systèmes d’impression à halogénure d’argent utilisés dans le monde étaient remplacés par une telle imprimante, il en résulterait, selon le calculateur des équivalences des gaz à effet de serre de l’agence américaine de protection de l’environnement (EPA ou Environmental Protection Agency), une réduction des émissions de carbone équivalente à celle de 65 000 voitures par an. Enfin, avec des produits tels que les imprimantes laser couleur « tout-en-un » HP d’un prix inférieur à 440 euros, les PME peuvent réduire de 50 % la consommation d’énergie et le coût par page par rapport aux imprimantes laser concurrentes, et de 80 % les déchets associés aux emballages et aux fournitures sur la durée de vie du produit.

Des consommables crées pour être recyclés

HP a développé nombre de papiers contenant des fibres certifiées, c’est-à-dire répondant à un ensemble d’exigences pour la récolte responsable ou durable. Après avoir lancé l’an dernier le papier photo Everyday certifié par le Forest Stewardship Council (FSC), l’entreprise étend cette certification à sa gamme de papiers spéciaux, offrant la certification PEFC (Programme for the Endorsement of Forest Certification) et des papiers certifiés FSC pour des brochures et des dépliants, ainsi que pour des documents de présentation, destinés aux imprimantes en Amérique du Nord. Quant aux papiers recyclés standards dotés de la technologie ColorLok, ils fournissent une qualité d’impression, équivalente à la plupart des papiers non recyclés. Actuellement, HP effectue des recherches sur ses procédés et produits, en collaboration avec Stora Enso, ainsi que sur les processus de désencrage en collaboration avec les principaux fournisseurs de papier, fabricants de presses numériques et organismes de recherche.  La société coopère dorénavant avec le groupe UPM pour identifier et appliquer les meilleures pratiques en matière d’utilisation et d’élimination du papier couché. Ce travail fait partie d’une collaboration de grande envergure dans le domaine du désencrage des impressions numériques, visant à fournir aux entreprises du secteur des médias numériques des solutions plus robustes, possédant moins d’impact sur l’environnement.

Innovations dans le domaine de l’emballage

Plusieurs produits grand public HP sont emballés dans un sac, offrant ainsi un emballage réutilisable ou recyclable à 99 %.  Dans le cadre de l’emballage de ces produits, HP a, dans la mesure du possible, remplacé la mousse protectrice par des renforts en pulpe recyclés et remplacé les sacs en plastique par des sacs réutilisables. En 2010, la société a constaté des réductions significatives de matériaux d’emballage, évitant ainsi l’utilisation de 550 tonnes de polystyrène (calculs sur la base du volume et l’hypothèse d’une mousse de polystyrène dense d’environ 100 kg/m3) et estime avoir utilisé environ 3 919 tonnes de plastique recyclé dans ses imprimantes grand public. En outre, les équipements d’impression de bon nombre de grandes entreprises sont désormais livrés dans un emballage ClearView, permettant d’économiser jusqu’à 147 tonnes de carton ondulé par an  : au lieu d’une boîte en carton ondulé et d’emballages en mousse, HP utilise un film largement recyclable avec très peu de supports en mousse, réduisant ainsi de 70 % le volume et le poids des emballages.

Dématérialiser en 2011… Et si le vrai sujet était la non-matérialisation ?

La dématérialisation est maintenant définitivement ancrée dans le monde professionnel, à la fois du côté des métiers et dans la fonction informatique. Les entreprises n’en sont plus à évangéliser sur ce thème et de nombreux projets ont été menés à bien dans la grande majorité des secteurs d’activité. Toutefois, la signification du terme même prend un sens distinct selon les acteurs, et recouvre des domaines radicalement différents : dématérialisation des documents (numérisation du papier et captation des informations), des échanges (documents nativement numériques avec ou sans signature électronique) ou encore des processus (gestion électronique de documents accompagnée de workflows métiers, case management, archivage et autres coffres forts électroniques).

À la fin de l’année 2010, on a pu lire quotidiennement des articles qui vantaient les réussites de projets de dématérialisation, sur des sujets tels que la facture, le courrier, le commerce en ligne, les bulletins de paie ou encore les télé-procédures dans le secteur public. Bien rares sont les organisations qui ne se sont pas lancées dans la mise en place de tels outils. Que penser alors du niveau de dématérialisation atteint ? Que reste-t-il à dématérialiser ? Quelles seront les prochaines étapes en 2011 et pour les années futures ?

La quasi-totalité des entreprises des secteurs banque et assurance possède désormais des « usines à dématérialiser » qui dématérialisent chacun des flux métiers de l’entreprise comme autant de processus. Cependant, alors que ces grands projets d’évolution ont été justifiés financièrement par les gains liés à la transformation du papier en numérique, leur objectif final est bien de traiter des flux numériques. Ce ne sont pour l’instant que des palliatifs qui devraient profiter de l’accélération prochaine de la disparition du papier.

Enjeu : produire directement des documents sous une forme numérique

Toutes les organisations sont concernées par ce fort développement. D’une part, elles vont devoir suivre les nouvelles règlementations sectorielles. D’autre part, elles devront provoquer la transition des usages de leurs clients et salariés vers le nativement numérique pour les projets déjà engagés. Jugés stratégiques, ces chantiers s’avèrent incontournables pour maintenir la compétitivité des métiers et donc au final celle de l’entreprise. Illustration évidente : la conclusion de contrats nativement numériques. N’est-il pas absurde de produire des documents papier, de les signer et de les numériser tout en les conservant également au format papier en raison de leur valeur juridique ? L’enjeu est bien de produire directement des documents sous une forme numérique, en y associant tous les éléments de sécurité qui vont permettre de garantir la validité du document en cas de litige. Ainsi formulé, on perçoit bien les implications juridiques et commerciales complexes qui peuvent en découler. Nouvel eldorado de la dématérialisation, tous les grands « contracteurs » tels que les réseaux bancaires rêvent de ce sujet, et procèdent actuellement à des études, à des prototypes in situ, ou encore aux premiers déploiements de systèmes.

Ces nouveaux processus de contractualisation non-matérialisés sont utilisables en face-à-face (le client face à son conseiller en agence) ou en mode distant. Ils font intervenir de nouveaux terminaux (tablettes graphiques, téléphones portables, lecteurs de cartes) pour identifier les clients, et des outils tels que la génération de certificats à usage unique ou la signature électronique à la volée. Ainsi, le document original qui engage à la fois l’entreprise et son client, devient nativement numérique. Le format papier devient une simple copie sans valeur, imprimée pour rassurer le client dans son mode de fonctionnement habituel. Il va cependant falloir l’accompagner dans cet engagement sur la base d’un document qu’il ne peut pas physiquement toucher et qu’il n’a pas réellement signé de sa main. Gageons que la généralisation de ces nouveaux usages permettra de lever rapidement les difficultés d’adhésion du grand public. Les grandes entreprises à réseau, banques en tête, sont des précurseurs sur le sujet, attirées par des certitudes de gains considérables, directement indexés sur la masse de documents manipulés.

90% des factures toujours sur papier

Autre sujet d’actualité, la facture électronique. Une facture peut être échangée au format 100% électronique, ou directement entre les systèmes d’information EDI (Échange de Données Informatisées) depuis près de dix ans. Cependant, malgré les innombrables projets « Facture » cités dans la presse ou vantés par les éditeurs, près de 90 % des 2 milliards de factures échangées en France en 2010 le sont toujours au format papier. Dans ce cas, seul le papier fait foi au niveau de l’administration fiscale et sa conservation doit donc être maintenue. Malgré cette contrainte, les projets de dématérialisation ont été générateurs de gains très conséquents, gains partagés entre les entreprises qui ont mis en place ces projets, par les éditeurs qui ont conçus les solutions, et par les SSII qui ont fourni les prestations de conseil et d’intégration.

L’offre de solutions « Facture » est à ce jour totalement aboutie. Cependant les solutions restent palliatives puisque le papier subsiste en très grande majorité. La raison ? Les contraintes technico-juridiques (hors plateformes EDI, destinées principalement aux très grands donneurs d’ordres) qui posent de singuliers problèmes de mise en œuvre, par exemple l’obligation de mettre en place une signature électronique pour une facture électronique alors qu’une facture papier n’est jamais signée… Puisque la non-matérialisation des factures constitue un objectif ambitieux, pourquoi ne pas en profiter pour élargir le débat ? Pourquoi se concentrer sur un seul document – la facture – alors que le processus d’entreprise associe la demande d’achat, le bon de commande, le bon de livraison, ou encore les mises en paiement ? D’une vision « papier » limitée à la facture, on peut prendre de la hauteur et mettre en place des solutions de plus grande envergure destinées aux processus purchase-to-pay et order-to-cash. Il s’agit alors de dématérialiser totalement les autres documents associés à la facture.

Les ROI  (Return On Investment ou retour sur investissement) annoncés sont de fait supérieurs et constituent autant d’opportunités que les entreprises doivent (et vont) saisir au cours des prochaines années. Rappelons également qu’une nouvelle directive européenne est sur le point d’être entérinée pour réduire à 30 jours le délai de règlement des factures de produits ou de services… Raison de plus pour revoir le processus facture dans son ensemble afin de se conformer aux obligations qui vont en découler et réduire encore ses coûts de traitement.

De nombreux documents papier restent encore à être dématérialisés

La dématérialisation ne saurait se limiter aux grandes thématiques fonctionnelles que nous venons d’explorer. Il reste encore de nombreux documents papier présents dans l’entreprise qui vont faire l’objet d’attentions particulières, et générer de substantielles économies. Parmi les grands axes qui feront l’actualité de 2011, on peut d’ores et déjà identifier :

  • les bulletins de salaires, qui ont fait l’objet d’une loi spécifique en 2009 et que l’on peut désormais produire au format numérique avec l’accord individuel de chacun des salariés ;
  • le dossier du fonctionnaire en version dématérialisée, sur lequel l’ensemble des ministères et autres organismes publics vont devoir se pencher dès la prochaine publication d’un décret ;
  • la dématérialisation des procédures d’exportation (alcool, tabac, produits pétroliers) et des documents administratifs associés pour nombre d’entreprises, dès le début d’année 2011 ;
  • le dossier médical personnel dès la fin d’année d’2010, qui comportera de fortes imbrications dans les systèmes d’informations de tous les acteurs du domaine santé ;
  • les différents processus du secteur public, dont la transformation est fortement incitée par la Révision Générale des Politiques Publiques (RGPP) et ses 150 nouvelles mesures pour les années 2011-2013 ;
  • et très probablement de nombreux autres sujets propres à chaque secteur d’activité…

Tous ces thèmes constituent pour les entreprises autant de perspectives de projets à fort retour sur investissement et d’opportunités de poursuivre leur engagement sur la voie du non-matériel !
 
 

par Gilles Moujeard, Responsable de l’offre Dématérialisation chez Micropole
 

Photovoltaïque français : l’après moratoire en question

Chacun connaît la teneur des discussions pour en avoir été informé de près ou de loin par les syndicats, associations, professionnels qui se sont mobilisés et qui ont fait valoir les intérêts de la filière ou leurs propres intérêts.

Plusieurs enseignements peuvent déjà être tirés de la politique du Gouvernement en matière d’énergie photovoltaïque. Politique dont certains diront qu’elle est un échec compte tenu de l’absence de développement d’une filière industrielle française, d’autres un succès (fragile toutefois…) compte tenu déjà du nombre d’emplois créés.

Le premier enseignement est que la création d’une filière industrielle ne se décrète pas ! A l’inverse elle peut être encouragée et dans ce cas son émergence doit être favorisée par des textes lisibles, pratiques et stables, pour donner aux industriels la meilleure visibilité possible sur sa pérennité.

Le second est que le soi disant problème de la fixation du tarif d’achat d’électricité n’en est pas un. Il n’a d’ailleurs jamais été un véritable problème dans les autres filières. Le postulat est simple : le tarif d’achat doit tout simplement être celui qui permet économiquement de réaliser et maintenir le système produisant l’électricité vendue. En-dessous de ce fameux seuil économique, le système de production n’est pas réalisable. Au-dessus, il permet aux producteurs de poursuivre leur développement, aux installateurs de construire, aux mainteneurs de maintenir le système en état, aux industriels de fabriquer et à la recherche de proposer des solutions nouvelles. Le rapport de Mrs CHARPIN et TRINK devrait ainsi présenter, comme ils l’ont fait dans d’autres rapports sur d’autres sujets (Cf les quotas de CO2 post 2012), de vrais exemples de réalisation de projets photovoltaïques selon leur nature, leur objet, leur financement, leur durée, leur montage juridique… Les auteurs pourraient alors confirmer que le Gouvernement n’a jamais très bien su finalement ce que finançait le tarif, notamment souvent des intérêts d’emprunts élevés, des commissions bancaires indécentes, des garanties financières superfétatoires !

Bertrand De Gerando

Titulaire d’un DESS de Droit des Affaires et du Diplôme de Juriste Conseil d’Entreprise (DJCE), d’une spécialité en droit public, Lauréat de la Conférence du Stage, Bertrand de GERANDO est avocat depuis plus de 16 ans et est inscrit au Barreau de Paris. Il intervient exclusivement dans le secteur de l’énergie auprès d’opérateurs énergétiques, d’énergéticiens, de fabricants, de fournisseurs, d’installateurs et de constructeurs de systèmes de production et transport d’énergies comme auprès des investisseurs financiers, des banques et des assureurs du secteur. Il a développé une expertise particulière en matière d’applications juridiques des politiques énergetiques et relatives au climat.

 

Le troisième est qu’une industrie limitée dans sa production n’a aucun avenir. Avec 5 400 MW envisagée d’ici 2020 par le Gouvernement, la filière industrielle photovoltaïque n’a toujours pas décollée. Imaginons alors la situation lorsque le Gouvernement imposera indirectement de rythmer les cadences de production des panneaux à 500 MW par an… C’est comme si vous faisiez miroiter 6000 MW dans l’éolien offshore, pour les réduire à 3 000 MW quelques mois plus tard, et aboutir au final à une limitation de la production d’éolienne à 500 MW par an !!! La question est ici d’actualité : l’histoire se répètera-t-elle dans l’éolien offshore ? Ce qui est certain c’est qu’il n’y aura pas de filière industrielle éolienne (en mer) si l’histoire du secteur photovoltaïque se répète dans le secteur de l’éolien offshore. Soyons clair, l’enjeu n’est plus aujourd’hui de développer une filière industrielle, mais de permettre tant bien que mal à deux ou trois industriels de tirer leur épingle du jeu. Peut-on en effet parler d’une véritable filière industrielle de l’éolien en Espagne (4 ou 5 fabricants) au regard du nombre au moins 5 fois plus important de fabricants en Allemagne ?

Bien sûr les prétoires sont souvent très éloignés de ces considérations et les jurisprudences récentes des juridictions administratives au sujet des derniers atermoiements du Gouvernement en témoignent. Il n’est pas cependant interdit de réfléchir autrement et de souligner que certaines politiques énergétiques nationales ne correspondent pas aux vrais enjeux internationaux.

Dans le secteur de l’énergie photovoltaïque, le terrain de jeu n’est plus, depuis longtemps, circonscrit au territoire national. Les panneaux sont européens, chinois, coréens, américains, indiens… Les installateurs et mainteneurs français travaillent sur d’autres régions du monde (l’Afrique, l’Europe de l’Est…). Certains de nos industriels fabriquent en dehors de nos frontières (Afrique du Sud, Espagne…). Les montages financiers et juridiques sont internationaux, tendant notamment vers la mise en oeuvre d’autres mécanismes de flexibilité (MOP, MDP…) ou de participations (banque mondiale, BEI, fonds verts internationaux…). Les projets sont transfrontaliers (PSM, MEDGREEN, DESERTEC…). Les réseaux de transport sont plus que jamais européens (Cf Commission européenne du 17 novembre 2010 sur le paquet « infrastructures » : interconnexions EST-OUEST, NORD-SUD…).

Alors, devons-nous attendre de participer à ce mouvement, dans ce secteur comme dans d’autres secteurs de l’énergie, sous prétexte que les chinois produisent des panneaux moins chers et de bonne qualité* ? Avons-nous déjà oublié que nous faisons partie depuis 1995 de l’Organisation Mondiale du Commerce ? Allons-nous encore une fois brider nos ingénieurs et nos chefs d’entreprises aux portes de nos frontières sachant qu’ils ne disposeront bientôt plus d’aucune référence (comme d’aucune chance) pour candidater à des appels d’offres privés et publics européens et internationaux ?

Par Bertrand De Gerando

 

DEJA PUBLIE

Pourquoi la France ne sera pas l’industrie photovoltaïque de demain

Instrumentation des suspentes du nouveau pont d’Angers

Comment assurer l’équilibrage précis et la stabilité d’une travée suspendue de 149 mètres de long supportée par un arc métallique et  21 paires de suspentes ? Tel est le défi auquel ont été confrontés les ingénieurs de Baudin Chateauneuf lors de la réalisation de Confluences, le nouveau pont qui franchit la Maine à Angers. L’ouvrage fait au total 293 mètres de long, de culée à culée, sur 17 mètres de large, et doit supporter les deux voies de circulation du nouveau tramway, ainsi que deux trottoirs piétons. « Chaque paire de suspentes est mise sous tension par un système de vérinage, et nous ne connaissions pas la tension réelle présente dans chacune des 42 suspentes au cours de l’opération », se remémore Yoann Urban, responsable d’affaires chez Baudin Chateauneuf. Nous avons donc fait appel au Cetim pour instrumenter les suspentes dans un temps particulièrement court, une quinzaine de jours. »

Afin de contrôler la tension exercée, la surface de chacune des suspentes a été décapée localement pour y coller des rosettes de jauges de déformation montées en pont de Wheatstone. La mise en œuvre a nécessité la préparation au Cetim de plus de 500 mètres de câbles, puis le raccordement des jauges à la centrale d’acquisition, elle-même reliée à un PC. Une interface graphique a été développée afin que les équipes de Baudin Chateauneuf puissent contrôler, en temps réel, le réglage des efforts dans chaque suspente, au fur et à mesure de l’avancement de leur ouvrage. Il a été ainsi possible de garantir la répartition correcte des efforts tout le long du pont, en adéquation avec le calcul de structures exécuté au moment de la conception. Grâce à l’enregistrement de ces efforts, la traçabilité des réglages a pu être assurée continûment. Dans une seconde phase, le système d’acquisition du Cetim doit permettre à Baudin Chateauneuf de contrôler les tensions dans chacune des suspentes lors de l’implantation des superstructures du pont. Le poids de celles-ci (rails du tramway, trottoirs, etc.) équivaut à deux fois le poids en place lors des premières mesures.

Un réseau de radio fixe pour le relevé automatique des compteurs

Partout en France, des techniciens appartenant aux régies des eaux, sillonnent le territoire pour recueillir les informations liées à la consommation d’eau, qui permettront la facturation. Malgré cette mobilisation sur le terrain et les courriers avertissant du passage des techniciens, il n’est pas rare que le montant soit établi sur une base seulement estimative, le compteur étant inaccessible. Ventiseri, une commune corse de 5 000 hectares répartie sur un bourg et deux hameaux, gère moins d’un millier de compteurs d’eau. Une dizaine de jours par an, leur relevé mobilise trois agents municipaux. Une des possibilités pour supprimer cette opération est le télé-relevé visant à collecter à distance et par ondes radio la consommation inscrite sur un compteur, et à automatiser la remontée d’informations vers un outil de facturation central. À la clé : productivité et précision accrues. Aussi, est-il assez courant aujourd’hui de voir des agents administratifs équipés sur le terrain de tablettes PC et autres PDA (Personal Digital Assistant) pour effectuer le relevé de consommation à distance.

Suite à un appel d’offres lancé, la commune de Ventiseri a, elle, retenu une technologie plus rare et mieux adaptée à sa situation de commune rurale.  En effet, « les lecteurs mobiles ont une portée de 500 mètres… dans des conditions idéales : une vue dégagée, pas de vent… Mais le paysage en zone rurale perturbe le signal, et les solutions mobiles ne sont pas pertinentes dans ce cas. Nous avons proposé à Ventiseri le télé-relevé via un système de radio fixe à 868 Mhz », explique Frédéric Rebesco, ingénieur d’affaires chez JIDELEC, société toulousaine spécialiste de la RFID (Radio Frequency Identification Device). Assimilable à un système RFID actif, un réseau de collecte de données par radio permet de couvrir des zones de plusieurs dizaines d’hectares avec des compteurs équipés de balises radio émettrices capables de stocker localement (data logging) et de délivrer sur demande ou sur événement (alerte) des données de mesure. 

Après le renouvellement du parc de compteurs (de marque Elster) qui devaient, de toutes façons, être changés, Jidelec a effectué une analyse de site, construit du réseau radio et enfin installé la borne centrale de collecte au cœur de la commune, interfacée avec un logiciel de facturation. Deux concentrateurs répartis couvrent le territoire étendu sur trois sites principaux (la commune proprement dite, un hameau et un village de moyenne montagne). Une seule journée de formation a suffi et le premier relevé automatique aura lieu en juillet 2010. En 30 minutes, toutes les informations actualisées des 847 compteurs sont rapatriées et intégrées directement dans le logiciel de facturation de la régie. « Les agents municipaux sont maintenant affectés à d’autres tâches de maintenance. Nous allons travailler avec Jidelec sur la mise en place d’un module d’alarme au sein de l’outil qu’ils nous ont installé. Cela nous permettra de détecter les anomalies, fuites résiduelles ou extrêmes, et d’intervenir au plus vite sur le réseau physique de distribution », explique Alain Berthoud, agent administratif de la Régie des Eaux.

 

Développement de trois prototypes de capteurs autonomes communicants

Depuis cinq ans, le projet Captaucom (CAPteur AUtonome COMmunicant), regroupant trois industriels de la région Rhône-Alpes (Seb-Téfal, Somfy, NTN-SNR Roulements), deux organismes de recherche (CEA et CSEM), deux centres de compétence (Mind et Cetim) et un réseau technologique (Thésame), porte sur le développement de briques technologiques innovantes visant à la réalisation de capteurs autonomes communicants très compacts. Le projet vient de se terminer avec d’excellents résultats techniques qui ont permis de concrétiser trois prototypes répondant chacun aux cahiers des charges des entreprises partenaires impliquées :

  •  Groupe Seb : dans le domaine des dispositifs de mesures et de commande dans le petit équipement domestique, a été développé un prototype d’appareil de petit électroménager autonome ;
  •  NTN-SNR Roulements : dans le domaine de la surveillance et du diagnostic d’organes tournants (transports et industrie en général), a été développé un prototype de microsystème de surveillance autonome et communicant de roulement réunissant transmission RF à très basse consommation, traitement du signal, capteurs de température et de vibrations, récupération, stockage et gestion de l’énergie dissipée par un roulement ;
  •  Somfy : dans le domaine des capteurs et des commandes de fermeture et de protection solaire du bâtiment (stores, volets roulants, portes et portails), a été développé un dispositif autonome de sécurité et de surveillance des ouvrants.

Ainsi, ces trois industriels ont pu bénéficier des dernières avancées technologiques en matière de miniaturisation et de réduction de la consommation de composants électroniques ainsi que de l’avènement de dispositifs de micro-récupération d’énergie. Ces innovations ouvrent la voie à de nouveaux systèmes industriels autonomes et communicants. Pour aboutir à ces réalisations, le projet s’est appuyé sur le savoir-faire des laboratoires associés. Le CEA-Leti (Laboratoire d’Électronique et des Technologies de l’Information) s’est consacré à l’optimisation et à la réalisation des systèmes de récupération d’énergie. Pour sa part, le CEA-Liten a pris en charge l’optimisation et la réalisation d’unités de stockage de l’énergie électrique. Quand au CSEM (Centre Suisse d’Électronique et de Microtechnique), il  a essentiellement étudié les protocoles de transmission, le traitement du signal, la récupération et la gestion d’énergie mécanique.

Le projet a aussi fait appel au savoir-faire de centres de compétence et d’un réseau technologique. Le centre de compétence franco-suisse Mind a conçu, optimisé et réalisé des antennes, dans le cadre de sa participation à l’étude de briques de récupération d’énergie ainsi qu’à l’intégration des prototypes finaux. Le Cetim (Centre Technique des Industries Mécaniques).a mis en œuvre ses moyens de tests mécaniques, son savoir-faire en matière de capteur, et la diffusion des résultats technologiques auprès des entreprises de la mécanique. Enfin, la plateforme technologique Thésame s’est occupée de la gestion du projet de l’ensemble de l’étude et s’occupe à présent de la diffusion des principaux résultats. Labellisé par le pôle de compétitivité Arve Industries Haute-Savoie Mont-Blanc, le programme Captaucom a pu bénéficier, depuis 2006, du financement public du Fond de Compétitivité des Entreprises (FCE), de la Direction Générale de la Compétitivité de l’Industrie et des Services (DGCIS) et du Conseil Général de Haute-Savoie (CG74), ainsi que de la participation du Cetim.

 

 

Mobilité et Wi-Fi : comment maintenir ses applications critiques ?

D’après une récente étude conduite par CheckPoint Software, 64% des entreprises se disent préoccupées par la hausse du nombre d’employés mobiles et les risques que les connexions à distance génèrent sur la sécurité de leurs données sensibles. Les chiffres révèlent également que les entreprises ont, en moyenne, recours à neuf prestataires différents pour sécuriser leurs infrastructures, depuis le réseau jusqu’au poste utilisateur. Une multiplicité d’intervenants qui crée des difficultés en terme d’administration et occasionne des ruptures de connexion et des failles de sécurité. Alors comment maintenir et sécuriser efficacement les applications critiques de ses travailleurs mobiles ?

Les problématiques rencontrées par les travailleurs mobiles connectés en Wi-Fi

Il faut tout d’abord distinguer deux types de réseaux Wi-Fi : les réseaux publics et les réseaux privés. Les réseaux publics sont sécurisés jusqu’à la borne Wi-Fi. En revanche, les données ne sont chiffrées qu’entre le terminal mobile et l’infrastructure Wi-Fi. Ensuite, les données transitent par un chemin non protégé pour atteindre leur destination. En conséquence, si le travailleur mobile a besoin d’accéder à une information de l’entreprise, il doit nécessairement passer par Internet avant d’arriver dans l’espace de l’entreprise. Or Internet ne chiffre pas les données. Cette partie du chemin non protégé représente un risque pour les travailleurs nomades connectés en Wi-Fi.

Dans le cas des réseaux Wi-Fi privés, l’information sera chiffrée entre le mobile et la zone Wi-Fi, puis elle atterrira dans une zone d’entreprise, sans passer par Internet. En revanche, cette zone peut être géographiquement sur un autre site ou un autre pays… Impliquant ainsi que les données devront transiter par d’autres réseaux, qui ne sont pas forcément protégés en certains points. Généralement, les entreprises souscrivent à des offres qui vont lui fournir des services de sécurisation du réseau. Mais l’entreprise n’aura pas forcément le contrôle sur chaque point de l’infrastructure. L’information envoyée par un employé à Londres peut par exemple être cryptée sur une portion du trajet jusqu’à Paris, mais pas sur une autre pour des raisons de coût ou autre. Et la multiplication des réseaux des données échangées augmente d’autant les risques.

Le second problème le plus souvent rencontré par l’employé mobile, c’est la persistance des applications, mise à mal par les coupures de couverture réseau. La qualité de la couverture Wi-Fi dépend de l’infrastructure des bâtiments (superficie, murs porteurs, matériaux…) ainsi que des interférences produites par d’autres appareils et il est donc difficile de déployer une infrastructure offrant un débit et une qualité de service optimaux sur la totalité des zones souhaitées. En cas de rupture de la couverture, l’utilisateur sera déconnecté et le fonctionnement des applications sera interrompu, entrainant ainsi une perte de temps et donc un manque de productivité évident, puisque le travailleur mobile aura perdu ses dernières données et devra à nouveau s’identifier et recommencer son travail. La persistance protège et maintient également les sessions des applications lors du passage d’une borne à une autre, le passage d’une infrastructure WIFI à une autre, ou lors du changement d’IP du poste.

Le VPN Mobile sécurise les transmissions et protège les données de bout en bout 

Afin d’éviter de multiplier les prestataires réseaux et sécurité, le VPN Mobile (Virtual Private Network ou Réseau Privé Virtuel) représente la solution adéquate pour garantir la persistance et la sécurité des applications critiques. Sur les deux types de Wi-Fi, public ou privé, un VPN Mobile crée un tunnel chiffré et sécurisé de bout en bout, depuis l’ordinateur portable ou le PDA (Personal Digital Assistant) par exemple, jusqu’au système d’information de l’entreprise. Et ce, quel que soit le chemin emprunté par l’information, que ce soit par Internet, par un équipement d’opérateur, un équipement d’entreprise, d’un tiers, ou d’un hébergeur. Le VPN Mobile est une couche supplémentaire qui sécurise les transmissions et protège les données de bout en bout.

La multiplication de bornes Wi-Fi sur un site afin d’obtenir une couverture optimale, peut représenter un coût considérable et ne garantira jamais une couverture à 100 %. Prenons l’exemple d’une compagnie aérienne dont les employés travaillent dans un hangar de maintenance, il y aura forcément des problèmes de couverture s’ils se déplacent d’un hangar à un autre. Le VPN Mobile va permettre de maintenir l’application ouverte et de continuer sa saisie d’information, même si la connexion Wi-Fi est interrompue. Les informations seront automatiquement acheminées vers le système d’information de l’entreprise dès que la connexion sera rétablie du fait de la persistance du VPN Mobile.

On sait que les services publics, notamment les hôpitaux, rencontrent sans cesse ces obstacles de sécurité et de persistance des applications métiers. Dans un hôpital par exemple, il est impossible d’avoir une connexion Wi-Fi dans tout l’établissement, pour des raisons de sécurité évidentes. Pourtant, les supports mobiles y sont de plus en plus répandus, pour plus d’efficacité et de confort. Comment un médecin peut-il être efficace si une zone non couverte par le réseau Wi-Fi l’empêche de consulter le dossier de son patient ? Sans parler du devoir de confidentialité des données dans le cadre médical. C’est un exemple qui illustre bien toute la pertinence du recours à une couche de VPN Mobile.

La complémentarité des connexions Wi-Fi et des solutions VPN Mobile

Une solution de VPN Mobile couplée à des connexions Wi-Fi garantit donc la sécurité de bout en bout et la persistance des applications critiques. Mais le VPN Mobile peut aussi apporter des fonctionnalités supplémentaires, notamment en termes de visibilité avec des rapports complets sur les usages des travailleurs mobiles. De plus, il peut permettre l’optimisation des flux, en limitant la consommation de bande passante des applications ouvertes pour favoriser les applications critiques nécessaires à l’activité, et en compressant les données cryptées qui transitent. Et, au niveau de la sécurité, le VPN Mobile permet l’authentification de la machine et de l’utilisateur sans rupture de l’activité. De même, au niveau applicatif, il est possible de mettre en place des règles limitant l’accès à telle ou telle application, pour garantir la sécurité et la productivité.

Enfin, si le technicien passe d’une connexion Wi-Fi à une connexion filaire ou 3G, avec une solution de VPN Mobile, il ne va rien perdre de ses données en cours de modification. Par ailleurs, si à l’avenir l’entreprise souhaite passer à la 3G car cette connexion lui convient mieux, le VPN Mobile est totalement adapté et n’impose pas de réinvestir dans une nouvelle solution. L’un des cas que nous rencontrons souvent, c’est une connexion Wi-Fi pour l’indoor dans les hangars et en 3G ou bientôt en 4G pour l’outdoor. Sécurité de bout en bout, persistance et visibilité optimale, ce sont les trois garanties que ne fournit pas une connexion Wi-Fi seule. Cette possibilité de complémentarité entre Wi-Fi et solution VPN Mobile apporte sécurité, productivité et visibilité pour les travailleurs mobiles et les responsables informatiques.

par Sid Ahmed Lazizi, Directeur Technique France, Europe du Sud, Afrique du Nord de NetMotion Wireless  

The informant !

Mark Whitacre est l’un des cadres supérieurs les plus brillants de son entreprise, le géant agroalimentaire Archer Daniel Midlands. C’est aussi un espion industriel qui fournit au FBI les preuves concrètes des manœuvres illicites du grand groupe.

L’histoire vraie d’une taupe infiltrée au coeur d’un des plus grands scandales industriels et qui se retrouve vite dépassée par les événements.

Réalisateur : Steven Soderbergh

Acteur : Matt Damon

Date de sortie : 30 Septembre 2009

 

Auteur : C.C.

Des poudres de polyamides révolutionnent la fabrication des pièces plastiques

Les secteurs de pointe, comme ceux de l’aérospatial, de la course automobile, de la robotique ou des prothèses médicales, ont déjà adopté des technologies dites de « fabrication directe ». Ces dernières permettent de produire rapidement des pièces conçues sur mesure et dotées de propriétés semblables à celles d’une pièce fabriquée par un procédé classique. Jusqu’à présent, le développement de ces techniques de fabrication directe à d’autres marchés restait limité, en raison notamment d’un choix de matériaux très réduit comparé aux procédés de transformation classiques. Pour ouvrir la fabrication directe à d’autres secteurs, Rhodia a développé des poudres de polyamide (PA) pour le prototypage rapide et la fabrication en petites séries par la technique du frittage laser sélectif (Selective Laser Sintering ou SLS) qui permet aux bureaux d’études et aux transformateurs de fabriquer des familles complètes de pièces prototypes entièrement fonctionnelles et de dimensions différentes sans avoir à fabriquer d’outillage. Une fois la conception validée, le SLS peut même être utilisé pour fabriquer des petites et moyennes séries commercialisables.

Avec l’introduction des poudres PA 6, il devient possible d’utiliser les mêmes polyamides pour le prototypage et pour le moulage par injection. « Notre nouvelle gamme de poudres bénéficie de propriétés parfaitement adaptées au frittage laser et à d’autres techniques de fabrication par accumulation de couches », explique Jean-Pierre Marchand, directeur du marketing et de l’innovation pour Rhodia Engineering Plastics. « Leur mise sur le marché rendra ces technologies innovantes beaucoup plus accessibles et ouvrira la voie à de nouveaux marchés et à de nouvelles applications », ajoute-t-il. La fabrication de pièces directement par SLS à partir de poudres PA 6 constitue une première mondiale. Cette gamme de poudres sera étendue dans les prochains mois aux poudres de PA 66. Le secteur du prototypage et de la fabrication rapide utilisant ces techniques d’addition de couches représente, actuellement, un marché de l’ordre de 800 millions d’euros, avec un potentiel estimé à 3 milliards d’euros en 2015. « Dans ce contexte, les perspectives de croissance des poudres SLS est estimé entre 100 et 200 millions d’euros pour 2020 », précise Pierre-Emmanuel Lucas, directeur du projet Poudres Polyamides chez Rhodia.

L’hythane, carburant du futur ?

La sévérité des normes de pollution locale pour les véhicules (Euro I, II, III…), ainsi que les pressions croissantes liées aux enjeux du réchauffement climatique incitent les constructeurs à toujours plus d’innovations sur les modes de combustion, les systèmes de post-traitement ou même les carburants. La filière GNV (Gaz Naturel Véhicule) s’est développée fortement, notamment pour les applications sur des bus et des bennes à ordures ménagères, car elle présente des avantages certains en termes de réduction des polluants locaux et des émissions de gaz à effet de serre. Toutefois, comme l’ont montré différentes expériences étrangères, l’ajout d’hydrogène dans le gaz naturel doit permettre d’obtenir de meilleures performances techniques et environnementales. Agissant pour l’émergence de transports propres et pour l’intégration des énergies renouvelables à ce secteur, la direction Recherche de GDF SUEZ et la Communauté Urbaine de Dunkerque ont, en 2005, avec l’appui de l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Énergie), lancé le projet Althytude (L’Alternative Hydrogène dans les Transports Urbains à Dunkerque). Cette expérimentation qui a consisté  à faire circuler deux bus DK’Bus Marine du réseau dunkerquois, circulant habituellement au gaz naturel, avec un carburant innovant composé à 80 % de gaz naturel et à 20 % d’hydrogène (hythane), s’est achevé en septembre 2010. Elle a permis de tester et de suivre le fonctionnement des équipements sur toute la chaîne, depuis la production de l’hydrogène jusqu’à son utilisation. Une première en France. Au total, les véhicules ont parcouru 40 000 kilomètres chacun et transporté des passagers pendant un an.

Diminution des émissions de GES et de NOx

Après cinq ans de tests, la Communauté Urbaine de Dunkerque et GDF SUEZ, associés à leurs partenaires (ADEME, GNVert, Irisbus Iveco, Véolia Transport, École Centrale de Marseille, Hydrogenics) viennent de présenter  les résultats de l’expérimentation. Ceux-ci montrent que ce carburant permet d’obtenir des bénéfices immédiats pour l’environnement. En effet, l’hydrogène améliore la combustion de gaz naturel, ce qui permet d’atteindre de meilleures performances techniques et de réduire les émissions de gaz à effet de serre (diminution d’environ 8 % par rapport au GNV) et les émissions de polluants locaux (réduction des NOx de 10 % par rapport au GNV). Le bilan carbone est d’autant plus amélioré que l’hydrogène est produit sur site : l’électrolyseur qui décompose l’eau et produit l’hydrogène peut être alimenté en électricité d’origine renouvelable (éolien, biomasse…). Le carburant hythane permet de réduire la consommation énergétique et apporte un agrément de conduite reconnu par les conducteurs de bus. Des essais récents, menés dans le cadre du projet européen Naturalhy, ont permis de visualiser la propagation de la flamme de mélanges de gaz naturel (en fait du méthane pur) et d’hydrogène et de montrer une augmentation sensible de la vitesse de flamme, signifiant une combustion rapide et plus stable. Par ailleurs, pour les collectivités déjà équipées d’une station GNV, l’hythane est applicable aux technologies existantes : GNVert a pu, sans difficulté, adapter la station GNV de Dunkerque en y installant une station de production hydrogène d’une capacité de 120 m3 par jour. Par ailleurs, l’adaptation des moteurs des bus GNV à  l’hythane n’a demandé que de légères adaptations.

A quand la commercialisation de l’hythane ? 

Le mélange de gaz naturel et d’hydrogène a des propriétés voisines de celles du gaz naturel dont les risques sont connus et maîtrisés. À ce jour, aucun accident, mineur ou  majeur,  n’a  été  référencé  dans le  cadre  des  démonstrations, passées ou en cours, menées à l’étranger (Montréal et Vancouver au Canada, Palm Springs et Las Vegas aux USA, Malmö en Suède). Aucun incident de fonctionnement de bus hythane, ou accident dont l’origine serait spécifique à ce carburant, n’a été signalé. À l’heure où le Grenelle de l’Environnement projette une réduction de 20 % des émissions de CO2 dans le secteur des transports d’ici 2020 et l’intégration de 10 % d’énergies renouvelables parmi les carburants utilisés, le carburant hythane répond aux nouveaux enjeux de l’écomobilité et propose une solution concrète permettant d’intégrer dès aujourd’hui l’hydrogène parmi les carburants, avec des technologies éprouvées. Au-delà de ses qualités propres, le GNV peut constituer une passerelle vers les énergies renouvelables et la réduction des émissions de gaz à effet de serre au service des collectivités locales. Cette expérimentation pourrait ouvrir la voie à une éventuelle introduction commerciale de l’hythane dans les transports publics français.
 

 

 

La fibre optique au service de la Coupe du monde de ski alpin

Le 29 et le 30 janvier 2011 s’est déroulée  la 45e édition de la Coupe du monde de ski alpin à Chamonix–Mont-Blanc. Reliée par un réseau de fibres optiques à la piste d’arrivée, la salle de presse a fait bénéficier à 300 journalistes venus du monde entier d’un très haut débit numérique s’élevant à 600 mégabits par seconde.
 
Fruit d’un partenariat entre ATMP, Via Numérica, Chamonix Télécom et la ville de Chamonix–Mont-Blanc, le projet a nécessité moins d’un mois pour aboutir. Six cent mètres de fibres optiques ont été déployées par ATMB afin de relier le site des Houches (point d’arrivée de la course) à la RN 205, gérée par ATMB. A partir de là, 8 kilomètres de réseau de fibres ont ensuite été mis à disposition, relayés par Chamonix Télécom pour assurer la liaison jusqu’à la salle de presse, installée dans le centre-ville de Chamonix–Mont-Blanc.
 
La fibre optique au pays du Mont-Blanc
 
Adjoint au maire de la ville de Chamonix–Mont-Blanc et acteur majeur dans l’installation de la fibre optique dans la vallée du Mont-Blanc, Marc Peters affiche son enthousiasme : « C’est ce qui se fait de mieux en matière de transport de données. Je ne veux pas trop m’avancer, mais je pense que c’est assez inédit en montagne.» Il y a deux ans déjà, cette technologie novatrice avait été mise en place à l’occasion de la Coupe du monde de ski et de l’UTMB (Ultra-Trail du Mont-Blanc). Un an après, elle était  accessible au public ainsi qu’à une vingtaine d’entreprises. La difficulté résidait alors dans le fait d’amener la bande-passante aux portes de la ville. « Nous avons travaillé en collaboration avec Via Numérica pour cela. La bande passante vient du Cern (Centre Européen pour la Recherche Nucléaire) à Genève. Nous avons collaboré avec les Autoroutes et Tunnel du Mont-Blanc pour utiliser leur réseau de câbles qui part du bassin genevois et relie le tunnel », explique Marc Peters. La mise en place de cette technologie de pointe aura également permis une avancée dans le transport de données médicales, les hôpitaux de Sallanches et Chamonix ayant pu être reliés. Un atout non négligeable, selon Marc Peters, dans la course à l’attribution des Jeux Olympiques de 2018 où Annecy est candidate.

Par C.H
 

Le cloud computing, nouvel enjeu pour les hébergeurs

Plus qu’un simple effet de mode, le cloud computing semble s’imposer de façon durable dans la sphère professionnelle. En effet, après avoir été expérimenté à grande échelle, le cloud computing a su démontrer ses nombreuses vertus et contribuer à optimiser les processus organisationnels des entreprises. Ce constat étant posé, il convient maintenant de se pencher sur le volet lié aux hébergeurs. En effet, le cloud computing est indissociable de cette composante qui doit impérativement évoluer afin de répondre à la demande croissante des entreprises.

Maillons cachés du cloud computing, les hébergeurs sont au centre du modèle et permettent à ce concept d’exister et de se diffuser dans l’entreprise. Ils doivent donc évoluer rapidement et se doter d’infrastructures de dernière génération pour répondre aux enjeux du cloud computing qui, rappelons-le, est un marché évalué à plus de 44,2 milliards de dollars en 2013 par le cabinet d’analyste IDC. En France, par exemple, les offres des hébergeurs sont en pleine reconstruction autour de nouvelles solutions de virtualisation et de haute disponibilité.
 
Il s’agit de fournir de la puissance à la demande. Cette donnée stratégique est indispensable pour permettre aux plates-formes SaaS et IaaS  de se développer rapidement. Cette pression importante explique, notamment, les nombreux investissements réalisés par les acteurs historiques de l’hébergement. On assiste ainsi au lancement de différents projets, plus ou moins ambitieux, qui ont pour objectif de répondre à la demande formulée par les entreprises.
 
Ces chantiers titanesques représentent plusieurs millions, voire dizaines de millions d’euros. Ils font émerger un nouveau pan économique et permettent à la France de compter parmi les acteurs européens en pointe sur le marché de l’hébergement et de l’infogérance. L’importance des investissements réalisés tient également à l’utilisation de technologies avant-gardiste qui permet aux projets français de se positionner en vitrine technologique.
 
Il est également important de préciser que les technologies de virtualisation, et plus généralement de cloud computing, participent fortement à l’amélioration de l’efficacité énergétique. Cet élément mérite d’être mis en avant, à une époque où le « Green IT » entre dans les critères d’évaluation et de sélection des administrations et des entreprises.
 
L’externalisation croissante de l’informatique a donc conduit les hébergeurs à se moderniser et a mettre en place les fondamentaux liés à l’ère du cloud computing. Ainsi chaque année, ces derniers doivent pouvoir absorber une demande en constante évolution. Le marché devrait en effet connaître une forte croissance de plus de 23 % par an jusqu’en 2013.
 
Le cycle d’investissement des hébergeurs est donc plus que jamais d’actualité et devrait continuer de s’accélérer ces prochaines années. C’est à cette condition que les hébergeurs et infogéreurs français pourront rester compétitifs et développer leurs parts de marché, en France comme à l’international.
 

Geoffroy de Lavenne, Directeur Général Adjoint d’Integra 

Le plus grand pond suspendu d’Europe modernise ses systèmes de sécurité

La liaison fixe Great Belt connecte la moitié de la population danoise au reste du réseau routier et ferroviaire européen. Environ 11 millions de véhicules et 8,3 millions de passagers de train traversent cet immense pont suspendu tous les ans. Sa construction a commencé en 1988, et en 1997 la connexion a été ouverte pour la première fois au trafic ferroviaire. Un an plus tard, en 1998, la liaison fixe était complètement terminée et également ouverte au trafic routier. L’entreprise publique A/S Storebælt était chargée de maintenir la liaison opérationnelle en permanence, dans des conditions permettant une utilisation de plus de cent ans. La liaison fixe se compose d’un pont suspendu de 6,8 kilomètres (pont Est), d’un pont-passerelle métallique de 6,6 kilomètres (pont Ouest) et d’un tunnel ferroviaire. En tout, la liaison fait 18 kilomètres de long. Une infrastructure de cette dimension nécessite des engagements extrêmes en matière de sécurité. Ainsi, tout le long du pont se trouvent de nombreuses caméras de surveillance ainsi que 7 stations météorologiques relevant en permanence les variations du vent et des conditions météorologiques, de même que des téléphones de secours tous les 600 mètres dans les deux sens.

Le pont étant en service depuis plus de dix ans, une mise à jour des systèmes de sécurité était nécessaire. L’ancien réseau d’interconnexion principal, ou backbone (littéralement « épine dorsale »), avait une capacité de transmission de 2 Mbits/s. Même si ce système offrait encore un débit suffisant, il ne pouvait plus être maintenu. Un nouveau réseau backbone à fibre optique 2 x 1 Gbits/s a donc été installé pour assurer les transmissions des données des stations météo et des caméras de surveillance, tandis qu’un nouveau système de téléphonie de secours en technologie IP a dû être mis en place. D’une part, car les coffrets en aluminium abritant les récepteurs, exposés aux intempéries toute l’année pendant dix ans, étaient sévèrement corrodés, rendant les téléphones inutilisables. D’autre part,  parcequ’ avec l’ancien système, tous les appels aboutissaient directement au centre d’alarme de police de la ville voisine de Slagelse, quel que soit le type d’aide nécessaire. Or, 9 appels sur 10 sont dus à des pannes d’essence, et non à de véritables accidents. Néanmoins, un véhicule immobilisé sur le pont représente un sérieux risque d’accident. La politique est alors de remettre en route le plus rapidement possible le véhicule immobilisé. Dans ce genre de situation, A/S Storebælt a constaté que le moyen le plus rapide de dégager un véhicule immobilisé est tout simplement de lui fournir du carburant ou de le remorquer gratuitement.

Réutilisation du câblage existant

Le nouveau système de téléphonie IP de secours envoie tous les appels au centre de commande d’A/S Storebælt afin que les pannes de carburant puissent être prises en compte, tandis que les appels au secours relatifs à un véritable accident sont transmis au centre d’alarme de la police. Un autre point fort du nouveau système est qu’il est capable d’indiquer l’emplacement exact d’où les appels sont passés, ce qui n’était pas possible avec l’ancien système. Ceci permet des interventions beaucoup plus rapides et un meilleur niveau de sécurité. De nouveaux téléphones en alliage d’aluminium résistant aux intempéries ont été installés, et pour assurer la transmission des données entre le téléphone et le backbone à fibre optique, A/S Storebælt a choisi les prolongateurs Ethernet Wolverine de Westermo. Ces derniers utilisent la technologie SHDSL sur plusieurs paires torsadées, et peuvent fournir des débits jusqu’à 15,3 Mbits/s. Un autre avantage majeur des Wolverine est que le câblage existant peut être réutilisé, permettant ainsi des économies substantielles sur l’installation. Dans le cas présent, les câbles de l’ancien système téléphonique ont pu être réutilisés pour transporter les données du système téléphonique IP, induisant d’énormes économies. Ainsi, 31 unités Wolverine ont été installées sur toute la longueur des ponts, et chacune d’entre elles est raccordée à deux téléphones d’un côté, et au réseau backbone de l’autre côté.

 

« Le passage à l’IPV6 n’est pas la fin du monde ! »

Techniques de l’ingénieur : Quelle est la différence entre l’IPV4 et l’IPV6 ?

Nicolas Fischbach : La différence que tout le monde connaît, c’est le plan d’adressage. Les adresses IPV4 ont des adresses sur 4 octets, alors que les adresses IPV6 ont des adresses sur 128 bits. Mais ce n’est pas la seule différence. Le protocole IP n’est pas juste un format de paquets, un format d’adressage, c’est aussi une suite de protocoles. Et c’est la raison pour laquelle IPV4 n’est pas compatible avec IPV6 : les protocoles sous-jacents qui aident à faire fonctionner le réseau sont différents. Rappelons aussi que si  IPV4 a été défini dans les années 70, IPV6 a été normalisé en 1998.

Si IPV6 existe depuis 1998, pourquoi la transition n’a-t-elle pas été amorcée plus tôt ?

Car il n’y avait aucun besoin de commencer aussi tôt… et aussi aucune offre. Quelle raison y’aurait-il eu de déployer un réseau IPV6 en 1998 alors qu’il n’y avait pas encore de contenu ? Il y aura une pénurie d’adresses IPV4, c’est sûr, mais c’est comme tout. Comme le pétrole, par exemple. On sait que le pétrole va disparaître un jour, mais ce n’est pas pour autant que les gens prennent moins leur voiture !  Aujourd’hui, parmi les mille sites les plus visités au monde, seulement 0,003 % offrent du contenu en IPV6. 2011 s’annonce comme l’année de transition, mais pas la fin du monde !

Pourtant, cela devrait engendrer des problèmes de sécurité…

Le problème de la sécurité est une chose. Les déploiements en masse de l’IPV6 vont surtout ré-engendrer des problèmes qui existaient déjà il y a 10, 15 ans et qu’il va falloir résoudre. Il y a des choses qui vont être cassées. Toute la chaîne, de l’utilisateur à l’hébergeur de contenu, en passant par le fournisseur d’accès, va être touchée. Et il va falloir identifier la source des dysfonctionnements.

Quels types de problèmes vont être rencontrés précisément ?

Une page qui ne marchera pas, des images qui ne s’afficheront pas correctement… L’utilisateur final aura du mal à diagnostiquer la source du problème. S’agira-t-il du terminal, du réseau d’opérateur, du site ? La problématique de la sécurité est différente. Il va falloir veiller à appliquer les mêmes politiques de sécurité pour IPV6 que pour IPV4. Il y aura des failles de sécurité, forcément, puisque beaucoup de logiciels ont été réécrits à cause d’IPV6. Mais ce seront des failles déjà connues, car déjà rencontrées avec IPV4. Aujourd’hui encore, des failles avec IPV4 subsistent, alors même qu’on les pensait corrigées. Il faudra donc mettre à jour les politiques de sécurité d’IPV4 et s’adapter à IPV6. Il ne faut pas penser qu’un logiciel, un équipement, un terminal, qui était sûr en IPV4 le sera aussi en IPV6. Cela concerne les entreprises ou les opérateurs, qui possèdent des processus de certification en interne d’un nouveau produit, d’une nouvelle solution. Concernant l’utilisateur final, ça ne changera pas grand-chose. Son navigateur ne sera pas forcément moins sécurisé parce qu’il fonctionne en IPV6. IPV6 n’est pas la porte ouverte à tout.

Comment va se dérouler la transition d’IPV4 à IPV6 ?

Ce n’est pas vraiment une transition. Il s’agit plus d’une introduction, d’une coexistence.  L’IPV4 va coexister logiquement avec l’IPV6. Cela se passera de la même manière que pour la transition en 1996 vers les numéros de téléphone fixe à 10 chiffres. On va avoir dans le réseau l’introduction d’IPV6, et il y’aura une coexistence de plusieurs années. Dans 10 ou 15 ans, il y’aura encore de l’IPV4 et de l’IPV6. IPV4 ne va pas disparaître dans 3 ans, ni jamais, et tout ne va pas passer en IPV6.  Aucune raison technique ne justifie d’enlever IPV4. Le défi pour les opérateurs sera justement de gérer cette coexistence.

Qu’est que cette transition va engendrer en termes de coût et d’investissement pour les fournisseurs d’accès Internet, les entreprises ?

Cela dépendra de l’âge du réseau et du type d’opérateur. Il ne s’agira pas forcément d’investissements très élevés, car beaucoup d’équipementiers ont déjà un support IPV6. En fait, les investissements seront plus axés sur la partie système qui permet de gérer le réseau, les ordres clients, que le réseau en lui-même. Beaucoup de réseaux savent déjà transporter de façon native du V6. C’est le cas d’ailleurs du V6 World Congress.

Des secteurs seront-ils plus concernés que d’autres par ce changement ?

Oui, les fournisseurs d’accès Internet, les fournisseurs de contenus du type Yahoo et Google, et les entreprises spécialisées dans le commerce en ligne.

L’utilisateur devra-t-il faire quelque chose ?

L’utilisateur lambda, s’il n’a pas de configuration particulière chez lui, devra juste s’assurer que la version de son système d’exploitation est suffisamment récente pour supporter l’IPV6. Si vous avez un vieux PC, avec Windows 95, effectivement vous ne pourrez pas faire de l’IPV6. Mais ce n’est de toutes façons pas une obligation, car il y aura des mécanismes qui permettront de faire le lien, une sorte de traduction entre IPV4 et IPV6. Toutefois, ce genre de déploiements est à éviter autant que possible, car cela casserait beaucoup de choses.

Lesquelles ?

Beaucoup d’utilisateurs vont se cacher derrière une adresse IP unique. C’est le principe du NAT : une adresse IP pour plusieurs utilisateurs. Et au niveau d’Hadopi, cela va poser problème pour identifier les utilisateurs.

Le gouvernement français compte-t-il prendre des mesures à ce sujet ?

Je ne pense pas qu’il soit nécessaire de définir un cadre régulateur. Les attaques de hackers ne seront pas différentes en IPV6, qu’il s’agisse des attaques génériques comme des attaques spécifiques à des fins d’intelligence économique, par exemple.  La seule chose qui risque de changer concernant la sécurité, c’est le spam. Beaucoup de systèmes anti-spams se basent sur la réputation d’une adresse IP. Du fait de l’adressage qui sera énorme, ce système de géolocalisation et de réputation va être rendu problématique.

Quelles sont les entreprises qui seront les premières à offrir de l’IPV6 ?

Colt, par exemple, pour le B to B. Les tests avec certains clients vont démarrer au deuxième trimestre 2011. 2011 sera l’année de la planification. 2012, celle de l’exécution. Pour le B to C, Free offre déjà une version d’IPV6 avec l’implémentation 6RD. Dans les 18, 24 mois à venir, l’IPV6 va commencer à se déployer, doucement mais sûrement. Il n’y aura pas de rush.

Les adresses IPV4 ont-elles été toutes allouées ?

Les derniers blocs ont été distribués la semaine dernière, et cinq sont encore réservés. En fait, c’est un peu plus complexe que cela. Il existe trois niveaux d’allocation : l’IANA (Internet Assigned Numbers Authority), qui gère le pool central d’adresses IP, distribue en Europe ces blocs à un organisme appelé RIPE NCC (Réseaux IP Européens – Network Coordination Center), à qui les opérateurs vont ensuite faire leur demande, sur la base de leur historique d’utilisation, ainsi que leurs demandes futures. Puis les opérateurs redistribuent les blocs à leurs clients. Colt, par exemple, possède au moins 2 ans de réserve. Et la plupart des opérateurs ayant fait un peu de planification pourront encore allouer des adresses IPV4 à leurs clients pour au moins 18, voire 24 mois.

Les rumeurs selon lesquelles un marché noir d’adresses IPV4 pourrait apparaître sont-elles fondées ?

Il peut y avoir un marché noir, mais il faudrait pour cela qu’un opérateur puisse annoncer les adresses dans le réseau. On ne peut ni acheter ni router soi-même les adresses IP.  De plus,  les adresses IP appartiennent à RIP NCC, et RIP NCC peut vous les reprendre à n’importe quel moment. J’ai aussi entendu une rumeur qui disait que les opérateurs allaient moins, voire ne plus du tout distribuer d’adresses IP à leurs clients. Ce n’est pas dans leur intérêt. Si un opérateur ne donne plus d’adresses IP à ses clients, comment pourrait-il espérer gagner de nouveaux clients ? Toutes les approches alternatives auront un impact financier à terme…

Vous tenez un discours plutôt rassurant en fait.

Il faut. La phase de panique est passée. Il y’a beaucoup plus de rationalité maintenant. Je ne dis pas qu’il faut ignorer les problèmes, il y’en aura forcément. Mais ce n’est pas la fin du monde.

Pour finir, quels ont été les apports du V6 World Congress ?

Rassembler et partager les expertises, car il y a beaucoup de fragmentation, de gens qui ont testés l’IPV6 seuls dans leur coin. Et aussi rassurer. C’est une bonne préparation en vue du World IPV6 Day, qui doit se dérouler le 8 juin de cette année.

Propos recueillis par Carole Hamon

De la comprimeuse jusqu’au palettiseur, sans rupture de chaîne

Dans le cadre du développement de ses derniers produits de santé, Bayer Santé Familiale a lancé un appel d’offre international concernant l’aménagement et la mise en place sur son site de production de Gaillard, en Haute-Savoie, d’une ligne complète à configurer dans un espace réduit. Objectif à atteindre : offrir des cadences très élevées, sans aucune rupture de chaîne, de la comprimeuse jusqu’au palettiseur. La comprimeuse de départ de ligne, destinée à la fabrication de nouveaux comprimés, devra être directement configurée avec la machine thermoformeuse afin d’éviter toute rupture par le stockage traditionnel intermédiaire en « big bag » des produits en sortie de la comprimeuse, et leur transfert entre les deux machines. Finalement, c’est le Groupe CAM,  un des pionniers de la technologie de l’emballage et du conditionnement, qui a été retenu.

L’installation CAM désigne une application industrielle atypique, où la fabrication des comprimés est directement liée au conditionnement. Une première zone est dédiée à la fabrication et au conditionnement primaire des comprimés. La comprimeuse est reliée à la thermoformeuse par le biais d’une trémie tampon élévateur et d’un tapis motorisé. Un sas permet de relier cette première zone à la deuxième dédiée, quant à elle, au conditionnement secondaire et tertiaire. Les blisters sont conditionnés en étuis par une encartonneuse HV alors que la codification Datamatrix et les mentions variables sont appliquées et que le contrôle est effectué par une caméra de vision, le tout en entrée de la trieuse pondérale. Après ce contrôle, c’est au tour de la vignetteuse. Pour satisfaire aux différentes exigences de distribution des marchés mondiaux, les étuis sont ensuite traités de deux manières différentes :

  • avec un premier type de regroupement par mise sur chant, fardelage et cellophanage ;
  • avec un second type de regroupement par mise sur pied, fardelage, introduction en barquette et cellophanage.

Les fardeaux sont ensuite étiquetés et mis sous caisse américaine. Le palettiseur, en fin de ligne, est équipé d’une étiqueteuse de caisses et d’un magasin de 20 palettes d’autonomie. Il est également doté d’un élévateur interne qui permet de réaliser la configuration de demi-palettes par superposition (configuration demandée par la logistique).

Difficulté supplémentaire : des comprimés carrés

Le deuxième objectif de Bayer Santé Familiale était d’atteindre une cadence de 1 100 blisters par minute, alors que traditionnellement sur le marché, les cadences avoisinent 500 blisters par minute. Pour répondre à cette dernière demande, le Groupe CAM a reproduit la ligne en configurant deux comprimeuses FETTE avec deux thermoformeuses CAM regroupées en parallèle et reliées ensuite avec deux systèmes d’alimentation à une seule encartonneuse CAM. Contrainte supplémentaire et non des moindres, la forme carrée du comprimé risquait d’entraîner des risques de bourrage. CAM a donc dû concevoir un dispositif de chargement, un acheminement ainsi qu’un convoyage totalement spécifiques et dédiés.

Enfin, afin d’éviter toute éventuelle contamination de produits croisés (en cas, par exemple, de production de comprimés aux « arômes » différents), le système a été conçu pour permettre une opération de nettoyage aisé et un entretien du « vide de la ligne » pharmaceutique. La mise en place par le Groupe CAM de cette nouvelle ligne de production  sur le site de Gaillard permet ainsi à Bayer Santé Familiale d’obtenir un back-up de toute la gamme Rennie sur cette nouvelle ligne.  L’ensemble des machines CAM mises en place à ce jour chez Bayer Santé Familiale a pour  autre avantage d’être complètement évolutif dans le temps, permettant ainsi de faire évoluer la production selon les besoins produits du client en termes de nouveauté (étui, regroupage, changement de format, …), sans avoir à reconsidérer la ligne complète.

 

 

Un coupé sport chinois mise sur les thermoplastiques

Objet d’une attention médiatique intense depuis plusieurs mois, le lancement de l’A3CC, le coupé sport du constructeur chinois Chery Automobile, pourrait bien, selon les commentateurs, changer la qualité de la conception en Chine. En effet, ce nouveau modèle fait largement appel aux matériaux plastiques hautes performances utilisés dans les applications s’étendant des ailes de classe A aux composants structurels, respectant ainsi l’objectif de l’entreprise de devenir leader mondial du secteur automobile.

Depuis cinq ans, Chery Automobile collabore avec SABIC Innovative Plastics Automobile sur ce projet. « Nous avons choisi de collaborer avec cette entreprise sur l’A3CC coupé sport, en raison de sa renommée mondiale et de ses capacités, bénéficiant en plus de leur support au co-développement sur ce projet », affirme Shen Haojie, administrateur de la seconde division de développement de produit, et directeur de programme pour l’A3CC pour Chery Automobile. « Fournir des matériaux hautes performances n’était qu’un début. L’équipe de SABIC Innovative Plastics a compris nos besoins, et par conséquent a fourni les matériaux, la conception et l’expertise en choix d’outillage afin de nous aider à atteindre nos objectifs. » Cette collaboration a débouché sur trois applications clés qui ouvrent un potentiel d’utilisation accrue à l’intérieur du véhicule et aussi dans d’autres lignes de produits :

  • l’aile avant : Chery Automobile est le premier équipementier chinois à utiliser la résine Noryl GTX conductrice pour la production en série d’une aile. Le remplacement des panneaux en acier de la carrosserie par cette résine a permis de réduire le poids de l’aile de plus de 50 % par rapport à l’acier (1,37 kg contre 2,80 kg), tout en offrant une meilleure résistance à l’impact à basse vitesse que l’acier. Le Noryl GTX peut être peint en ligne avec la caisse en blanc, évitant ainsi les opérations secondaires et assurant une parfaite correspondance des couleurs. De plus, cette résine conductrice ne requiert pas d’apprêt avant la peinture ;
  • la trappe à carburant : cette pièce est traditionnellement moulée et peinte par le fournisseur du composant, ce qui peut potentiellement causer un problème de correspondance de couleur avec la carrosserie. En moulant cette pièce à partir de la résine Noryl GTX, elle peut être peinte à la chaîne avec le reste de la caisse en blanc et la carrosserie. Cette approche rationalisée permet d’éviter des problèmes de qualité et améliore l’esthétique ;
  • les absorbeurs et dessous de caisse : le pare-chocs avant de l’A3CC comprendra un absorbeur d’énergie fait de résine Xenoy et un dessous de caisse moulé avec le compound polypropylène à fibres de verre longues Stamax. Ces composants sont conformes aux exigences de protection des piétons Phase II de l’Union Européenne (EU) 2003/102/CE et de la ECE au niveau de la jambe inférieure, et conformes aux tests normalisés de la sécurité routière fédérale (FMVSS ou Federal Motor Vehicle Safety Standards) sur impact à basse vitesse. Le système de pare-chocs arrière comprendra aussi un absorbeur réalisé en résine Xenoy, et sera conforme aux exigences ECE et FMVSS d’impact à basse vitesse d’un véhicule.

 

Lancement du « Collaborative Performance Management »

Le Gartner Business Intelligence Summit 2011 qui vient de se tenir à Londres, a été  l’occasion pour Gartner de présenter sa vision récente sur la façon d’adapter la business intelligence aux nouveaux besoins du marché suite à la dernière mutation de l’économie et de livrer une vision sur laquelle les dirigeants d’entreprises souhaitent s’appuyer. Il a également été l’occasion pour Tagetik, fournisseur de solutions de performance management, gouvernance financière, risques et conformité, et de business intelligence, d’expliquer l’importance croissante du collaboratif au sein de la gestion de la performance et de présenter une solution pour rendre la business intelligence, le performance management et la communication financière aussi collaboratifs que possible. Le développement de ce concept de Pilotage Collaboratif de la Performance ou Collaborative Performance Management (CPM) est né de la collaboration et des synergies entre Tagetik et Microsoft sous la forme de la solution logicielle « Tagetik 3.0 Enabled by Microsoft SharePoint Server 2010 ».  Le but est d’offrir à l’ensemble de l’entreprise un système unifié de pilotage de la performance et de la communication.

Gestion des problématiques de communication financière, de reporting opérationnel ou de conformité XBRL, procédures de budgétisation, de planification et de prévision, planification et contrôle de la production et des ventes opérationnelles… Tagetik 3.0 Enabled by Microsoft SharePoint unifie les processus et applications financiers essentiels tels que le performance management (PM),  la gestion des risques et de la conformité (GRC), le disclosure Management,  la business intelligence (BI),  le collaboratif et  la communication. « Étendre le performance management  à la prise de décision collaborative est le nouveau défi pour les organisations complexes qui cherchent, à la fois, à piloter leurs performances de façon plus efficace, à faciliter le travail d’équipe des différentes parties prenantes sur des systèmes multiples, et enfin à améliorer la qualité de prise de décision opérationnelle et stratégique », précise Manuel Vellutini, EVP Chief Operating Officer de Tagetik. « Microsoft et Tagetik ont uni leurs forces pour répondre au besoin croissant d’intégration de technologies collaboratives au sein des processus de performance management et de business intelligence, un concept que nous avons baptisé « CPM (R)Evolution ». Les deux éditeurs s’engagent surtout à supporter les entreprises cherchant à rendre plus efficace l’implémentation de stratégies tout en améliorant la façon dont elles gèrent et contrôlent tous leurs domaines d’activité.

Adoption des langages XBRL et iXBRL

« Grâce au nouveau module Collaborative Disclosure Management intégré à Tagetik 3.0 Enabled by Microsoft SharePoint, les entreprises peuvent tirer le maximum à la fois d’une BI avancée et d’outils de communication et de collaboration afin de préparer, analyser et publier tous types de données financières allant des budgets et des rapports opérationnels, à la consolidation statutaire et aux rapports de conformité RSE », poursuit Manuel Vellutini. « Cette solution permet aux employés d’une entreprise de rassembler leurs documents et notes liées au processus de clôture via un portail unique. Elle réduit la quantité de tâches à effectuer manuellement, assure la validité des données destinées à la communication financière et inclut le support intégral des langages XBRL et iXBRL dans le respect des toutes dernières exigences règlementaires. » Notons que les langages XBRL (Extensible Business Reporting Language) et IXBRL (Inline XBRL) élaborés par l’ICCA (International Congress and Convention Association), l’AICPA (American Institute of Certified Public Accountants) ainsi que d’autres organismes professionnels et diverses entreprises comme vecteur électronique d’information financière et d’entreprise, seront obligatoires au Royaume-Uni à partir du mois d’avril. « Nous avons longtemps partagé une vision où les processus de BI et de PM seraient aussi collaboratifs que possible. Nous y sommes désormais parvenus avec une plateforme unique de pilotage collaboratif de la performance destinée à améliorer la communication financière et la prise de décision sur l’ensemble de l’organisation », conclut Pierluigi Pierallini, PDG de Tagetik.

 

 

Réparation tout-temps des conduites endommagées

Creuser des égouts coûte cher et n’est pas une tâche facile. Les rues sont bloquées pendant que des pelleteuses défoncent la chaussée, qui devra être remise en état en fin d’opération. Cela explique ainsi le succès des solutions sans tranchées. À l’aide de caméras et d’enveloppes souples renforcées de résine, il est possible de procéder aux réparations par les bouches d’égout. L’enveloppe qui est saturée de résine et introduite dans la conduite permet, après séchage, d’obtenir un « tuyau dans le tuyau ». Les résines habituellement utilisées sont à base de polyester et durcissent à température ambiante. Après mélange, elles peuvent être travaillées pendant 30 à 60 minutes, ce qui peut parfois poser problème. Alan Carolan, responsable des travaux et du chemisage chez Machmade, société franchisée Dyno-Rod, spécialiste leader des réparations d’égouts à Liverpool (Grande-Bretagne), a constaté que la résine à base de polyester avait montré ses limites lors des chaleurs du début de l’été 2010 : « Nous avons eu des températures frisant les 30°C tous les jours. Le personnel utilisait du polyester mais la polymérisation était trop rapide. Il  n’avait pas le temps d’installer l’enveloppe qu’elle était déjà sèche. »

Pour les conduites de 10 à 15 centimètres de diamètre, Alan Carolan a donc décidé d’utiliser la résine époxy Epropox 120 de Trelleborg qui reste exploitable pendant environ 2 heures. « Il faut environ une heure et demi à deux heures pour durcir l’enveloppe à l’aide d’eau chaude et ça marche bien. Il n’y a pas beaucoup de marge d’erreur, mais on obtient une très bonne finition de l’enveloppe, sans aucun pli. L’un des principaux atouts de la solution est la fiabilité de la nouvelle résine. On peut mieux estimer le temps de travail. Avec un séchage à l’air ambiant, on n’est jamais sûr », indique Alan Carolan. La gamme Epropox comprend des résines à plusieurs durées d’emploi allant de 60 minutes à 44 heures à 25°C, ce qui permet aux opérateurs de choisir le produit qui leur convient le mieux. Les résines à la durée d’emploi la plus longue sont utiles pour les égouts très larges, pour lesquels l’enveloppe peut être imprégnée à l’usine ou au dépôt, évitant ainsi les perturbations sur le lieu de l’intervention. Lorsque l’enveloppe est mise en place, on peut entamer l’opération de polymérisation à l’aide de vapeur ou d’eau chaude, ce qui permet de mieux contrôler le processus. « C’est une façon de minimiser les risques. Pas de gaspillage et pas de panique car on a amplement le temps de travailler », explique Dave Illingworth, Directeur Général de Machmade.

La modélisation pour améliorer son handicap

Les ingénieurs de Cleveland Golf voulaient notamment mener des recherches sur l´incidence de différents manches de club sur les performances du driver. La souplesse du manche et la façon dont la courbure et la torsion varient sur toute sa longueur, jouent en effet un rôle essentiel pour déterminer la distance que va parcourir une balle de golf. Avec l´aide du docteur John McPhee, président de la recherche industrielle du NSERC (Natural Sciences and Engineering Research Council)  et professeur en ingénierie de conception de système à l’Université de Waterloo (Canada), ils ont utilisé MapleSim de Maplesoft afin de créer un modèle de driver.

Le manche lui-même fut modélisé à l´aide du composant intégré de poutres flexibles. Le modèle de tête de driver fut conçu avec le plus grand soin pour intégrer les caractéristiques précises de la tête de driver de Cleveland Golf, y compris les facteurs de masse et de moments d´inertie. Pour simuler toute une variété de swings effectués par des joueurs différents, on procéda à des mesures expérimentales auprès des meilleurs joueurs de l´équipe universitaire de golf. L´information recueillie fut injectée dans le modèle sous la forme des 6 degrés de liberté de mouvement du grip, déterminant ensuite le mouvement du manche. Différentes versions furent déclinées à partir de ce modèle initial en modifiant les paramètres du modèle pour satisfaire aux propriétés de différentes conceptions de clubs.

A l´issue de la validation des modèles par rapport aux données expérimentales obtenues, on s’est aperçu que la simulation et les données expérimentales relatives à la vitesse, la levée et la retombée de la tête du club à l´instant du contact avec la balle, concordaient bien, voire très bien. En outre, les modèles MapleSim se sont avérés beaucoup plus rapides à l´exécution que des modèles similaires basés sur la méthode des éléments finis.

« Les modélisations MapleSim que nous réalisons nous permettent de prédire les conditions du lancer de la tête de club avec d’avantage de variables, une précision plus élevée et des temps de mise en oeuvre plus courts », a déclaré John Rae, directeur de recherche du service de R&D de Cleveland Golf. « En utilisant les outils de simulation de MapleSim, nous pouvons générer des calculs de swings personnalisés en nous basant sur toutes les variables de l’équipement, ne laissant ainsi rien à la spéculation. »

Grâce à ses modèles dynamiques de drivers de golf validés, Cleveland Golf peut rapidement explorer différentes conceptions et de nombreux scénarii pour développer un club de haute performance, en minimisant les besoins en prototypes onéreux et les coûts induits par la réalisation d´une série de tests physiques.

Séminaire MathWorks : l’approche Model-Based Design

À l’heure où la conception des équipements industriels se complexifie du fait de l’utilisation de logiciels embarqués, bon nombre d’entreprises doivent se plier à des impératifs quotidiens de réduction des coûts et des délais de développement. La méthodologie Model-Based Design permet d’y répondre en :

  • facilitant les processus de développement, accélérant le cycle de développement ;
  • facilitant la conception des systèmes embarqués ;
  • permettant la réduction des coûts et des délais ;
  • servant à implémenter des lois de commandes et des logiques de gestion des défauts.

Le développement traditionnel d’un système physique passe par plusieurs phases : une phase de conception, une phase d’implémentation, et une phase d’intégration et de test. Ce type de développement possède néanmoins certaines limites :

  • des problèmes de communication entre les différents services ;
  • un cloisonnement entre la phase de conception et la phase d’implémentation.

Model-Based Design permet de lever ces barrières. En détectant les erreurs très tôt dans le processus de développement grâce à une procédure de vérification continue par la simulation, MBD améliore la communication et offre ainsi plus de rapidité. Démonstration avec Laurent Vaylet, ingénieur d’application.

Développement d’une loi de commande pour un moteur à courant continu

Le système utilisé est un petit moteur électrique à courant continu, qui déplace une inertie d’un certain angle. C’est le modèle idéal de moteur électrique, car il n’y a pas de frottements. Le test est réalisé avec Simulink, un environnement graphique édité par The MathWorks qui permet de créer des prototypages.
 
Première partie : modélisation du système et loi de commande
 
Model-Based Design est l’interface qui va permettre d’optimiser le système, la partie physique et la partie contrôleur.

  • Travail sur la partie physique

Modélisation par identification

La première méthode est la modélisation par identification. On commence par prendre des mesures. Pour cela, on excite le modèle par l’injection d’un bruit blanc. Il s’agit de trouver le modèle mathématique correspondant le mieux à ces données fréquentielles. Une possibilité est de demander à Matlab d’estimer 10 modèles. Une fois identifié, le modèle est ensuite inséré dans l’interface. Au lieu d’avoir une boite noire, on obtient un modèle identifié.

Modélisation physique

Il ne s’agit plus d’un système identifié, mais d’un modèle mathématique.

  • Travail sur la partie contrôleur

Concernant l’optimisation de la loi de commande. Prenons l’exemple d’un contrôleur qui n’offre pas de performances optimales. On va le remplacer par un régulateur PID (ProportionneI intégral Dérivé) qui va automatiquement être réglé grâce à Simulink. La suppression des oscillations va nécessiter un filtre coupe-bande, en l’occurrence l’outil Simulink Control Design, qui va permettre le réglage du PID et le réglage de la fonction de transfert.

Deuxième partie : gestion des défauts (stateflow) et tests temps réel
 
Prenons l’exemple d’une défaillance d’un capteur. Pour y remédier, on passe en mode dégradé pour stabiliser le système, l’idée étant de gérer différents modes de fonctionnement. Ce qu’on appelle « stateflow » ou gestion des défauts, est destiné aux « machines à état ». Les machines à état étant des circuits de logique séquentielle servant à générer des signaux de commande. Très visuel et très intuitif, le stateflow est très utile pour gérer les bugs. Il est comparable au « cerveau de la simulation », et permet, par exemple, de gérer la boite à vitesse d’une voiture. L’idée est d’injecter des défauts pour tester le modèle. On injecte des valeurs puis on lance une simulation de 5 secondes environ. On teste le mode « fast failure », puis le mode « slow failure ».
Concernant maintenant la partie prototypage temps réel. Elle se fait via une liaison Ethernet et à l’aide de la boite à outils xpcTarget. On passe en mode externe, on choisit un temps de simulation en « infini », et  on sélectionne la cible xpTarget. On remplace ensuite la partie physique par les entrées-sorties du matériel, on compile le code C et on génère un exécutable. XpcTarget permet ainsi le réglage de paramètres en temps réel, l’analyse et la visualisation de données en temps réel.
 
C.H.

Le système lightRadio redessine l’avenir des technologies mobiles

Fruit de la recherche des Bell Labs, la branche R&D d’Alcatel-Lucent, le système lightRadio va permettre de réduire sensiblement la complexité technique des réseaux mobiles haut débit et de limiter leur consommation d’énergie et autres coûts d’exploitation, dans un contexte de forte croissance du trafic. Le système lightRadio se caractérise par un allègement et une simplification radicale des stations de base et des tours cellulaires massives actuelles, qui sont généralement les éléments du réseau les plus énergivores mais aussi les plus chers et  les plus difficiles à entretenir.

Le système crée une nouvelle architecture dans laquelle la station de base, généralement installée au pied de chaque tour cellulaire, est fragmentée pour que ses composantes soient redistribuées entre l’antenne et un réseau virtuel de type « cloud ». D’autre part, les multiples antennes dispersées qui supportent les différents systèmes 2G, 3G et LTE (Long Terme Evolution) sont toutes rassemblées pour ne former qu’une seule et unique antenne réseau active à large bande multifréquence et multistandard (2G, 3G et LTE) ultra-puissante. Cette antenne réseau peut être installée sur un poteau, le mur d’un bâtiment ou n’importe quel endroit disposant d’un branchement électrique et d’une connexion haut débit. 

Les atouts du lightRadio

Les produits lightRadio, dont les premiers éléments pourront être testés par les clients au second semestre 2011, offre les avantages suivants :

  • la protection de l’environnement : utilisé sur des équipements de réseau d’accès radio actuels, le système lightRadio permet de réduire jusqu’à plus de 50 % la consommation énergétique des réseaux mobiles (pour référence, les Bell Labs estiment à 18 millions de tonnes les émissions annuelles mondiales de CO2 des stations de base). En outre, grâce à ses petites antennes modulables, le lightRadio offre une alternative aux armadas de grandes tours cellulaires surencombrées que l’on trouve aujourd’hui ;
  • la réduction de la fracture numérique : en réduisant un site cellulaire à une simple antenne et grâce aux futures techniques de backhauling hertzien et de compression, cette technologie permettra, à terme, de fournir facilement une couverture haut débit partout où il y a des sources d’énergie (électrique, éolienne, solaire) et en utilisant une connexion hertzienne au réseau ;
  • des économies importantes pour les opérateurs : utilisé sur des équipements microcellules et LTE, le système lightRadio peut conduire à une réduction de 50 % du coût total de possession des réseaux mobiles grâce aux économies réalisées en termes de gestion de site, de consommation d’énergie, d’exploitation et de maintenance (pour référence, les Bell Labs estiment à 150 milliards d’euros les dépenses totales des opérateurs dans l’accès mobile en 2010).

Des innovations majeures

Les produits lightRadio se composent d’une antenne réseau active à large bande, d’une tête radio distante multi-bandes, d’une unité en bande de base, d’un régulateur et d’une solution de gestion commune SAM 5620. Il réunit un certain nombre de technologies et d’innovations révolutionnaires développées par les Bell Labs et un écosystème d’entreprises :

  • le Cube lightRadio, technologie d’antenne unique des Bell Labs, réunit dans un petit cube, tenant dans le creux de la main, un diplexeur, un système radio, un amplificateur et un système de refroidissement passif. Cette nouvelle génération d’antennes actives permet la formation verticale de faisceaux indépendants (beamforming) pour une amélioration de 30 % de la capacité sur sites urbains et périphériques, une prise en charge de toutes les technologies (2G, 3G et LTE), ainsi qu’une couverture de diverses bandes de fréquence via une seule unité ;
  • le système sur puce (System-on-a-Chip ou SoC) développé conjointement avec Freescale Semiconductor intègre un logiciel intelligent d’Alcatel-Lucent sur du matériel entièrement programmable à distance. En transférant les éléments d’une station de base classique sur un système sur puce, la solution lightRadio applique le traitement à l’endroit le plus approprié du réseau : antenne ou réseau virtuel (cloud) ;
  • des algorithmes de compression uniques permettent de multiplier par près de trois la compression des signaux IQ de référence. D’importantes économies seront réalisées sur les réseaux radio grâce à la réduction du nombre et du coût des paires de fibre nécessaires pour prendre en charge le trafic entre l’antenne et le traitement centralisé dans le réseau cloud ;
  • des plates-formes de traitement virtualisées : Alcatel-Lucent va utiliser un logiciel de virtualisation et va travailler avec des partenaires comme HP pour donner vie à une architecture mobile virtuelle pour les régulateurs et les passerelles. En adaptant la charge à la demande, grâce à une capacité de régulation « élastique » distribuée sur des plateformes matérielles dispersées et partagées, les réseaux mobiles devraient être plus économiques, plus disponibles et plus performants.

Alcatel-Lucent est déjà engagé dans des processus de planification avec China Mobile et un certain nombre d’autres opérateurs dans le monde pour des partenariats de mise en œuvre du système lightRadio et des essais terrain. L’antenne réseau active à large bande pourra être testée dans quelques mois et sera entièrement disponible en 2012. D’autres éléments de cette famille de produits seront disponibles d’ici 2014.