Décisionnel : vers de nouveaux modèles de construction

 [Publié le 4 mai 2011]

En dix ans, le décisionnel a pris dans l’entreprise une place stratégique mais se trouve aujourd’hui confronté à une difficulté majeure en raison même de sa position au cœur du système d’information : l’impossibilité pour la direction informatique de satisfaire dans des délais acceptables les multiples demandes émanant de toutes les strates de l’organisation (direction générale, directions métiers, équipes opérationnelles, voire clients et fournisseurs).

Ce manque de réactivité a pour conséquence de pousser les utilisateurs à rechercher par eux-mêmes des solutions répondant plus rapidement à leur besoin mais qui, échappant au contrôle de la DSI, fragilisent le système décisionnel en le fragmentant, ce qui le rend d’autant plus difficile et coûteux à maintenir et à faire évoluer. In fine, c’est la capacité de l’entreprise à piloter ses activités et à assurer sa conformité réglementaire qui est affectée et, partant, sa compétitivité dans un environnement économique où il faut avant tout savoir aller vite et anticiper.

La réaffirmation de quelques principes architecturaux permet de briser ce cercle vicieux et de mettre en place un modèle de construction et de gouvernance donnant aux utilisateurs plus de liberté et d’autonomie tout en garantissant l’intégrité du système décisionnel et son aptitude à satisfaire rapidement les nouveaux besoins.

Quatre principes à respecter

Pour atteindre ce double objectif de réactivité et de maîtrise, le premier principe est de réaffirmer l’unicité et la transversalité du système décisionnel. Il faut pour cela assurer son  étanchéité vis-à-vis des autres systèmes de l’entreprise, de façon à ce que l’environnement décisionnel ne soit ni affecté, ni remis en cause par les évolutions inévitables que connaissent les systèmes opérants qui l’alimentent : non seulement les montées de version, ajouts, retraits et consolidations d’applications mais aussi les réorganisations internes et les cessions, acquisitions et fusions d’activités ou d’unités opérationnelles.

Le deuxième principe est de décomposer le système décisionnel lui-même en sous-systèmes urbanisés, remplissant chacun de manière autonome une mission bien déterminée. Ce découplage des fonctions permet à chaque sous-système d’être indépendant des autres et d’évoluer plus rapidement en fonction des demandes de service des autres sous-systèmes.

Le troisième principe, indissociable du précédent, est de normaliser les échanges et les communications entre les différentes composantes du système décisionnel et entre celui-ci et les autres éléments du système d’information.

Enfin, moins souvent appliqué, le quatrième principe consiste à dénaturer les données qui entrent dans le système décisionnel le plus en aval possible, c’est-à-dire au plus près des métiers, de manière à ce qu’elles conservent leur intégrité fonctionnelle et restent exploitables par le plus grand nombre d’applications décisionnelles sans nécessiter de re-transformation.

Une architecture urbanisée

Le respect de ces principes permet de mettre en place une architecture décisionnelle industrialisée mais au sein de laquelle les utilisateurs (directions métiers, filiales ou autres) disposent d’espaces de liberté pour mener des initiatives répondant à leurs besoins propres sans mettre en péril la cohérence globale du système.

Cette architecture repose sur des briques ou sous-systèmes urbanisés, encadrés par un système d’administration garantissant la conformité fonctionnelle et technique de l’ensemble et, grâce à un métadictionnaire central, la normalisation de la sémantique. Le premier de ces sous-systèmes assure la collecte des données. Seul point d’entrée dans le système décisionnel, c’est lui qui spécifie aux systèmes sources le format dans lequel les données doivent lui être envoyées. Son rôle se limite à un traitement de contrôle avant d’envoyer les données dans le deuxième sous-système : le data warehouse, qui stocke et historicise les données selon un format non dénaturé et une sémantique unifiée, rendant les données utilisables par tous les sous-systèmes avals.

Le data warehouse est en effet le principal point d’alimentation de sous-systèmes spécialisés où les données sont transformées, modélisées et enrichies pour répondre aux besoins spécifiques de reporting, d’analyse et de consultation des différents métiers de l’entreprise. En dessous de ces sous-systèmes métiers, un sous-système partagé regroupe les outils de présentation et de diffusion de l’information décisionnelle et gère les habilitations d’accès aux données ainsi que les rôles des différentes catégories d’utilisateurs. 

Des espaces de « liberté encadrée » pour les métiers

L’originalité de ce modèle est de subdiviser chaque sous-système spécialisé en deux parties. La première est un espace industrialisé, géré par la DSI, qui prend en charge la collecte, l’intégration et le stockage des données selon les règles requises par les applications décisionnelles propres au métier. Le second est un espace où, sans intervention de la DSI, les utilisateurs peuvent charger et organiser librement des données et développer, selon leur niveau de compétence et les droits qui leur sont octroyés, des bases et des traitements spécifiques, des requêtes, des exports, des tableaux de bord simples, des rapports dynamiques, des analyses ou des simulations.

Dans cet espace de liberté, les directions métiers font ce qu’elles ont toujours fait et font de plus en plus depuis l’apparition d’outils de BI (Business Intelligence) particulièrement faciles à maîtriser comme Microsoft, QlikView ou Tableau Software ou certaines nouvelles lignes de produits des grands éditeurs : construire elles-mêmes des applications répondant à des besoins spécifiques, urgents, récurrents ou ponctuels. Mais, inscrites dans un cadre contrôlé, monitoré et borné, ces initiatives ne portent pas atteinte aux autres applications. Elles contribuent au contraire à enrichir le système décisionnel et accélèrent la réalisation des projets.

En effet, si une application créée dans cet espace apporte de la valeur et correspond à un besoin pérenne, la direction métier peut demander son industrialisation. Les demandes sont gérées par la DSI qui, une fois leur pertinence validée, les exécute dans le respect des normes de qualité de données, de documentation et de production. Ce processus allège le travail de la DSI, notamment les phases de spécifications et de recette. Il élimine « l’effet tunnel » qui plombe tant de projets décisionnels puisque, en attendant la livraison de la version industrielle de l’application, la direction métier peut, sans dommage, continuer à utiliser « sa » version.

Une gouvernance spécifique indispensable

L’expérience montre que ce mode de construction et de gestion peut être mis en place quelque soit l’existant décisionnel de l’entreprise. De grandes entreprises l’ont adopté pour lutter contre la prolifération d’applications fragiles mais coûteuses à maintenir basées sur Excel et Access ; d’autres pour maximiser la valeur des applications analytiques développées dans certaines filiales en rendant ces applications accessibles à toutes les filiales sous forme de services ; d’autres encore pour limiter les risques en attendant la finalisation de leur data warehouse. Il n’est donc pas nécessaire de « partir de zéro » pour tirer avantage de cette approche.

Si ce modèle couvre les couches fonctionnelles, applicatives et techniques, son bon fonctionnement est en revanche indissociable de la mise en place d’une gouvernance spécifique, rapprochant les directions métiers et la direction informatique et précisant leurs domaines de responsabilités. Le schéma de gouvernance exige en particulier une maîtrise d’œuvre transversale, dédiée au décisionnel ; une maîtrise d’ouvrage capable de faire des arbitrages dans les demandes d’industrialisation émises par les métiers ; une cellule de gouvernance propre à chaque espace métier, dont les responsables gagnent à être formés aux exigences et contraintes de l’informatique ; enfin, entre ces instances, des workflows fluidifiant les collaborations et les décisions, ainsi que des procédures pour remonter les anomalies et les corriger.
 

par Denis Skalski, Directeur Conseil Business Intelligence chez Keyrus  

Alliance de la sécurité et de la productivité pour les presses plieuses

Les techniques d’automatismes étant caractérisées par une dynamique importante, de nouveaux développements technologiques sont indispensables afin de satisfaire, d’une part, aux exigences actuelles de sécurité relatives aux presses et, d’autre part, afin d’augmenter la rentabilité des machines. Pour les presses plieuses, Pilz a développé une solution de sécurité qui s’adapte particulièrement à ces équipements, tout en augmentant sensiblement leur cadence des presses plieuses et contribuant à l’augmentation de la productivité.

Cette solution compense les inconvénients que présentent les composants conventionnels de sécurité, souvent utilisés de nos jours, tels que les barrières immatérielles. Des concepts de sécurité sophistiqués et adaptés de façon optimale au process de fabrication, conçus avec des fonctions de diagnostic, ne peuvent pas être réalisés sur cette base. Les temps d’arrêt et de réglage sont longs et l’efficacité de certaines machines est limitée. Ce n’est pas le cas de la solution proposée par la société Pilz qui est composée de deux produits : le système de commande PSSuniversal PLC et le système de caméras de protection et de mesure PSENvip. Ce dernier surveille optiquement l’ensemble du processus de pliage. Installé sur le tablier supérieur de la presse, il détecte jusqu’à 10 m les plus petits corps étrangers qui peuvent se trouver dans l’espace de protection entre l’unité d’émission et l’unité de réception. De plus, il enregistre des données de commande importantes du processus de pliage, détecte la tôle et mesure automatiquement l’angle de pliage. La surveillance de la course de freinage est intégrée.

Avance rapide vers la tôle

Le système PSENvip se caractérise par une fonction de muting dynamique qui se répercute directement sur la productivité de la presse. Tandis que l’outil supérieur peut, en mode de muting normal, parcourir les derniers millimètres jusqu’à la tôle uniquement à la vitesse de sécurité autorisée de 10 mm/sec, il se déplace, en cas de muting dynamique, à une vitesse maximale jusqu’à la pièce à usiner. En d’autres termes, la distance parcourue par l’outil supérieur à vitesse réduite est raccourcie à un minimum.

Si le muting est dynamique, le champ de protection est progressivement diminué. Cela est possible grâce à un champ de mesure qui maintient le champ de protection du PSENvip stationnaire au point de rupture de la pièce à usiner. Les segments du haut du champ de protection sont désactivés avant la pénétration de l’outil supérieur dans le champ de protection. Au même moment, une rampe de freinage de sécurité est lancée pour diminuer la vitesse. Une vitesse réduite de sécurité de 10 mm/sec est uniquement atteinte directement sur la tôle. Par conséquent, la presse peut exécuter plus rapidement chaque coup de presse. D’autre part, le muting dynamique permet également d’exclure le dernier risque de lésion. En effet, la machine est complètement sécurisée jusqu’à une petite ouverture de 6 mm située directement au-dessus de la tôle. Une contusion est ainsi impossible en vitesse lente.

Un système de commande qui garantit la sécurité

Des modules d’entrées et de sorties ainsi que deux modules de compteur de sécurité sont connectés sur la tête de station du système de commande qui a deux tâches essentielles : la surveillance du muting dynamique et du profil de vitesse lors de la procédure de freinage.

Si le muting est dynamique, il faut s’assurer qu’il a effectivement été déclenché au point de rupture connu si le champ de mesure du PSENvip est en contact avec la tôle. C’est pourquoi le système de commande sélectionne de manière cyclique les codeurs incrémentaux afin de déterminer la position de l’outil. La commande numérique signale le point de rupture. Sur la base de ces valeurs, le système de commande réalise un contrôle de plausibilité et vérifie le point de rupture. Si la coupure des sorties mute ne devait pas se produire au moment prévu, la presse est stoppée.

Pour s’assurer que le processus de freinage a été déclenché en cas de muting dynamique et que la vitesse de l’outil supérieur a diminué, le système de commande surveille la rampe de freinage. À cet effet, le système de commande calcule la vitesse à partir des signaux de codeurs et compare ces derniers avec le profil de vitesse ou la rampe de freinage, dès la réduction du champ de protection et jusqu’à ce que le point mute ait été atteint. La presse est arrêtée si la courbe limite est violée en termes de vitesse et de parcours.

Par ailleurs, le système de commande PSSuniversal PLC surveille naturellement toutes les fonctions dédiées à la sécurité d’une presse : du sélecteur de modes de fonctionnement à la commande des électrovannes de sécurité des presses, en passant par l’arrêt d’urgence.
 

IOI Loders Croklaan optimise son process grâce à l’isolation thermique

La nouvelle usine de la société hollandaise IOI Loders Croklaan, producteur et fournisseur d’huiles et graisses végétales, fabrique des composés alimentaires traités aux enzymes, qui constituent une innovation majeure dans ce secteur industriel. Elle répond également aux objectifs stratégiques à long terme de la société IOI Loders Croklaan en termes de développement durable : elle incorpore les technologies les plus récentes en matière de récupération de chaleur, de minimisation des émissions de CO2 et de réduction des dépenses d’énergie. Lors de la conception de l’usine, IOI Loders Croklaan a travaillé en coopération étroite avec des experts en environnement pour minimiser son impact sur l’environnement (le port de Rotterdam) et les écosystèmes.
 
Selon Gert van den Berg, Project Manager chez IOI Loders Croklaan, l’isolation constituait un facteur de conception majeur : « Étant donné que le développement durable revêtait une importance essentielle, l’isolation n’était pas seulement une exigence nécessaire. Nous croyons aussi qu’une isolation efficace peut aider à optimiser notre process. Un relevé d’isolation par Senter Novem a confirmé clairement que l’isolation peut apporter une contribution significative aux économies d’énergie. En fait, les résultats de calcul sont tellement probants que nos départements Achats et Maintenance ont tous deux été agréablement surpris. »

Une vanne isolée = 3 000€ d’économies annuelles

Une vanne non isolée équivaut par exemple à au moins 5 m de tuyauterie non isolée. Selon les calculs du centre néerlandais de l’isolation technique NCTI (Nederlands Centrum voor Technische Isolatie), l’isolation efficace d’une seule vanne sur une conduite vapeur à 220 °C de diamètre DN 150 peut économiser jusqu’à 9 650 m3 de gaz par an. Cela représente une économie annuelle de pratiquement 3 000 €, qu’il faut comparer à un modeste investissement d’environ 200 €, soit un retour sur investissement de moins de deux mois.

Suite à la collaboration avec Rockwool Technical Insulation, la nouvelle usine IOI Loders Croklaan est maintenant entièrement isolée. Gert Prins, responsable Santé et Sécurité chez IOI Loders Croklaan, explique : « Nous avons décidé d’isoler toutes les vannes et les brides, parce ce que c’est là qu’on perd le plus de chaleur et d’énergie. Ici, l’isolation est très vite amortie. Pour le reste, nous avons veillé à ce que toute la tuyauterie, les cuves et les équipements soient isolés le plus efficacement possible. »

Gert Prins tire ses conclusions: « Il est évidemment plus facile d’intégrer l’isolation dans une nouvelle conception, où on peut optimiser les performances des matériaux isolants. Notre choix de matériaux initial était basé sur notre expérience antérieure ainsi que sur les normes de la commission sur l’isolation de l’industrie néerlandaise CINI (Commissie Isolatie Nederlandse Industrie), avec des adaptations en cours de projet. Le développement durable reste pour nous une considération clé et nous sommes satisfaits d’avoir pu réduire notre empreinte carbone. Nous sommes bien sûr aussi enchantés de constater la réduction des frais de maintenance et l’amélioration notable de notre retour sur investissement. »  

Un îlot robotisé dans l’atelier des tranches de silicium de Photowatt

L’avenir du photovoltaïque reste incertain sur le territoire français, car il faut se battre contre plusieurs phénomènes : l’un, étant la concurrence chinoise qui commence à inonder le marché mondial de produits de moindre qualité mais moins chers, et l’autre, des incitations de l’Etat français, revues à la baisse pour les crédits d’impôt, aux particuliers qui souhaitent s’équiper de panneaux photovoltaïques, sans oublier la baisse du prix de rachat de l’électricité solaire par l’EDF. Leader français du secteur photovoltaïque, Photowatt ne baisse pas les bras pour autant et veut faire la différence avec, non seulement des panneaux plus performants et à durée de vie plus élevée, mais aussi des systèmes désormais intégrés dans la toiture même (Wattéa), ou encore des centrales photovoltaïques clés en main.

Implanté en région Rhône-Alpes, Photowatt est le seul à intégrer les trois étapes de la fabrication sur un même site :

  • la récupération de la matière première à partir des pierres de silicium pour obtenir des tranches de silicium ;
  • la réalisation de la jonction électrique en salle blanche ;
  • l’assemblage des cellules dans les panneaux.

Une nouvelle structure pour mieux gérer son développement

La capacité de production de Photowatt étant  passée de 3 MW en 1996 à 70 MW aujourd’hui, il lui a fallu repenser sa chaîne de fabrication. Cette tâche a été confiée à une nouvelle société créée sous le nom de PV Alliance (Photowatt en partenariat avec EDF et le CEA), laboratoire créé spécifiquement pour concevoir les développements du site de Photowatt. L’une des missions de Nicolas Jarru, technicien Process qui fait partie de cette équipe, a été la réalisation d’un îlot robotisé pour l’atelier des tranches de silicium. Il explique que l’idée est née, il y a deux ans, pour plusieurs raisons : dans cet atelier, les cinq à six étapes de manutention des lingots de silicium se faisaient manuellement, tâche extrêmement répétitive et pénible vu le poids des lopins, sans parler des TMS associés. Dans le cadre d’un projet de nouveaux panneaux photovoltaïques avec des wafers plus larges, les lopins devenaient trop lourds pour pouvoir être manipulés manuellement (100 à 110 lopins de 17 kg par jour). L’avantage supplémentaire de la robotique étant son extrême flexibilité, outre la manipulation et le chanfreinage des lopins, plusieurs nouvelles tâches ont pu être ajoutées à cet îlot au fur et à mesure que les besoins sont nés.

Pour réaliser ce projet, Photowatt a fait appel à Actemium Saint Laurent de Mure, intégrateur de la région, spécialisé en robotique. Au démarrage, les deux robots Kuka KR150 ne réalisaient que le chanfreinage des briques de silicium. Puis, lorsqu’une pénurie de silicium est survenue et que les pierres n’avaient plus la même qualité et donc plus le même niveau de rendement (jusqu’à 40 % de perte sur les lingots), Photowatt a décidé de compléter l’îlot par une zone de traçabilité des lopins, grâce à un poste de mesure avec capteurs, avant chanfreinage. Une fois les lopins mesurés et repérés, le meulage est effectué, puis les robots reprennent les lopins pour les décharger dans une zone de traçage des traits de découpe selon un algorithme, conçu par Actemium, qui réduit au minimum les pertes de matière. Ils les reprennent ensuite pour les présenter à la tronçonneuse, qui effectuera sa découpe selon les zones tracées par fil diamant avec arrosage, et, une nouvelle fois encore, pour les sécher et les déposer dans la zone de déchargement, tout en reconstituant parfaitement le lingot. C’est grâce à cet algorithme que les robots vont pouvoir organiser la meilleure reconstitution possible du lingot pour l’assemblage successif. Toutes ces opérations doivent se dérouler d’une façon délicate, car le silicium ne doit subir aucune agression pour éviter tout éclat.

Photowatt est pleinement satisfait de cette installation robotisée qui lui permet désormais d’effectuer des changements de format de briques très facilement. Cette cellule robotisée compacte est, de toute évidence, une des étapes obligées pour atteindre les buts que s’est fixés Photowatt : une augmentation rapide de sa capacité de production de mégawatts et un taux de rendement photovoltaïque des wafers toujours plus important (jusqu’à 20 %). Pour ce faire, Nicolas Jarru a encore de nombreux projets d’optimisation de cette cellule avec de nouvelles fonctionnalités.

DIAPORAMA – Salon de l’Automobile de Shanghaï 2011

Citroën DS5

Issu de la Peugeot 3008, le moteur Citroën DS5 Hybrid4 utilise un moteur diesel HDi à l’avant et un propulseur électrique à l’arrière, développant au total 200 ch, pour des rejets de CO2 moyens de 99 g/km.

Audi Q3

Dans quelques mois, l’Audi Q3 adoptera le WiFi pour accueillir Internet, ainsi que le « Bluetooth online » avec téléphone, le tout associé au système multimédia MMI et aux haut-parleurs Bose.

Chevrolet Malibu 2012

Fait inhabituel dans un remplacement automobile, la Chevrolet Malibu 2012 ne sera pas plus grande que l’ancienne. Avec 4,86 m de long, elle perd 1 cm en longueur, mais gagne en force avec 6 nouveaux cm (1,85 m) en largeur.

Peugeot 508 berline

La Peugeot 508 berline réussit le défi d’adapter la berline en une variante break, le pavillon se poursuivant naturellement sur le porte-à-faux arrière, et tombant sur un hayon légèrement souriant, mais au caractère moins trempé que la berline.

Kia K2

Devenue 4 portes, la citadine coréenne mesure désormais 4,37 m, soit 4 cm de plus qu’une Citroën C4, ou 10 cm de plus que la compacte Cee’d ! Sa largeur stagne cependant à 1,70 m, mais le coffre gagne en dimensions avec près de 500 litres de chargement !

Rolls-Royce Ghost

Sous le capot de cette « Baby-Rolls », le moteur V12 6.6 l, accouplé à une transmission 8 rapports, affiche une puissance suffisante de 570 ch et un couple camionnesque de 780 Nm, capable de propulser le tank britannique de 0 à 100 km/h en moins de 5 secondes.

Peugeot SxC Concept

La transmission intégrale du Peugeot SxC Concept, permise par l’association du thermique-électrique et de la basse cylindrée, permet une consommation de 5,8 l/100 km en moyenne, et des émissions de CO2 à 143 g/km. En outre, le Peugeot SxC Concept peut rouler 12 kilomètres en électrique.

Audit A3 e-tron Concept

Malgré un système hybride, rechargeable soit-il, la berline allemande dispose d’une autonomie de 54 km en mode électrique. Les batteries sont l’explication, de type lithium-ion et d’une capacité de 12 kWh.

Volkswagen New Beetle 2011

Après 13 ans de vie, il est normal que la gamme de motorisations évolue en profondeur. Les modèles essence seront partagés entre les 1.2 TSI 105 ch, 1.4 TSI 160 et 2.0 TSI 200 ch, les diesels eux entre les deux offres 1.6 TDI 105 ch et 2.0 TDI 140 ch. Les consommations sont en chute de 35 % en moyenne. Les émissions de CO2 vont de 112 g/km à 173 g/km.

Volvo Universe Concept

 À l’intérieur de la Volvo Universe Concept, la large colonne centrale offre deux écrans tactiles aux occupants avant et arrière, quand le conducteur dispose du sien avec compteurs face à lui.

Mini inspired by Goodwood

L’intérieur tendu de cuir Beige Cornsilk se conjugue à de la marqueterie en bois Walnut Burr, sans oublier les douillettes moquettes en laine de mouton ou les instrumentations à l’ancienne.

Nissan Townpod

Nissan innove avec un système baptisé « The Puck ». Le principe est simple : des glissières sont installées un peu partout dans l’habitacle, et l’on peut y insérer des balles en caoutchouc, qui permettent de mettre en place différents accessoires, comme un porte-gobelet ou un crochet pour sac.

Mercedes Classe A Concept

La Mercedes Classe A Concept s’expose avec une motorisation 2.0 l essence de 210 ch, couplée à une transmission à double embrayage. L’équipement est fourni, la compacte insiste sur son avertisseur de collision associé au « Brake Assist », optimisant le freinage.

Nissan Tiida

Loin des formes géométriques et des proportions un peu maladroites, la nouvelle Nissan Tiida, compacte 5 portes, s’annonce plus charismatique, de part ses grandes optiques, sa ligne latérale montante et sa calandre plongeante.

Renault DeZir

Renault met l’accent sur les voitures électriques, et sous-entend ce type de propulsion en mettant le « Z » en majuscule, à l’image des véhicules Z.E. de la marque. On note l’installation du même moteur que la Renault Fluence Z.E., puissant de 150 chevaux, de quoi offrir un 0 à 100 km/h en 5 secondes, plus rapide qu’une Porsche Cayman S.

 

Sources : www.automoto.fr

Le photomontage de Ben Laden décédé révélé grâce à un logiciel français

Une photo reprise un peu partout

Parallèlement à l’annonce de la mort d’Oussama Ben Laden par les Américains ce lundi 2 mai, une photo, d’abord relayée par les télévisions pakistanaises, puis reprise dans les médias du monde entier, jusque dans nos médias hexagonaux en matinée, était censée le montrer mort. On y voyait le visage tuméfié et mutilé d’un homme ressemblant assez nettement au chef d’Al Qaida, laissant penser qu’elle aurait été prise tout juste après l’assaut mené par les Américains sur sa luxueuse maison à Abbottabad, à une cinquantaine de kilomètres de la capitale Islamabad, au Pakistan.

Il s’est pourtant assez vite avéré que cette photo était un photomontage. L’Agence France Presse, tout comme le Nouvel Observateur, ont fait appel au logiciel TunGstène, développé à l’origine pour le ministère de la défense par la société française eXo maKina, permettant de décortiquer une photo et d’en dépister les différentes altérations et modifications, et ainsi voir si toutes les zones d’une même photo sont « cohérentes » entre elles, ce qui n’est pas le cas ici et a donc pu prouver la supercherie.

Un logiciel contre la désinformation par l’image

Face à la croissance de la production et de la diffusion d’images numériques, les Français d’eXo maKina ont mis au point TunGstène, plate-forme logicielle réunissant une batterie d’algorithmes avancés d’analyse des incohérences, d’identification d’altération et de traçabilité des images. Ils se proposent de lutter contre les tentatives de désinformation par l’image, qu’elles servent un but politique ou commercial.

Ces incohérences et altérations peuvent se répartir en deux grandes familles : « Premièrement, les ruptures dans les statistiques profondes de l’image numérique. Deuxièmement, les incohérences dans les lois physiques régissant la diffusion des rayons de lumière ainsi que la chrominance. » peut-on lire sur leur site. Une palette de filtres, « Clonage », « Exogène », « Mosaïque » permet de repérer les altérations. Les données Exifs (Exchangeable Image File Format, balises de métadonnées attachées à une photo provenant d’un appareil numérique), le double échantillonnage jpeg ainsi que les ruptures de linéarité sont autant de données servant l’analyse de l’image.

En parallèle à ces outils techniques, une méthodologie a été développée dans le but d’accompagner les utilisateurs dans l’interprétation des résultats bruts du logiciel. C’est ce qui a permis aux journalistes du Nouvel Obs, en compagnie de Roger Cozien, inventeur de la technologie tunGstène, de voir que la photo de Ben Laden était bien truquée, concaténation de deux visages, l’un étant celui de Ben Laden, l’autre celui d’un homme décédé, tiré d’une autre photo. Commentaires et explications techniques dans la vidéo tirée du site Nouvelobs.com :

Théories du Complot et analyse ADN

Il est important de signaler qu’il ne semble pas que ce soit les autorités américaines qui aient tenté d’appuyer leurs dires avec cette photo truquée, car la photo circule sur internet depuis 2009, au moment où la fausse rumeur de la mort de Ben Laden s’était propagée. Les Américains vont probablement être contraint de diffuser à leur tour une (vraie) photo du chef d’Al Qaida décédé, étant donné qu’ils auraient immergé sa dépouille en haute mer, dans le but plus ou moins avoué de ne pas transformer sa tombe en lieu de culte pour les Islamistes de tous bords.

Les théories conspirationnistes fourmillent un peu partout sur la Toile, alors que le Telegraph annonce que l’identité de Ben Laden aurait été confirmée à l’aide d’un test ADN, correspondances faites avec l’ADN de sa sœur décédée à Boston il y a quelques années.

Par Rahman Moonzur

Les applications potentielles de la technologie Watson

Durant les parties de Jeopardy, Watson analysait les questions qui lui étaient posées afin d’en saisir le sens et d’identifier ce qui lui était demandé. Il se plongeait ensuite dans les 200 millions de pages de langage naturel que contenait sa mémoire dans le but de trouver la réponse exacte à la question. Il effectuait tout cela en moins de trois secondes et apportait également des arguments quant à la justesse de la réponse. Il allait encore plus loin que Deep Blue qui analysait un monde fini de possibilités. En effet, Watson représente une véritable innovation dans la compréhension par la machine du langage naturel utilisé par chacun d’entre nous pour communiquer et échanger. Ce qui est incroyable, c’est qu’il est même capable de comprendre les jeux de mots, les ambiguïtés ou l’ironie.

Résultat du travail de vingt-cinq scientifiques d’IBM et de quatre années de recherche, Watson constitue la dernière nouveauté d’une série d’innovations qui contribuent à changer la vie de tous les jours. Sam Palmisano, le Président-Directeur Général d’IBM, a expliqué l’impact de cette technologie sur la façon dont les gens communiquent à travers les quelques applications potentielles dans les secteurs de :

  • la santé : les capacités analytiques de Watson permettraient d’analyser toutes les données rassemblées autour d’un patient : symptômes, découvertes, remarques du praticien, entrevues avec le patient, précédents familiaux. L’ordinateur analytique pourrait ainsi engager avec le professionnel une discussion collaborative dans le but de déterminer le diagnostic le plus vraisemblable et les options de traitement. Dans le domaine de la radiologie, il pourrait permettre de repérer sur des IRM des anomalies imperceptibles à l’œil humain alors que, dans le domaine de la cancérologie, la technologie de Watson pourrait être utilisée afin de trouver un compromis en examinant les avantages et inconvénients d’un traitement contre le cancer et les solutions de dépistage. Cela apporterait aux médecins une aide décisionnelle et permettrait aux patients de prendre des décisions de manière plus avisée ;
  • la distribution : la technologie de Watson pourrait être intégrée au cœur du système d’un acteur de la distribution : bases de données, gestion de la relation client, inventaire et commandes. Les capacités analytiques de Watson permettraient de répondre à un nombre infini de questions sur un client afin de mieux cerner ses attentes et d’y répondre, comme par exemple savoir à quel client offrir quelle remise, sur quel produit et avec quelle garantie.. Watson pourrait également aider les distributeurs à mieux tirer parti de leurs stocks. Par exemple, dans le cas d’un client ramenant un téléphone mobile cassé à son revendeur, est-il plus bénéfique pour le revendeur de réparer le téléphone ou d’en fournir un nouveau au client et recycler l’ancien en se basant sur les prix du marché ? Le revendeur a-t-il plus de chances de conserver son client s’il lui fournit un nouveau téléphone ? La technologie de Watson permettrait de parcourir les données et de préconiser la meilleure option ;
  • du secteur public : il est parfois difficile pour les organismes du secteur public de répondre aux questions qui leur sont posées, et ce du fait de la difficulté à se retrouver parmi l’immense masse de données qu’ils possèdent. Les capacités analytiques de Watson permettrait d’apporter une réponse immédiate à des questions touchant une large gamme de sujets : « Quelles sont les règles de plan d’occupation des sols pour construire un nouveau porche ? », «  Cette taxe s’applique-t-elle à moi ? »  , « Quelle est la meilleure façon d’obtenir un Visa ? » … ;
  • des transports : intégrée dans le réseau des transports, dans les capteurs routiers et les systèmes d’analyses prédictives, la technologie analytique de Watson permettrait à chaque voyageur de connaître la meilleure façon de se rendre d’un point A à un point B en tenant compte de très nombreux critères.

 

Zéro papier, de la saisie du bon de livraison à la facturation

Actrices majeures du miracle agricole breton qui a conduit la région à occuper une place prépondérante en France comme en Europe, trois coopératives, Coopagri, Transcam56 et Eolys, qui forment maintenant la nouvelle entité Triskalia, réunissent 3 grands métiers : agrofourniture, agroalimentaire et distribution spécialisée. C’est à leur demande que Elomobile, créé il y a 12 ans au sein du Technopôle de Brest pour décoder en temps-réel les chronotachygraphes des poids lourds, a développé un nouveau service de dématérialisation de l’activité conducteur au sein du véhicule avec collecte en temps réel de données métiers paramétrables. Cette solution a été mise au point en interne, 30 % des effectifs d’Elomobile étant consacrés à la recherche et au développement.

Basée sur le suivi de l’activité des conducteurs/livreurs, cette solution qui s’adresse aux véhicules professionnels, se décline dans le véhicule via un écran fixe, un PDA durci (Motorala, Intermec) en B2B, ou un Smartphone en B2C. La remontée des informations se fait en temps réel via GPRS. Cet outil, différent d’un planning, permet la mise en place de scénarios de collecte de données paramétrables en fonction du type de transport effectué. Modulaire, il s’adapte à tous type de métier : coopératives, BTP, recyclage, services de distribution, de maintenance ou d’entretien, chaque besoin trouvera son scénario.

Cet outil de collecte et de relevé d’activité, indépendant du TMS (Transport Management System), permet de reconstruire les activités d’une journée de travail, avec traçabilité précise et justifications des activités. Les bénéfices de cette solution « zéro papier, de la saisie du bon de livraison à la facturation » sont multiples : suivi précis de l’activité conducteur,  fin des bons illisibles, suppression de la saisie des bons de livraison, fastidieuse et source d’erreurs, réduction des délais de traitement administratif et facturation fiable et rapide à la journée.

La mise en place du scénario de collecte en une demie-journée

L’élaboration d’un scénario personnalisé et adapté au métier concerné ne demande qu’une demie-journée. Au terme du paramétrage, le système peut prendre en compte jusqu’à vingt activités différentes, avec dix questions possibles pour chaque activité, ce qui assure une large palette de paramétrages. Quant aux réponses, elles sont multiples pour un maximum de précision : oui/non, texte, chargement, déchargement, pose ou dépose de benne, nature de la marchandise, litrage, quantité, poids, choix dans une liste prédéfinie, avec, à chaque fois, localisation automatique, date et heure de la réponse. La durée des activités est systématiquement chronométrée. Les données obtenues sont réinjectées dans les systèmes de facturation de l’entreprise. Une simple validation informatique permet alors de déclencher la facturation.

Autre élément important pour le BTP ou les coopératives, Elomobile a mis en place un système de navigation vers des points d’intérêts (POI) car certaines parcelles de terrain ou des nouveaux chantiers ne sont pas systématiquement référencés sur une carte. Le conducteur pourra alors se diriger sereinement vers son point de travail, ce qui se traduit par un gain de temps.
 

Expérience culinaire ou scientifique ?

Il fût un temps où la cuisine, c’était le terroir et Maïté. Puis vint la science, Top Chef et Master Chef.

Il y a quelques années, la cuisine moléculaire avait fait son entrée, au moins dans le monde des médias, à défaut d’être accueillie dans la cuisine de Monsieur et Madame Toulemonde.
Je me souviens d’avoir assisté, perplexe, à des démonstrations culinaires au Salon européen de la recherche et de l’innovation (SERI).

La vague des émissions culinaires et l’escalade du spectaculaire rendue nécessaire par la course à l’audimat semble redonner des lettres de noblesse à cette « gastronomie » (?).
Ainsi, la chaine de télévision M6, a-t-elle choisi comme très médiatique membre de son jury, Thierry Marx, le chef de file français de la gastronomie moléculaire.

J’avoue humblement avoir eu un regain d’intérêt pour l’émission lorsqu’il a présenté sa tomate mozzarella givrée.
Je vous cite le meilleur : « Récupérer l’eau de tomate. La mettre dans un ballon de baudruche. Gonfler le ballon et le fermer. Rouler le ballon dans l’azote liquide pendant plusieurs minutes » et puis bien sûr « Découper le ballon de baudruche et récupérer la sphère d’eau de tomate congelée ».

À cet instant, un flux d’images et de questions surréalistes a submergé mon cerveau, allant de l’analyse du risque chimique à l’hygiène de l’intérieur du ballon, HACCP, emballage alimentaire, composition de la baudruche (j’avoue, j’ai vérifié, ce n’est plus de l’intestin animal mais une fine pellicule de caoutchouc). Bref, tout sauf une envie de déguster le plat.

Forcément, le lendemain, le déjeuner avec les collègues des Techniques de l’ingénieur a donné lieu à un débat sur le sujet. Pour autant, aucune majorité « pour » ou « contre » ce mélange des genres ne s’est dessinée.
Alors, je vous laisse juge, testez et donnez votre avis !

M. Moriquand

Sweet Marx, le livre de référence de Thierry Marx, avec les photographies de Mathilde de L’Ecotais, aux Editions du Rouergue (octobre 2010, ISBN 2812600381)

Même les déblais ont un avenir

La future liaison ferroviaire entre Lyon et Turin prévue pour 2023, comportera deux tunnels : le tunnel d’Ambin, long d’environ 57 km et le tunnel de l’Orsiera, long de 19 km. Le creusement générera 19 millions de mètres cube de déblais. Dans le cadre d’une démarche de développement durable,  près d’un tiers de ces déblais doit être valorisé en granulats pour le revêtement et les équipements en  béton des tunnels. Cette valorisation permet, outre son intérêt économique, d’être en conformité avec les directives de l’Union Européenne sur le sujet, de protéger les ressources en matériaux en évitant l’ouverture de nouvelles carrières, de réduire l’importance des zones de mise en dépôt définitif et de limiter les transports de déblais et de granulats.

La condition essentielle de validation de cette démarche est toutefois liée à la particularité de certains de ces matériaux d’excavation, qui contiennent une quantité de sulfates dix à vingt fois supérieure à celle préconisée par les normes actuelles, ce qui peut générer une détérioration du béton par formation de produits délétères tels que l’ettringite ou la thaumasite, deux composés minéraux résultant de l’attaque de certaines phases du ciment hydraté par les sulfates. L’ettringite peut générer une expansion et la fissuration du béton alors que la thaumasite conduit à une perte des propriétés mécaniques du béton par consommation des silicates de calcium hydratés. Les conditions de formation de ces composés dépendent à la fois de la formulation du béton et des conditions environnementales.

Dans cette optique, le département Matériaux de l’Ifsttar (Institut français des sciences et technologies des transports, de l’aménagement et des réseaux), né le 1er janvier 2011 de la fusion du LCPC et de l’INRETS, participe à une recherche partenariale avec le promoteur LTF (Lyon-Turin Ferroviaire),  les sociétés cimentières Holcim et Vicat et le Lerm (Laboratoire d’Etudes et de Recherches sur les Matériaux). L’objectif de cette association est d’acquérir des connaissances sur le comportement des sulfates présents dans ces granulats pour élaborer de nouvelles formulations de béton adaptées à ces agrégats et éviter tout problème de détérioration en fonction des conditions environnementales.

Un des points clés de cette recherche vise la mise au point d’un essai de vieillissement accéléré validé, permettant l’obtention de résultats rapides sur le comportement des formulations de béton envisagées. Les résultats de l’essai sont attendus pour 2014, date prévue pour le début des travaux du tunnel d’Ambin.

La valorisation des déblais du tunnel ne doit toutefois pas être réalisée au détriment des autres propriétés de mise en œuvre et de durabilité nécessaires à un tel ouvrage. Ainsi, une démarche performantielle globale et prédictive de la durabilité des formules de béton retenues doit être envisagée sur la base des indicateurs de durabilité, préconisés dans le guide de l’Association Française de Génie Civil « Conception des bétons pour une durée de vie donnée des ouvrages ».
 

Des mots de passe plus simples… et plus sûrs

Des chercheurs de l’Institut Max Planck for the Physics of Complex Systems à Dresde, en Allemagne, pensent avoir trouvé le moyen de nous aider à ne plus oublier nos mots de passe, dont la sécurité nécessite de plus en plus une surenchère de caractères spéciaux, de majuscules et de nombres, rendant l’ensemble extrêmement malaisés à retenir.

Ces chercheurs, dont les travaux viennent d’être publiés, dessinent le contour d’une nouvelle méthode de gestion des mots de passe, impliquant de les séparer en deux parties distinctes : un mot de passe facile, et un mot de passe complexe. Le mot de passe facile, celui retenu par l’utilisateur, est demandé pour retrouver le mot de passe complexe, qui ne sera révélé que sous forme d’un CAPTCHA que l’utilisateur pourra alors copier aisément.

CAPTCHA vient du mot « capture » et est l’acronyme de « Completely Automated Public Turing test to tell Computers and Humans Apart », forme de Test de Turing inversé permettant de différencier une intelligence artificielle d’un humain, dont l’algorithme le plus usité donne ces très reconnaissables mots gondolés.

Le principal attrait de cette méthode basée sur le langage Java est qu’elle semble être diablement efficace contre les attaques par force brute, dont l’unique moteur est de tester bêtement toutes les combinaisons possibles. En effet, même les mots de passe faciles, mais faux, génèrent un CAPTCHA bien qu’aucun mot de passe (complexe) ne soit alors visible, ce que la force brute n’est pas à même d’évaluer.

Moonzur Rahman

 

Déjà publié :

Attention, l’homme reste le maillon faible de la sécurité

Sécurité informatique en entreprise : les erreurs à éviter

Comment sécuriser ses bases de données ?

Du nouveau sur Windows 8

Windows 7, 350 millions d’exemplaires vendus

Le géant américain Microsoft n’a pour le moment pas annoncé de date officielle de sortie du successeur du système d’exploitation (OS) Windows 7, écoulé à 350 millions d’exemplaires en près de 18 mois, alors que la version pré bêta de ce qui est appelé pour le moment Windows 8, version 6.2.7955.0, milestone 2 (« jalon » en anglais), généralement destinée à un usage interne et aux tests, circule déjà ici et là sur la Toile, probablement fuitée par des constructeurs y ayant eu accès.

Architecture ARM

Cette version disposerait d’une interface utilisateur en ruban, comme pour les toutes dernières versions d’Office. Elle supportera l’architecture ARM, développées par le fabricant Arm Ltd, qui grâce à sa faible consommation d’énergie est dominante dans la téléphonie mobile et les tablettes, dans la lignée du partenariat signé lors du Consumer Electronics Show de Las Vegas, en début d’année 2011. Elle disposerait également d’un nouveau gestionnaire de tâches totalement repensé, d’un lecteur PDF intégré, d’un logiciel de gestion de la webcam ainsi que d’un navigateur immersif, dont l’ergonomie a été de toute évidence pensée pour les tablettes et les Smartphones.

 « Black » Screen Of Death 

Autre nouveauté, le très craint BSOD (pour Blue Screen Of Death, « écran bleu de la mort »), écran qui apparaissait lors d’un plantage dit sérieux, mettant en échec la stabilité du système, se transforme en un Black Screen Of Death, plus élégant et probablement moins… effrayant, accompagné d’un compte à rebours avant le redémarrage ainsi que d’un envoi d’informations à Microsoft.

  Retour aux paramètres d’usine  

Egalement disponible, une fonction de retour aux paramètres d’usine, qui autoriserait la restauration du système avec les paramètres initiaux de Windows, sans réinstallation totale du système d’exploitation, supprimant les pilotes et programmes installés, le tout en quelques minutes, sans formatage ni DVD d’installation.

Hybrid Boot 

Deux innovations côté « boot » : tout d’abord la possibilité d’effectuer son boot à partir d’une clé USB, d’une capacité au moins égale à 16 Go, ouvrant peut-être la voie à la fin de l’utilisation des lecteurs de disques. Vient ensuite ce que le Landerneau informatique appelle « l’hybrid boot », fonctionnalité qui permettrait de réduire le temps nécessaire au démarrage, après que la machine ait été éteinte, activée par défaut et correspondant à un mode hibernation avancée.

 Reconnaissance faciale ? 

Côté sécurité, des rumeurs font état d’une possible reconnaissance faciale, lors du processus de démarrage de Windows 8. Les captations webcam seraient exploitées via un API de capteur (Application Programming Interface, un interface de programmation).

Il n’est évidemment pas certain que toutes ces fonctionnalités soient conservées durant les multiples phases de développement restantes, et figurent dans la version finale de l’OS de Microsoft, qui s’est pour le moment refusé à confirmer ou à infirmer toutes ces informations.

Moonzur Rahman

 

Déjà publié :

Premier méso-centre à architecture hybride Linux-Windows !

La conception de circuits imprimés influe sur les coûts de production

Sur les marchés actuels dominés par une forte concurrence, les entreprises cherchent en permanence de nouveaux moyens de différencier leurs produits. De ce fait, l’électronique occupe une place de plus en plus importante. Mais l’évolution du PCB (Printed Circuit Board) et des processus associés a-t-elle une influence sur le délai de mise sur le marché, ainsi que sur les coûts de production et la différenciation des produits ? Si oui, dans quelle mesure ?

Pour répondre à cette question, le cabinet Aberdeen (société Harte-Hanks) a réalisé des enquêtes et des entretiens auprès de 536 entreprises, et analysé leurs pratiques. Les résultats de cette étude publiée sous le titre « Pourquoi les dirigeants d’entreprise accordent-ils tant d’importance à la conception de circuits imprimés ? » montre que les stratégies de conception de circuits imprimés peuvent avoir un effet positif sur les processus d’entreprise.

L’étude révèle qu’une attention spécifique à la conception de circuits imprimés constitue un avantage stratégique, et cet aspect doit être considéré comme un élément clé du processus de développement. « Pour les entreprises, le développement de circuits imprimés (schémas, conception, réalisation de prototypes, rédaction des spécifications…) représente en moyenne 31 % des coûts totaux de production », indique Michelle Boucher, analyste pour la division Innovation Produit et Ingénierie d’Aberdeen. « Les entreprises les plus performantes, celles qui sont les plus rentables, ont investi dans le processus de conception des circuits imprimés et sont ainsi parvenues à réduire les coûts de production de 11 % », comme le démontre les résultats suivants d’Aberdeen Group :

  • leaders du secteur (entreprises les plus performantes – 20 % des entreprises sondées) :
    • 88 % des mises sur le marché dans les délais prévus ;
    • 13 % de réduction du temps de développement ;
    • 86 % des produits réalisés dans le budget prévu ;
    • 11 % de réduction des coûts de production ;
    • 88 % des produits conformes aux objectifs de qualité lors de la validation du concept ;
  • moyenne du secteur (entreprises moyennement performantes – 50 % des entreprises sondées) :
    • 75 % des mises sur le marché dans les délais prévus ;
    • 4 % d’augmentation du temps de développement ;
    • 78 % des produits réalisés dans le budget prévu ;
    • 5 % d’augmentation des coûts de production ;
    • 83 % des produits conformes aux objectifs de qualité lors de la validation du concept ;
  • outsiders  (entreprises les moins performantes – 30 % des entreprises sondées) :
    • 49 % des mises sur le marché dans les délais prévus ;
    • 12 % d’augmentation du temps de développement ;
    • 55 % des produits réalisés dans le budget prévu ;
    • 12 % d’augmentation des coûts de production ;
    • 66 % des produits conformes aux objectifs de qualité lors de la validation du concept.

« On peut donc en conclure que l’amélioration du processus de conception des circuits imprimés a une influence considérable sur les résultats des entreprises », affirme Michelle Boucher. Des entreprises qui ont la possibilité de comparer l’efficacité de leur processus de conception de circuits imprimés avec des valeurs représentatives du marché, grâce à l’outil « Online Assessment Tool » sur le site de Mentor Graphics.  

La GMAO, pivot central du système d’information

Fournisseur de systèmes de freinage à haute performance pour véhicules, le groupe italien Brembo S.p.A construit également d’autres produits comme les sièges, ceintures de sécurité et autres composants destinés exclusivement à la course de compétition. Implanté à Bergame, il réunit :

  • le Centre de Recherche et Développement ;
  • Mapello, qui rassemble une fonderie d’aluminium et de fonte ainsi qu’un centre d’usinage des disques en fonte ;
  • Curno, spécialisé dans l’usinage et le montage de systèmes de freins.

Au cours dernières années, plusieurs lignes d’assemblages automatiques ont été introduites et l’ensemble des opérations de manipulation sont effectuées par des robots, ce qui a totalement modifié les méthodes de la maintenance. La maintenance préventive est désormais de rigueur sur ces nouvelles lignes.

Au cœur des méthodes de production de Brembo depuis 2003, la TPM (Total Productive Maintenance ou Maintenance Productive Totale) est toujours utilisée pour anticiper les criticités des machines, réduire les micro-arrêts des machines et améliorer le flux de production dans un but correctif et préventif. À ce jour, la BU Automobile de Bergame se distingue par la qualité de son taux de maintenance préventive. En effet, dans la fonderie, 60 % des interventions sont anticipées et planifiées. Le service maintenance effectue 35 % d’interventions correctives sur le parc équipements et 5 % des autres interventions relèvent de la maintenance conditionnelle.

Au cours de ces dernières années, Brembo a œuvré pour la normalisation des méthodes et des procédures de maintenance introduites en fonderie, à l’usinage et à l’assemblage avec notamment la création de la fonction de « responsable des opérations de maintenance » (le service maintenance, directement rattaché à la Direction de l’établissement, compte environ 15 techniciens par site et emploie des sous-traitants externes pour certaines activités spécialisées).

Réduire de 10 % la valeur totale des articles de maintenance

Le renouvellement global des outils d’organisation a conduit Brembo à se doter d’un nouvel outil d’ingénierie pour améliorer le système de gestion de la maintenance. En 2008, le groupe a lancé une consultation auprès des principaux éditeurs de GMAO pour les différentes politiques d’entretien des sites de Curno et Mapello. Les objectifs affichés étaient clairs : la GMAO devait permettre d’homogénéiser les pratiques d’entretien et optimiser la gestion des pièces de rechange et les stocks. Mesuré en amont, le retour sur investissement du projet GMAO était notamment basé sur la réduction des coûts immobilisés en stock. L’équipe-projet avait pour objectif de réduire de 10 % la valeur totale des articles de maintenance de la BU Automobile. Après une étude comparative des principaux logiciels de GMAO  par la méthode de compilation et de comparaison AHP, l’équipe-projet a choisi le logiciel CARL Source de CARL Software pour la technologie Internet du produit, ses plateformes Open Source, la flexibilité et la personnalisation du logiciel, ses modalités multi -langues / multi-sites, sa compatibilité avec le parc informatique de l’entreprise et ses coûts de mise en service réduits.

L’équipe projet de Brembo (le responsable des opérations maintenance de la BU Automobile, l’administrateur GMAO et deux stagiaires) qui a bénéficié d’une formation fonctionnelle sur le logiciel pendant cinq jours, s’est ensuite chargée de la formation des utilisateurs finaux. L’administrateur GMAO a rapidement pris en main le logiciel afin de devenir complètement autonome dans la gestion et le rétablissement des données, la personnalisation des masques, les développements et la création de rapports.

Le traitement des procédures de stock sur PDA

Dès le début du projet, l’administrateur Brembo a procédé à la personnalisation de certains masques afin de les rendre plus ergonomiques et de simplifier leur exploitation. Certains développements « standard » ont été réalisés au sein du logiciel CARL Source. D’autres ont fait appel à la création d’interfaces avec des logiciels externes, connectés à CARL Source.

À ce jour, Brembo réalise un nouveau développement baptisé « CARL Mobility light », qui sera la nouvelle version sur PDA de l’application de gestion des stocks. Elle permettra aux utilisateurs finaux de traiter les procédures de stock en trois clics.

En dix mois, entre septembre 2009 et juillet 2010,  CARL Source a été mis en place sur les deux sites de production. À l’issue de cette première phase de développement, Brembo a constaté que la prise en main du logiciel par les techniciens s’est faite naturellement, grâce à l’ergonomie WEB du logiciel. Fonctionnellement, la GMAO a permis de mieux gérer les travaux et d’affiner progressivement les process maintenance grâce à l’optimisation de l’analyse des temps passés par les techniciens sur les équipements. Elle a également permis d’éditer un certain nombre de rapports de maintenance et d’analyse de pannes par machines dans le but de calculer le TRS (Taux Synthétique de Rendement) et le MTBF (Mean Time Between Failures).

Jusqu’en juin 2011, l’équipe-projet se consacrera à la gestion informatisée du matériel technique, dont la réalisation d’une interface avec l’ERP Microsoft Axapta.

Un lien entre la GMAO et la supervision SCADA

À court terme, l’équipe-projet de Brembo souhaite faire de la GMAO un pivot central du système d’information. Celui-ci intègrera la supervision et le contrôle des processus de production afin d’optimiser la performance de la production en même temps que la qualité de sa maintenance. À terme, l’équipe Méthodes-Maintenance de la BU Automobile souhaite contrôler au fil de l’eau le bon fonctionnement des parcs de production sur téléphone portable et déclencher à distance les opérations de maintenance nécessaires. Ce projet est baptisé « e-Maintenance » :

  • mise en réseau des machines et acquisition centralisée des données de chaque machine sur un serveur par le biais du réseau Ethernet afin de surveiller l’état de fonctionnement des équipements, établir des diagnostiques en ligne tout en tenant compte des lectures des compteurs d’entretien préventif.
  • établissement d’un lien entre CARL Source et le système de supervision SCADA afin de recueillir chronologiquement des données du fichier d’alarme pour chaque installation, surveiller en temps réel les indicateurs d’efficacité énergétique, maintenir en condition opérationnelle les équipements afin d’élaborer une tendance globale de maintenance et définir des plans de maintenance prédictifs.

L’aboutissement du projet e-Maintenance permettra de contrôler à distance les installations, en Italie et sur d’autres sites Brembo dans le monde. L’équipe Maintenance pourra ainsi superviser à distance les données émises par les différentes applications intégrées, notifier les alarmes instantanément sur téléphone portable, assurer le télé-service maintenance et lancer, par exemple, sur simple clic sur un écran d’I Phone, les ordres de travail qualifiés et pré-diagnostiqués.

À ce jour, l’équipe Méthodes Maintenance de la BU Automobile est chargée de la standardisation des méthodes de maintenance sur le site d’Ostrava, en République Tchèque. Pour les accompagner dans cette démarche, le déploiement du logiciel CARL Source est prévu. Les premières phases de mise en exploitation sont programmées pour la fin 2011. 

Très encrés ou siliconés, tous les papiers se recyclent

Le papier libère une importante quantité de CO2 dans l’atmosphère lors de la décomposition ou de l’incinération des fibres qui, pourtant, peuvent être recyclée environ 5 fois. Ainsi, le recyclage d’une tonne de papier évite l’émission de 300 kg de CO2. De plus, en s’exonérant des opérations classiques d’extraction et de blanchiment des fibres, gourmandes en énergie, la production de papier 100 % recyclé permet de consommer jusqu’à 7 fois moins d’énergie. Si le recyclage du papier est une technologie maîtrisée, il restait deux obstacles – le recyclage des papiers très encrés et celui des étiquettes autoadhésives – qu’une jeune PMI française fondée sur les valeurs du développement durable, Vertaris, a franchi.
 
Doté d’un outil industriel parmi les plus performants en Europe, le site de Vertaris, situé à Voreppe, près de Grenoble, est en France l’unique pôle intégré de traitement et de valorisation de la fibre recyclée à partir de papiers «post consommation». Il intègre l’ensemble du processus de fabrication, du stockage des vieux papiers à la production des produits finis, en passant par le désencrage avec une capacité de 200 000 t/an et la production de 140 000 t/an de pâte à papier 100 % recyclée à très haute teneur en blancheur (94 %). Avec ce site de production qui n’utilise que du papier récupéré dans la région, l’entreprise  bénéficie d’une réduction importante de son empreinte écologique : pas de nécessité de sécher la pâte produite, pas de transport de la pâte…

La glassine n’est plus un obstacle au recyclage

Vertaris est la seule entreprise à pouvoir désencrer en grandes proportions le papier très encré. Elle peut de ce fait recycler davantage de papiers type magazines, brochures, catalogues, alors que ses concurrents traitent avant tout les papiers faiblement encrés, de type papiers de bureau. Cette haute technicité, Vertaris la doit  à la performance de son procédé de désencrage et aux investissements qu’elle a réalisés dans ce domaine. Si cette compétence représente un avantage concurrentiel, elle joue aussi un rôle très positif en faveur de l’environnement, car les papiers très encrés trouvent désormais matière à seconde vie et échappent au cycle de l’incinération, coûteux en CO2.

Aujourd’hui, Vertaris est la seule entreprise française à pouvoir recycler les papiers siliconés utilisés dans le marché de l’étiquette adhésive. Jusqu’à présent, la glassine usagée qui représente 250 000 t/an, était un déchet final destinés à être enfoui et impactait toute la chaine de valeur : siliconeurs, complexeurs, fabricants d’étiquettes, imprimeurs, utilisateurs finaux…  Avec sa nouvelle solution de recyclage, Vertaris offre à l’ensemble de la filière une alternative économique et environnementale très intéressante à celle de l’enfouissement pour différentes sources de papier, y compris les étiquettes avec colle à eau (résistantes à l’état humide) et les papiers siliconés en mélange (jaune, brun, blanc, bleu). Elle propose ainsi : 

  • une solution durable de recyclage pour plus de 4 000 t/mois si besoin ;
  • une réduction du coût de traitement de ce déchet grâce à des coûts de recyclage inférieurs à ceux de l’enfouissement technique ;
  • une parfaite traçabilité avec la fourniture de certificats de recyclage (les papiers sont labellisés « FSC » et APUR 100 % recyclé) ;
  • une expertise logistique pour optimiser la collecte ;
  • une amélioration de l’image de ce support et de ses utilisateurs grâce à son caractère désormais recyclable.

Par M.C

La RFID optimise la gestion et l’entretien des réseaux de voiries

Leader mondial de systèmes complets de canalisation en fonte ductile, Saint-Gobain PAM qui constitue l’activité « canalisation » du Groupe Saint-Gobain, souhaite commercialiser une solution offrant aux collectivités la possibilité d’optimiser leur réseau de voiries et, ainsi, de réduire les coûts d’exploitation liés à son entretien. Après plusieurs essais de développements logiciels non concluants, l’entreprise s’est mise à la recherche d’un prestataire susceptible de développer une solution sur-mesure qui réponde à ses attentes. En octobre 2009,  le projet baptisé Ivoire a été confié aux informaticiens de l’agence de GFI Informatique de Metz.

« Grâce à l’innovation de l’application Ivoire, Saint-Gobain PAM se différencie de la concurrence avec un nouveau service unique de gestion de patrimoine. La technologie RFID permet à la fois l’identification et la géolocalisation des canalisations, l’analyse des informations ainsi tracées (années d’installation et matériaux de fabrication, …) et facilite la gestion et l’entretien du patrimoine public. Ivoire permet une gestion optimisée de la maintenance des canalisations et en réduit le coût d’exploitation » déclare Jean-Yves Janiaud, chef de projet de Saint-Gobain PAM.

 

Six mois pour développer Ivoire

Le logiciel Ivoire a été conçu pour s’intégrer à moindre coût dans le système d’information du client : matériel, système, base de données, réseaux et interface avec le système d’information géographique. La mise en production de la solution s’est réalisée en mai 2010, soit six mois seulement après que les équipes de GFI aient remporté le contrat. Ivoire présente un positionnement très différent par rapport aux innovations « habituelles » de Saint-Gobain dans la mesure où il vise à offrir aux collectivités publiques et privées une aide à la gestion de leurs patrimoines. Il se compose :

  • de puces d’identification RFID fixées sur les éléments visibles du patrimoine (grilles, avaloirs, poteaux incendie…) ;
  • de terminaux de terrain qui permettent la lecture de ces puces et affichent les informations ou interventions à opérer sur l’élément du patrimoine courant ;
  • d’un serveur web qui héberge le logiciel Ivoire servant à gérer, planifier et organiser les informations et les interventions à réaliser sur les trois constituants du patrimoine que sont la voirie, les ouvrages et les réseaux.

Ivoire permet d’améliorer la connaissance des réseaux, de gérer et suivre les opérations d’entretien réalisées et de produire des historiques d’interventions. « Nous avons particulièrement travaillé l’adaptabilité d’Ivoire dans l’ensemble des systèmes informatiques des collectivités et l’ergonomie de la solution. En effet, celle-ci est destinée à des profils de terrain et doit donc être très simple et facile à utiliser » explique Jean-Yves Janiaud.

Simplification et optimisation des interventions

Pour les collectivités locales et territoriales, cet outil d’aide à la gestion du patrimoine dédié au cycle de l’eau permet d’optimiser les coûts d’exploitation et de pérenniser la connaissance du patrimoine dont elles ont la charge. « A chaque fois qu’un technicien intervient pour nettoyer ou réparer un élément de la voirie, ses actions sont systématiquement synchronisées grâce aux PDA. L’information est remontée automatiquement par des choix multiples intégrés au logiciel ce qui permet de définir les statistiques, les priorités, ou encore les points critiques du réseau. Chaque collectivité peut gérer sa propre terminologie dans les menus déroulants », précise Jean-Yves Janiaud.

Lorsqu’un gestionnaire du réseau donne des instructions pour faire une tournée d’entretiens, les équipes terrains remontent les informations via leur PDA sur l’état du réseau. Lors de la synchronisation des PDA avec le serveur, les informations sont transmises au directeur de l’assainissement qui va ainsi pouvoir gérer les priorités pour la maintenance du réseau.

Des économies prévues entre 15 et 20 %

Lorsque Saint-Gobain PAM déploie Ivoire chez l’un de ses clients, la société transmet aux experts de GFI les éléments composant l’environnement informatique du client. Les spécialistes vont ainsi pouvoir analyser l’architecture de la collectivité et déployer Ivoire sur le serveur dédié et sur les terminaux embarqués. GFI s’occupe aujourd’hui de la maintenance niveaux 2 et 3 pour tout ce qui concerne l’évolution du logiciel.

A ce jour, quarante-cinq collectivités sont intéressées par la solution Ivoire et deux d’entre elles ont d’ores et déjà adopté la solution : la ville de Saint-Maur des Fossés, en région parisienne, et la Communauté Urbaine de Lille. Pour la ville de Lille, par exemple, la communauté espère gagner avec Ivoire entre 15 et 20 % de son budget d’exploitation d’assainissement grâce à une meilleure ventilation du travail entre les différents prestataires de la collectivité. 

L’IPv4 en Asie, c’est fini !

L’Asie : Premier continent à atteindre la limite de l’IPv4

Alors que de nombreux observateurs estimaient en janvier que la pénurie d’adresses IPv4 ne serait plus qu’une question de semaines, le fait ne s’est pas fait attendre en Asie où la forte croissante des réseaux fixes et mobiles a engendré l’annonce récente de l’épuisement d’adresses IPv4 et le recours nécessaire à la transition vers l’IPV6.

Ne mesurant pas la manifestation de la pénurie avant l’été, le dernier lot d’adresses IP disponibles avaient été distiribués, selon une annonce en février de l’ICANN (Internet Corporation for Assigned Names and Numbers) et l’IANA (Internet Assigned Numbers Authorithy), organismes contrôlant l’accès au domaine virtuel et l’allocation d’adresses IP multicast au niveau mondial, aux RIR (Registres Internet Régionaux), parmi lesquels on compte l’APNIC (Asia Pacific Network Information Centre). Chacun de ses membres s’est vu attribué 1024 adresses IPv4 au maximum en vue de leur utilisation pour la prochaine transition vers la nouvelle génération IPv6.

 

Une transition inévitable vers l’IPv6

Outre l’existence de réseaux IPv6 en Chine, Japon, Corée du Sud et Taïwan, l’Inde a fait parti des pays s’initiant à l’exploration de l’impact de cette technologie et des meilleures méthodes pour en assurer la transition.

L’Inde a rédigé en juillet 2010 un document qui décrit la mise en œuvre du programme national (National IPv6 Deployment Roadmap version 1.0). Le gouvernement indien a demandé à ce que tous les fournisseurs de service IP en Inde soient en mesure de fournir IPv6 avant la fin 2011. Selon l’Indian Market Research Bureau, la nouvelle demande va s’orienter surtout vers les réseaux mobiles à haut débit.

En vue de la multiplication des réseaux fixes et mobiles, leur transition vers l’IPv6, initialement prévue dans les deux ans qui viennent par 350 000 experts de réseau, devient de plus en plus pressante et clairement inévitable.  Paul Wilson, directeur de l’APNIC, encourage vivement les opérateurs locaux à intégrer dès maintenant IPv6 aux évolutions de leurs infrastructures : « c’est un développement significatif pour un marché aussi dynamique que l’Inde. L’Inde est loin d’avoir atteint la saturation en termes d’adoption d’Internet, tant sur les réseaux fixes que mobiles. Et leurs nouveaux entrants ont besoin de petits volumes d’adresses IPv4 pour connecter leurs réseaux IPv6 aux zones d’Internet restées à IPv4 », explique-t-il.

Owen DeLong, responsable chez Hurricane Electric, un fournisseur d’adresses IP et FAI, annonce quant à lui qu’il est « urgent de déployer l’IPv6  afin de ne pas subir les perturbations liées à la pénurie en IPv4 ».

En prévision de la pénurie, un plan de transition vers le nouveau standard IP de l’APNIC a déjà été communiqué sur le web.

Des initiatives gouvernementales

Des initiatives ont été prises par des exploitants de réseau, des FAI et des autorités nationales et régionales pour se préparer à la transition vers l’IPv6.

Le gouvernement fédéral américain a demandé, le 28 septembre 2010, le déploiement de l’IPv6 à toutes ses agences, ce qui implique les serveurs et les services habituellement utilisés par les citoyens américains, telles que les applications de la Toile, la messagerie électronique et les serveurs DNS (américains), ceci avant la fin de l’année 2011. Parallèlement, les applications internes qui communiquent avec les serveurs publics de l’Internet ou qui transitent avec les réseaux d’entreprise doivent utiliser de l’IPv6 natif avant la fin de l’année 2014. Le budget du passage en IPv6 a été estimé à 75 milliards de dollars.

Taïwan, procédant au déploiement généralisé de l’IPv6, a ouvert des groupes de travail spécialisés en IPv6 sur VoIP, l’automobile (Carv6) et la santé (Healthcarev6), dans le cadre du programme de recherche régional ApecTel. La deuxième phase de son programme porte sur 6 millions d’abonnements au haut débit.

En France, la Défense nationale travaille depuis plus d’une dizaine d’années sur la transition de ses réseaux vers l’IPv6. RENATER, le Réseau National de télécommunications pour la Technologie, l’Enseignement et la Recherche française , est exploité depuis dix ans en IPv6. Parmi les propositions énoncées en faveur du plan pour « la France numérique de 2012 », présenté en Octobre 2008, on relève l’Action 149, « Introduire progressivement, à partir de 2009, la compatibilité avec IPv6 dans les marchés de l’Etat ». Mais au-delà de ces bonnes intentions, il n’existe pas encore en France une initiative globale pour faire face à la limitation prochaine de l’adressage Internet. Une association loi 1901, le G6, a également été créée, à l’origine, pour le déploiement d’un réseau français académique qui traite aujourd’hui de tous les aspects liés à l’IPv6, à la formation (tutoriaux, livre IPv6), à la promotion auprès des instances francophones (IPv6 Task Force France) et à l’aide technique.

En dépit de leurs initiatives, les gouvernements des autres continents devront très vite faire la transition vers l’IPv6 pour ne pas se retrouver dans la position actuelle de l’Asie et ne plus être en mesure de couvrir la demande en adresses IPv4.  Un fait est certain, toutes les adresses IP de version 4 seront utilisées avant la fin de l’année 2011.

Par Angélica Tavares Costa

 

Déjà publié :

Combattre le feu avec de l’électricité

L’équipement traditionnel des combattants du feu semble indissociable de la bonne vieille lance à incendie, et évidemment, de son eau. Il pourrait pourtant singulièrement changer dans les prochaines années, si la découverte amorcée par le Docteur Ludevico Cademartiri et son équipe de l’université d’Harvard, présentée devant l’American Chemical Society, tient ses promesses. D’après lui, il suffirait d’une baguette magi… électrique.

Forts de leurs précédentes recherches, et de la découverte il y a plus de deux siècles que l’électricité pouvait changer la forme d’une flamme, les chercheurs ont été capables d’éteindre une flamme d’une cinquantaine de centimètres en seulement quelques millisecondes, simplement à l’aide d’un fil de fer métallique électrifié.

Le « rayon électrique », sorte d’arc électrique, responsable de l’extinction provient d’un amplificateur de 600 Watts, équivalent à celui utilisé dans le système stéréo d’une voiture, connecté à une sonde, électrique, ce qui laisse présager une très grande portabilité, sur le dos d’un pompier ou à la main par exemple, plutôt que l’encombrante lance et toute la structure nécessaire pour fournir d’énormes quantités d’eau.

Alors que les recherches précédentes se concentraient sur l’utilisation du courant continu sans grand succès, les résultats se sont montrés beaucoup plus concluants dès lors qu’il s’est agi d’un courant alternatif. Le champ électrique créé charge les particules carbonées (dans la suie) engendrées par le feu, s’organisant en flux à l’intérieur même de la flamme. Alors, « le champ électrique sépare la région chaude et en train de se consumer, de celle du combustible encore à bruler, empêchant le combustible de bruler », explique Kyle Bishop, un chercheur associé à l’équipe. Innovation, portabilité, efficacité en lieu confiné, mais remarquons tout de même que cette technique est pour le moment inefficace en plein air.

Moonzur Rahman

Les avions bientôt protégés des nuages de cendres

Les recherches auraient abouti à la mise au point d’un nouveau revêtement céramique contenant de l’aluminium et du zirconium, plus résistant aux dégâts potentiels engendrés par les dépôts de cendres dans les réacteurs.

Dans une étude publiée en ligne dans la prévisualisation du journal « Advanced Materials », une équipe de chercheurs a testé deux revêtements développés à l’origine pour empêcher le sable en suspension d’endommager le fuselage d’un avion ainsi que ses réacteurs, et firent une découverte pour le moins intéressante : ces revêtements résistent également aux dégâts causés par les dépôts de cendres.

« Évidemment, il vaut mieux pour l’avion d’éviter, en première instance, de se mettre sur le chemin d’un nuage de cendres », ironise Nitin Padture, éminent professeur en Ingénierie de l’Université d’Ohio State, qui dirigea l’étude. « Ce n’est pas toujours possible. Nous avons remarqué grâce à une batterie de tests que ces revêtements pouvaient offrir une protection suffisante contre de petits dépôts de cendres ayant réussi à pénétrer les réacteurs », explique-t-il.

Cependant, de grosses quantités de cendres peuvent temporairement enrayer les réacteurs de l’avion et les faire caler, rendant ces revêtements de toute façon inopérants ou tout du moins pas très utiles dans des circonstances que l’on pourrait qualifier d’extrêmes.

Comment de la cendre peut-elle bloquer un réacteur ?

Il faut pour cela comprendre que la température atteinte à l’intérieur d’un réacteur peut s’élever à près de 1 400 degrés Celsius. Le revêtement en céramique faisant office de barrière thermique, est un isolant permettant de protéger les pièces métalliques dites « sensibles » du réacteur d’une chaleur trop élevée. La cendre ayant réussi à entrer dans le réacteur fusionne et se mêle au revêtement, le pénétrant en surface. Une fois refroidie, la cendre en fusion se transforme en un verre assez fragile qui, en s’effritant emmène une partie du revêtement avec lui. C’est une histoire que connait bien le professeur Padture, qui était déjà à l’origine de l’invention et de l’élaboration d’une nouvelle composition d’un revêtement permettant de se prémunir de la même manière des dégâts occasionnés par le sable.

Tout comme le sable, la cendre est essentiellement constituée de silice. Lorsque le volcan islandais  Eyjafjallajökull est entré en éruption en avril 2010, il recracha un immense nuage de cendres de silice qui entra en suspension. « La cendre est une menace, de manière très similaire au sable, mais sa composition est très dépendante du type de volcan en éruption. Après ce qu’il s’est passé en Islande, nous voulions voir comment la cendre interagissait avec notre revêtement à barrière thermique, et si les dégâts sous-jacents étaient d’une autre nature. »

L’alumine de zirconium

Les membres de l’équipe de recherche travaillèrent sur trois échantillons de pièces métalliques, protégées par un revêtement céramique qu’ils enrobèrent de cendres provenant de l’éruption d’Eyjafjallajökull. Ils élevèrent la température à un niveau suffisamment élevé à l’aide d’un four à haute température, afin de simuler la chaleur intense dans un réacteur d’avion. Un des échantillons était protégé par le revêtement céramique classique, un autre par celui issu de la formule de Padture, et le dernier par un nouveau revêtement à base de gadolinium et de zirconium.

La cendre en fusion puis refroidie endommagea sérieusement le premier échantillon, alors que les autres revêtements protégèrent parfaitement les pièces métalliques tout en conservant leur structure globale. En observant les coupes, ils virent que les « pores » du revêtement céramique conventionnel, lui permettant de se dilater ou de se contracter en fonction de la chaleur, sont bouchés en profondeur par les cendres, lui empêchant par la suite de s’adapter aux changements de températures et le rendant cassant, ce qui n’est pas le cas de celui issu de la formule du professeur Padture.

Dans la nouvelle formule utilisée par l’équipe, on intègre au revêtement un composé d’aluminium et de zirconium, à base d’oxydes de zirconium et d’aluminium, le zirconium présent à hauteur de près de 20 % renforçant l’aluminium. Les cendres ne peuvent pas pénétrer plus que de manière superficielle, préservant presque toutes les qualités mécaniques et chimiques du composé.

Un bémol toutefois : ce revêtement résistant coûte plus cher que les revêtements conventionnels, bien qu’on puisse penser que le bénéfice matériel soit supérieur à ce surcoût.

Moonzur Rahman

Des outils de vision couleur inspectent les capteurs d’airbags

Un fabricant de connecteurs a demandé à AVI Inc., l’un des principaux intégrateurs de vision industrielle (Arkansas, USA), de développer deux solutions de vision industrielle différentes : la première devant être utilisée pour l’inspection de connecteurs d’airbags produits manuellement et la seconde pour être utilisée sur une machine automatisée conçue pour produire ces pièces dans le cadre de l’augmentation du volume de production.

« La plus grande difficulté dans une telle application consiste à distinguer des fils présentant des nuances différentes d’une même couleur », explique Rick Farrer d’AVI. « Auparavant, nous aurions dû écrire un programme long et complexe pour les différencier. Et il aurait fallu modifier ce programme pour chaque nouvelle référence présentant des couleurs différentes ».

Les nouveaux outils couleur de Cognex facilitent la programmation de cette inspection particulière de connecteurs. L’outil MatchColour est un outil de tri couleur à grande vitesse dont la résolution couleur 24 bits permet de distinguer de manière fiable de petites variations de nuance. L’outil ExtractColour permet aux utilisateurs de former rapidement des modèles couleur très complexes.

Ces outils ont réduit le temps nécessaire à la programmation du système de vision, le rendant ainsi suffisamment économique pour utiliser la vision industrielle à la place de l’inspection manuelle habituelle, même pendant les premières étapes de la production. Le fournisseur peut désormais tirer parti de la vision industrielle pour effectuer cette inspection de sécurité essentielle dès le tout début de la production et réduire davantage les risques d’erreur.

Rick Farrer a développé la même application de vision industrielle pour la production manuelle et pour la production automatisée à l’aide du logiciel In-Sight Explorer de Cognex. Deux systèmes de vision sont utilisés pour effectuer les cinq opérations d’inspection nécessaires sur chaque connecteur :

  • un système Sight Micro 1 100C s’assure que les fils de bonne couleur sont reliés à chaque connecteur du capteur ;
  • un système In-Sight 1 403C de plus haute résolution est utilisé pour inspecter la distance entre les contacts au sein des connecteurs femelles, détecter la présence de quatre points rouges indiquant que le connecteur a été correctement relié, vérifier la présence d’un point noir indiquant que le connecteur a réussi un test électrique, vérifier la couleur du loquet et s’assurer qu’il est bien en position verrouillée.

 

Spectrodensitométrie portable pour les industries graphiques

Le contrôle de couleur numérique de documents imprimés est devenu une partie importante de la technologie d’impression, comme dans la gestion de la qualité, que ce soit au stade de la conception graphique que du pré-presse.

Un grand nombre de papiers d’impression utilisent des matériaux d’emballage avec azurants optiques.  Leurs propriétés de blanchiment et de fluorescence font que le papier semble plus lumineux et plus blanc. La couleur perçue  dépendra de l’éclairage, ce qui peut impacter de manière significative la reproduction de couleurs d’impression en particulier sous l’illuminant D50 (Daylight 50) qui est la source de lumière standard dans l’industrie d’impression (correspondant à la condition M1 de mesure de la norme ISO 13655 établie en 2009).

Les spectrodensitomètres FD-7 et FD-5 de Konica Monolta Sensing sont les tous premiers spectrodensitomètres portables (environ 350g) du marché permettant de mesurer et de quantifier les couleurs en tenant compte de la fluorescence sous l’illuminant D50. Ce sont aussi les premiers spectrodensitomètres portables avec fonction de compensation automatique de dérive en longueur d’onde : l’étalonnage est effectué avec le blanc de référence, ce qui assure un niveau unique de fiabilité et de répétabilité de la mesure. Cette prouesse est rendue possible par le système unique breveté d’évaluation de couleur : la technologie « fluorescence standard virtuel » (VFS) de Konica Minolta.

En plus de réaliser des mesures de valeurs de densité ou de valeurs colorimétriques, le FD-7 permet d’effectuer un scan manuel de mires de couleur lorsque l’appareil est connecté à un PC. Ce modèle permet également la mesure de la lumière ambiante, l’éclairage sous lequel l’échantillon est évalué visuellement peut être mesuré et les données colorimétriques pour l’échantillon affichées pour cette source de lumière.  Cela offre une flexibilité complète pour l’évaluation numérique des documents imprimés dans toutes les conditions d’éclairage.  Les valeurs colorimétriques sous la source de lumière mesurée peuvent être utilisées pour le contrôle ou le calcul.  

Le domaine ‘.fr’ a franchi les 2 millions d’unités

L’AFNIC, Association Française pour le Nommage Internet en Coopération, n’est pas un bureau de vente de noms de domaine, mais un centre de gestion et d’information neutre, à but non lucratif, de la base de données des noms de domaine géographiques « .fr » (France) et « .re » (Réunion). L’association a annoncé cette semaine que le cap des 2 millions de noms de domaine « .fr » venait d’être franchi, grâce à l’enregistrement du nom de domaine « manucure-saint-maur.fr ».

Le domaine « .fr » est un domaine national de premier niveau, c’est-à-dire qu’il est au sommet de la hiérarchie des domaines, mais associé à un pays. Concrètement, cela correspond à l’ensemble des ordinateurs qui hébergent des activités pour les personnes ou les organisations enregistrées auprès de l’AFNIC en « .fr ». Depuis sa libéralisation en juin 2006,  il connaît une croissance annuelle élevée, d’environ 21 %, à savoir près de 300 000 nouveaux domaines déposés chaque année, et occupe le tiers des dépôts de noms de domaines en France.

De « .com » au sulfureux « .xxx »

On peut donner à titre de comparaison le domaine « .com », domaine né en 1985, de premier niveau générique et non restreint (n’imposant pas de règles pour les sous-domaines), qui en 2010 possédait près de 85 millions de noms de domaine enregistrés.

Les domaines de premier niveau ont également vu l’arrivée d’un petit nouveau : le domaine « .xxx », dont l’autorisation vient de tomber en fin de semaine dernière. La société chargée de la gestion des noms de domaine, ICM, a annoncé l’enregistrement de pas moins de 600 000 sites, ruée qui a toutefois ses raisons, entre autre la peur du « cybersquattage », enregistrement d’un nom de domaine générique ou identifié à une marque, pour le revendre au prix fort. Une partie des professionnels du secteur pense malgré tout que la création de ce domaine finira par les ghettoïser, car immédiatement identifiable.

Moonzur Rahman

Cofely repense le transport de sa filière bois

De 200 000 tonnes actuellement, la consommation de bois-énergie devrait ainsi passer à 600 000 tonnes en 2012, et atteindre les 1,5 million de tonnes en 2015. Cette explosion prévisible de la demande a conduit Cofely, société de services en efficacité énergétique et environnementale et filiale de GDF Suez, à repenser entièrement l’organisation de sa production et de sa logistique. La société prévoit de multiplier le nombre de chaufferies alimentées par du bois-énergie. Leur nombre devrait passer de 180 à 210 d’ici 2015. Quatre nouvelles plates-formes logistiques dédiées au bois devraient s’ajouter aux 11 actuellement exploitées d’ici quatre ans.

Optimiser le transport pour assurer les volumes

S’agissant du transport, Cofely anticipe dès cette année. L’objectif est de garantir les volumes, tout en maintenant les prix pour les clients : le bois doit rester concurrentiel et intéressant tant du point de vue environnemental qu’économique. La société a fait appel à un spécialiste de l’informatique du transport, DDS Logistics, pour l’épauler dans la gestion de son transport amont (des fournisseurs de bois aux sites logistiques) et aval (des plates-formes logistiques aux chaufferies).

D’ici le mois de novembre, DDS Logistics va déployer, sur l’ensemble des plates-formes logistiques Bois Cofely, sa solution DDS Shipper. Les premiers tests sont en cours à Rouen pour l’approvisionnement de trois chaufferies. « Nous souhaitions un outil clé en main, facile à déployer, qui nous permette d’optimiser notre organisation transport. Ce n’est pas notre cœur de métier, mais c’est un paramètre essentiel pour notre activité et pour le développement de la filière bois. Nous avons trouvé chez DDS Logistics, des conseils, mais surtout une équipe investie à nos côtés », commente Francois-Xavier Dugripon, Directeur des achats d’énergie Cofely.

Une fois opérationnelle sur tous les sites, la solution permettra à Cofely de :

  • maîtriser les flux et les coûts du transport : la solution sélectionne automatiquement le transporteur offrant le meilleur rapport qualité/ délai/ coût se trouvant à proximité de la zone à desservir. Elle permet également de pré-facturer les prestataires et donc d’avoir une visibilité sur ses coûts de transport ;
  • suivre de bout en bout une expédition : une fonctionnalité « Tracing & Alertes » émet, en cas d’incident, une alerte afin de pallier le dysfonctionnement et honorer la livraison. Très proactif, le moteur d’alertes permet également de générer la liste des tâches à réaliser ;
  • calculer les émissions de CO2 et autres gaz à effet de serre générés par le transport.

Les émissions de CO2 calculées pour chaque transporteur et chaufferie

« L’utilisation du bois-énergie dans les chaufferies est neutre en termes d’émissions de gaz carbonique, ce qui permet de lutter efficacement contre l’effet de serre. Nous avons souhaité mettre en place un « thermomètre sur notre transport » afin de limiter notre impact sur l’environnement. Cette fonctionnalité va nous permettre de calculer le volume des gaz à effet de serre émis par chacun de nos transporteurs et chacune de nos chaufferies », explique François-Xavier Dugripon.

« Le calcul des émissions de CO2 se fera sur le kilométrage réel. Les transporteurs devront renseigner dans la solution DDS Shipper, le nombre de kilomètres effectués et le poids transporté. A partir de ces données, un compte-rendu des émissions de CO2 sera réalisé et envoyé à chaque chaufferie afin d’établir un « suivi » de chaque site », commente Jérôme Bour, Président de DDS Logistics.

Par ailleurs, Cofely étudie le recours aux transports alternatifs à la route. Au rail, mode nécessitant de très importants volumes, Cofely privilégie le transport fluvial. L’entreprise s’est engagée à transporter dès cette année, 30 000 t de bois par voie fluviale, soit plus de 10 % de ses flux actuels. La solution DDS Shipper servira également à la gestion des flux réalisés via ces modes alternatifs.

M.C

Déjà publié :

La scierie Moulin valorise sur place ses déchets de bois

Adieu aux rayures sur nos voitures !

Parus dans l’édition du 21 Avril du journal Nature, et illustrés par une courte vidéo en anglais, les résultats d’une équipe de recherche composés de chercheurs américains et suisses sont pour le moins encourageants : le polymère qu’ils auraient développé a la faculté de se cicatriser et de se reconstituer, simplement à l’aide d’un peu de lumière.

Une équipe américano-suisse a mis au point un matériau à base d’un polymère, qui serait en mesure de se « soigner » et de se régénérer, lorsqu’on le met en présence d’un type de lumière particulière, mais assez commune. Appelé « polymère métallo supramoléculaire », ce matériau est capable de se liquéfier et de remplir les moindres petites crevasses et trous laissés par les éraflures et rayures en tout genre lorsqu’on le place sous une lumière ultraviolette pendant moins d’une minute, puis de retrouver sa solidité originelle.

« C’est une recherche de matériau ingénieux et évolutif », dit Andrew Lovinger, directeur du Programme polymère à la division Recherche en Matériaux de la National Science Foundation. « Cela montre le caractère versatile et le pouvoir des nouveaux matériaux à base de polymères, capables de faire face à des problèmes technologiques et de servir la société en créant des concepts scientifiques tout à fait applicables », ajoute-t-il.

Un revêtement idéal

Les scientifiques envisagent l’usage dans un futur pas si lointain de leur matériau auto-cicatrisant en premier lieu en tant que revêtement d’objets présents dans la vie de tous les jours, tels que nos voitures, les revêtements de sols ainsi que ceux de nos meubles, voire de nos smartphones. Bien qu’admettant que ce polymère ne soit pas encore prêt à être commercialisé, ils ont désormais montré que le concept fonctionne. Le besoin d’un tel matériau risque d’étendre assez rapidement ses possibles applications commerciales.

« Ces polymères ont un complexe de Napoléon », s’amuse l’un des contributeurs, Stuart Rowan, professeur et directeur de l’Institute for Advanced Materials à l’Université Case Western Reserve, à Cleveland, Ohio. « En réalité petites, les molécules de ce polymère sont conçues pour se comporter comme si elles étaient grosses, en prenant appui sur de faibles interactions moléculaires », dit-il encore.

Les ions métalliques, une glu moléculaire

Plus concrètement, ce nouveau matériau a été créé par un mécanisme connu sous le nom d’assemblage supramoléculaire. Contrairement aux polymères conventionnels, qui consistent en molécules faites de longues chaines de milliers d’atomes, ce polymère est composé de molécules plus petites assemblées dans des chaines de type polymérique, se servant d’ions métalliques comme d’une glu moléculaire, créant ce polymère métallo supramoléculaire.

Bien que semblables sous de nombreux aspects aux polymères habituels, la structure de celui-ci se désolidarise temporairement lorsqu’il est exposé à une intense lumière ultraviolette. Les ions métalliques, sous l’effet du rayonnement ultraviolet, convertissent ce rayonnement en une chaleur extrêmement localisée, faisant passer le matériau à l’origine solide à un état liquide, localement. Lorsque la lumière s’éteint, les molécules se réassemblent et le matériau se solidifie de nouveau, retrouvant ses propriétés de départ.

En utilisant une lumière similaire à celle utilisée par un dentiste pour les plombages, les chercheurs ont réparé des égratignures sur leurs polymères-tests. Où qu’ils aient passé la lumière, les éraflures se sont remplies et ont disparu, telle une coupure sur la peau qui disparaitrait sans laisser la moindre trace, en seulement quelques secondes, chose longtemps fantasmée par les auteurs de science-fiction.

Un gain en précision

Ce qui semble encore plus surprenant est que la durabilité de ce matériau ne semble pas le moins du monde affectée par la répétition de cette procédure. Les tests ont montré que les chercheurs pouvaient érafler puis faire se cicatriser le matériau de manière répétée et au même endroit, sans incidence. En outre, alors que la chaleur a souvent été utilisée pour réparer les matériaux, l’usage de la lumière présente de nets avantages, permettant notamment de pouvoir cibler plus facilement la zone éraflée, en laissant le reste du matériau intact.

Se devant de jongler entre d’évidents impératifs en terme de propriétés mécaniques et la faculté cicatrisante du matériau (les propriétés mécaniques augmentent lorsque les propriétés cicatrisantes diminuent), ils trouvèrent que les ions métalliques dans le rôle de la colle moléculaire étaient le compromis idéal.

Les incroyables perspectives et débouchés qui s’offrent à un tel matériau dans notre vie de tous les jours, motivent les chercheurs à l’améliorer et à rendre sa production à l’échelle industrielle possible, tout en l’adaptant à des besoins spécifiques. Illustrations, explications et une courte interview des chercheurs (en anglais), dans la vidéo qui suit :

 

Par Moonzur Rahman

Déja publiés :

Plastique et caoutchouc à la fois

Une nouvelle génération de plastique végétal

Révolution dans l’extrusion

Dans le cadre d’un programme d’innovation du pôle de compétitivité en R&D automobile et transport public Mov’éo,  soutenu par OSEO,  le plasturgiste Manuplast, spécialiste de l’extrusionsoufflage et de l’injection, a développé en collaboration avec Uniloy-Milacron une machine unique au monde. Toute électrique, basse consommation et compacte, elle est destinée à la fabrication de conduits plastiques souples et rigides à haute résistance thermique, en remplacement des conduits d’air en entrée et sortie turbo en caoutchouc ou en acier, et de conduits 3D complexes sous les tableaux de bord et l’habitacle.

Ce nouveau moyen de production fait appel à la technique de l’extrusion par aspiration soufflage, qui consiste à combiner l’expulsion de la matière avec l’aspiration de la paraison (tube de matière extrudé) en la guidant à l’intérieur d’un moule fermé, puis à la souffler pour donner la forme de l’empreinte à la pièce ainsi produite. Il autorise l’utilisation de une ou deux matières compatibles, en séquentiel ou en double couches, à l’intérieur et l’extérieur du conduit afin d’obtenir des caractéristiques mécaniques, chimiques ou thermiques spécifiques.

Ancré dans une démarche de développement durable, ce nouveau procédé réduit la consommation d’énergie et de matière transformée par rapport aux machines de soufflage traditionnelles (2D), qui nécessitent la transformation de beaucoup plus de matière, et aux presses 3D ASPI à pilotage hydraulique, actuellement sur le marché, qui consomment davantage d’énergie avec pour conséquence une faible productivité et un fort impact environnemental. De plus, il permet un pilotage fin pour une garantie de stabilité et répétabilité avec une répartition des épaisseurs de matière optimisée. Enfin, l’ergonomie de la machine permet de diminuer l’occupation d’espace et sécuriser son utilisation.

Plus précisément, l’emploi de la nouvelle machine de Manuplast :

  • entraîne des gains énergétiques de 30 % ;
  • réduit de 50 à 75 % la matière transformée par rapport au process 2D ;
  • permet de la production de pièces 3D de grande taille pouvant atteindre 1,40 m de longueur ;
  • autorise la réalisation de formes géométriques 3D complexes bien adaptée à des passages difficiles dans des encombrements restreints ;
  • offre la réalisation de pièces à haute résistance thermique (jusqu’à 250 °C) ;
  • optimise le poids des pièces par à un meilleur contrôle des répartitions durant la transformation.
     

Fukushima : des robots dans les réacteurs, et en vidéo

Le Japonais TEPCO, opérateur de la centrale nucléaire de Fukushima Daiichi, a enfin eu recours à des robots pour effectuer des mesures de radioactivité à l’intérieur même des réacteurs nucléaires n°1 et n°3 le dimanche 17 avril. Les robots utilisés ont été envoyés par la firme américaine iRobot, les « packbots », qui ont effectué ces mesures au cœur du réacteur.

Les Américains avaient envoyé en mars quatre robots, mais dont les Japonais ne s’étaient pas encore servis jusqu’ici : deux « 510 Packbots », munis de caméras embarquées, d’un dispositif de mesure et d’un bras articulé, montés sur des chenilles; les deux autres robots sont des « 710 Warrior », également munis de caméras embarquées et montés sur chenilles, mais pouvant soulever des objets allant jusqu’à une centaine de kilos. Ces deux types de robots ont déjà fait leurs preuves en Afghanistan et en Irak, servant habituellement dans des situations de guerre délicates, comme le désamorçage de bombes ou de mines. Les ingénieurs d’iRobot ont travaillé sans relâche 24 heures durant pour adapter au maximum les robots envoyés à la situation japonaise.

Les Américains d’iRobot, bien que présents dans le domaine militaire et dans celui de la gestion de risques, sont surtout connus pour le succès mondial de leurs modèles « Roomba » et « Scooba », des robots respectivement aspirateurs et nettoyeurs de sol intelligents, qui mémorisent la configuration des lieux pour les nettoyer de manière autonome.

Robots éclaireurs

Les robots télécommandés ont pénétré dans les réacteurs  dimanche matin, dans l’espoir de donner une idée plus précise aux autorités de ce qu’il se passe dans les profondeurs de la centrale. Les mesures de température et de radioactivité permettent de cartographier, en les complétant des images envoyées, les dégâts dans les zones irradiées et les taux de radiation, afin de permettre d’évaluer les risques encourus et le temps d’exposition maximal possible pour un liquidateur au travail.

Le Packbot ne travaille pas seul, il est épaulé par une excavatrice mécanique chargée de nettoyer le sol des débris et de les évacuer en dehors de la centrale, ainsi que par un hélicoptère de type drone, dont la mission est de prendre des photos aériennes du site de la catastrophe. Ce repérage et ces images sont primordiaux pour la TEPCO, pas vraiment dans un souci de transparence, mais parce qu’ils se sont engagés auprès des autorités à rétablir le circuit de refroidissement dans un délai de trois mois à partir du 17 avril. Si la mission des robots se trouve couronnée de succès, ils seront alors envoyés dans les deux autres réacteurs. Les images de la NHK sont disponibles ici :

Une première vidéo des liquidateurs

L’inquiétude et la pression des Japonais au sujet des liquidateurs, élevés au rang de martyrs et de gloires nationales, a incité le ministère de la Défense, conjointement avec la TEPCO, à diffuser les premières images des liquidateurs dans la centrale. Ces images, diffusées par la NHK, nous montrent ces hommes dans un camp d’entrainement près de Fukushima, décontaminant un camion et un hélicoptère revenant de la centrale en les aspergeant à l’aide d’une lance, et prenant des mesures. Ces images sont pourtant sujettes à caution : elles sont sans explications et ne proviennent toutefois pas de la centrale elle-même. Nous vous les montrons ici :

 

Par Rahman Moonzur

Des images 3D en temps réel de l’intérieur des tuyaux

L’obtention d’images tridimensionnelles de l’intérieur des tuyaux et des réservoirs intéresse de nombreuses industries de transformation et tout particulièrement l’industrie de la pâte et du papier. Il n’est donc pas surprenant que la société finlandaise Numcore Oy qui a développé un instrument de mesure faisant appel à la tomographie d’impédance et capable de génèrer en temps réel des images 3D, ait reçu le Trophée d’Or ATIP 2010 de l’Innovation des Technologies Papetières en France.

Pour les applications dans l’industrie papetière, la société s’est concentrée jusqu’à présent sur l’optimisation de l’utilisation des cassés de fabrication. L’étape de dosage des cassés constitue, en effet, un élément important de la production de papier : la génération des cassés de fabrication est inévitable et les variations dans leur dosage, particulièrement quand il s’agit de cassés couchés, peuvent perturber le fonctionnement de la partie humide.

L’instrument de mesure a été installé, à titre d’essai, dans quelques usines de pâte à papier et de papier cannelure pour carton ondulé. En plus d’être connecté aux systèmes de contrôle internes des usines, il est également relié au système informatique de Numcore. L’instrument de mesure est un capteur de débit CoreApus dont les électrodes mesurent, en continu, les différences de conductivité électrique des différentes phases de la masse en écoulement. L’obtention de l’image tridimensionnelle nécessite toutefois un calcul d’inversion, une modélisation mathématique très avancée qui constitue le cœur de métier de Numcore.

« Les installations pilotes sont pour nous des outils très importants de développement de produits, car les données de mesure obtenues nous permettent de repérer les corrélations entre les variations de la masse en écoulement et certains problèmes spécifiques au cours de la production. Cela nous a aidés à développer la modélisation de façon à pouvoir exploiter les données générées par l’instrument de mesure directement pour régler le processus de production et en augmenter l’efficacité » constate Jukka Hakola, Directeur commercial de Numcore.

Le dosage des cassés inspecté à la loupe

L’une des usines pilotes est l’usine de pâte à papier de Veitsiluoto de Stora Enso située à Kemi, au nord de la Finlande, où l’instrument de mesure de Numcore a été installé à l’étape de dosage des cassés de la PM5, fabriquant du papier pour magazine. Les cassés de fabrication se composent de cassés de papier de base et de cassés couchés.

« Ici, nous avons la possibilité de régler tant le raffinage et la quantité totale des cassés que la proportion des cassés de papier de base et couchés de façon à améliorer la qualité du papier de base ainsi que la roulabilité de la machine », explique Jukka Hautamäki, responsable du développement des processus à l’usine de Veitsiluoto. Selon lui, les exigences envers l’instrument de mesure sont vraiment élevées, la machine étant déjà très opérationnelle. « La technologie de Numcore est facile à utiliser et l’installation du capteur dans le processus s’est déroulée sans aucun problème. Le capteur génère environ 20 indices, affichés sur l’écran de l’opérateur et pouvant être intégrés aux autres paramètres de la machine dans notre système d’analyse de processus Savcor Wedge. Cela nous permet de chercher des corrélations, par exemple entre le degré de blancheur du papier de base et un taux de raffinage donné des cassés. »

Durant le printemps, des essais supplémentaires seront menés et consisteront à modifier progressivement l’affinement des cassés. Les changements seront comparés aux indices générés par le système de mesure, à la qualité du papier de base et à la roulabilité de la machine. « Lors des essais, nous éprouverons la machine pour révéler ce que l’instrument de mesure voit en réalité. Les essais se termineront fin avril, après quoi nous pourrons juger de la performance de cet instrument face aux exigences spéciales de notre processus de production. Notre objectif final est d’automatiser le dosage des cassés à l’aide de l’instrument », constate Jukka Hautamäki.

Un important potentiel d’économies

La deuxième installation pilote est l’usine Powerflute Savon Sellu Oy, fabriquant du papier pour carton ondulé dans la ville de Kuopio, à l’est de la Finlande, où l’instrument de Numcore mesure le débit de la pâte partant de la caisse de mélange.

« Cet instrument de mesure nous a déjà permis de constater qu’il y a une corrélation claire entre certains changements du débit de la pâte et les brèches durant le processus de production. Plus nous serons en mesure de constater à un stade précoce la formation d’impuretés dans le processus qui conduiront à une brèche, plus nous pourrons ajuster efficacement le processus de façon à éviter la brèche », explique Martti Laatikainen Directeur d’exploitation de l’usine. Selon lui, l’usine est particulièrement préoccupée par les changements de la quantité de cassés et les variations de la quantité de fines particules dans la pâte. « Si cet instrument peut nous aider à détecter les raisons de brèches, cela nous fera bénéficier d’importantes économies chaque année. C’est pourquoi nous avons été heureux de participer à la mise au point de cet instrument de mesure », observe Martti Laatikainen.

M.C

Apple dans le collimateur de deux experts en sécurité ?

Apple n’est pourtant pas le seul à le faire, et les conséquences sur notre vie privée, voire sur la sécurité des utilisateurs ne sont pas anodines. Deux experts en sécurité informatique ont fait une révélation mercredi dernier qui n’en finit pas de faire des remous dans le monde des systèmes mobiles et de la protection des données : les terminaux mobiles de la marque Apple (iPhone et iPad) seraient équipés d’un système de sauvegarde d’informations, un « tracker », enregistrant les déplacements effectués par l’utilisateur, sous forme de latitude et de longitude associées aux heures correspondantes.

Bien que le but de cette sauvegarde sur les terminaux soit pour le moment inconnue et qu’il semblerait que les informations ne soient pas (pour le moment) envoyées, elle laisse le champ libre aux commentateurs et autres utilisateurs de ces terminaux, qui ne se privent pas de livrer leurs inquiétudes ou leur colère un peu partout sur la Toile, Steve Jobs ne s’étant pour le moment pas encore exprimé. Lors des sauvegardes effectuées sur votre ordinateur, les fameuses synchronisations, le fichier tracker est lui aussi enregistré sur votre système, laissant ces données disponibles aux pirates de tous bords, et vulnérables.

Les chercheurs Alasdair Allan et Pete Warden rappellent toutefois qu’on peut désactiver la géolocalisation, et que ce n’est pas le système GPS qui est utilisé ici, mais plutôt le réseau Wifi auquel l’utilisateur se connecte qui le « trahit ».

Apple, Microsoft et Google

Les Smartphones équipés du système d’exploitation Android de Google stockent aussi ces données, d’après l’édition du vendredi 22 avril du Guardian, citant l’expert informatique suédois Magnus Eriksson. Ces téléphones garderaient « uniquement » en mémoire les 50 dernières antennes relais et les 200 derniers réseaux Wifi approchés par l’utilisateur.

Ce n’est pas vraiment une nouveauté (Microsoft et Google l’ont fait et le font encore), mais ce qui est pour le moins surprenant est que le stockage des données ne soit pas crypté. Qu’Apple voit ou non une utilité dans l’utilisation de ces données n’est finalement pas le plus important, ce sont les possibilités qui s’ouvrent à tous systèmes, applications ou personnes malveillants qui peut inquiéter, les données étant virtuellement accessibles.

Un invité à la maison

Un exemple très concret : l’iPhone, comme tous les Smartphones, possède un appareil photo intégré, de plus ou moins bonne qualité. Un geste aussi anodin que prendre une photo avec son iPhone a donc une étonnante conséquence : on peut associer une photo avec votre latitude et votre longitude. Lorsque vous prenez une photo à l’intérieur de votre maison de vous ou de vos proches, lorsque vous prenez une photo dans un endroit où vous avez vos habitudes, il devient donc possible de les associer à vos coordonnées, et un système, une application ou bien une personne mal intentionnés pourraient établir un profil de l’utilisateur, où il vit, ce qu’il y a dans son appartement, quelles sont ses habitudes, avec qui vit-il, quelles sont les personnes qu’il fréquente, s’il y a adultère…

Ennemis de la Révolution ?

Un autre exemple, plus ancré encore dans l’actualité : ce que l’on appelle d’ores et déjà « le Printemps Arabe », la kyrielle de manifestations ayant fait chuté le pouvoir tunisien et égyptien, faisant vaciller fortement la Libye, la Syrie ainsi que d’autres pays de la région, repose sur l’utilisation des réseaux sociaux pour coordonner les mouvements contestataires et les manifestations. Les pouvoirs en place pourraient alors, à l’aide de ces informations, repérer les meneurs d’un mouvement suffisamment tôt pour les empêcher d’agir, en les enfermant (ou bien pire), comme cela s’est vu en Chine il y a peu, pays qui a du lui aussi essuyer quelques manifestations avant de rétablir avec plus ou moins de succès une forme de blackout.

Rahman Moonzur

Les tests des gens d’en haut et ceux des gens d’en bas

Quand vous demandez à une équipe de développement si elle réalise des tests unitaires, elle dira toujours oui. Quand vous creusez, la signification du terme « test unitaire » est très variable : test manuel spécifié par un document, test automatisé d’IHM, classe de test avec un main ()… Finalement peu de projets industrialisent leurs tests unitaires avec des frameworks dédiés.
 
Tout d’abord parce que, aussi étonnant que cela puisse paraître, tout le monde ne connaît pas l’existence de ces frameworks, ou alors ne mesure pas bien leur intérêt par rapport à de simples main(). Pour rappel, un test unitaire, tel qu’on l’entend généralement en développement, est un test automatisé qui cible une méthode particulière d’une classe. Le niveau de granularité est donc le plus fin possible. Des frameworks spécialisés sur les tests unitaires existent et offrent les avantages suivants :

  • ils formalisent les tests selon une organisation et une écriture cohérentes ;
  • ils automatisent leur exécution ;
  • ils produisent des rapports d’exécution pour identifier les tests en échec ou les tests trop longs.

Un des avantages du monde .NET par rapport au monde Java est que l’environnement phare de développement Visual Studio propose par défaut un framework de tests unitaires (MSTest). Il n’est donc pas obligatoire d’aller chercher un framework tiers pour l’intégrer dans son développement comme en Java. En Java, deux frameworks Open Source monopolisent le marché : JUnit et TestNG. Côté .NET, il existe des alternatives Open Source à MSTest, comme NUnit et MbUnit. Globalement, tous ces frameworks se valent pour une utilisation basique.

Comment commencer ?

Une fois qu’on a choisi son framework de tests unitaires, le problème est de savoir par où commencer, quelles méthodes tester en priorité. Plusieurs stratégies sont possibles :

  • tester les méthodes les plus faciles à tester ;
  • tester les méthodes les plus utilisées (méthodes de couches utilitaires) ; 
  • tester les méthodes les plus risquées du point de vue technique (code complexe) ; 
  • tester les méthodes les plus risquées du point de vue métier (fonctionnalité critique pour les utilisateurs) ; 
  • ne tester que le nouveau code, mais de manière systématique.

La bonne stratégie est probablement un mélange de ces différentes options. Un point important à noter est que le code existant sera généralement plus difficile à tester, parce que non conçu avec l’objectif de le tester unitairement. En effet, quand vous êtes déjà habitués à implémenter des tests unitaires, vous développez différemment, avec l’optique que votre code soit facilement testable : découpage plus fin des méthodes, minimisation des dépendances (par exemple en recourant à des frameworks d’injection de dépendances), simplification des paramètres… C’est d’ailleurs un des grands intérêts de l’écriture de tests unitaires.

Faut-il tout tester ?

Les experts vous diront qu’un code non testé est un code jetable. L’idée est qu’on ne peut pas modifier un code non testé sans être sûr de ne pas introduire de régression. Cette affirmation est à nuancer pour les raisons suivantes :

  • tester peut coûter cher. Les extrémistes des tests unitaires soutiendront que tester à 100% son code ne revient pas plus cher eu égard au temps gagné sur le traitement des bugs. En tenant compte du temps passé à mettre à jour les tests unitaires suite aux évolutions du code (ce qui coûte généralement plus cher que l’initialisation des tests), cette affirmation est assez contestable ;
  • une méthode testée n’est pas forcément bien testée. Il ne suffit pas de créer un test pour garantir que le traitement est valide. Le test lui-même peut comporter des erreurs ou être incomplet ;
  • quelle est la valeur des tests de méthodes formelles telles que les accesseurs des classes (getter/setter, propriétés) ?
  • le code Java/C#/PHP n’est généralement qu’une partie de l’application. En suivant le principe de tout tester, il faut donc également tester unitairement l’IHM, la base de données, l’annuaire LDAP… Les frameworks de tests unitaires existent désormais pour de nombreux environnements, mais le coût de mise en œuvre augmente considérablement.

J’ai écrit mes premiers tests unitaires en 2000 avec JUnit, avec l’objectif de tester mon code à 100 %, dans le cadre d’un développement au sein d’un éditeur. J’ai tenu 3 mois avant de revenir à un objectif plus mesuré. 
Il est donc préférable de tester intelligemment. Tester intelligemment consiste à cibler les traitements les plus risqués et sur lesquels l’effort de test est réaliste. Ceci est similaire à la démarche pragmatique que l’on peut avoir sur l’analyse qualité : est-il vraiment utile de s’imposer des objectifs hyper exigeants si c’est pour exploser le délai de livraison ? Toutes les applications ont des défauts, techniques ou fonctionnels. Le point-clé est de bien les identifier et de mettre en balance l’intérêt de les corriger avec le coût de correction pour traiter en priorité les points critiques, et surtout de s’assurer de ne pas reproduire ces défauts dans les nouveaux développements.

Mesurer intelligemment la couverture des tests

Il est intéressant de connaître le niveau de test d’une application pour mesurer l’effort accompli et comparer ce niveau avec des versions précédentes ou avec d’autres applications similaires. Un premier indicateur est le nombre de tests unitaires. C’est un bon indicateur, simple, mais qui ne traduit pas l’étendue des tests au sein de l’application : de nombreux tests peuvent concerner uniquement une petite partie de l’application.
 
Le taux de couverture de code est un indicateur plus complet. Il mesure la proportion du code exécuté par les tests unitaires. La mesure peut porter sur le nombre de lignes de code exécutées, sur le nombre de conditions, de méthodes… On obtient dans tous les cas un pourcentage (par exemple 66 %) de l’application couverte par les tests unitaires. La couverture de code est mesurée par des outils spécialisés. Les plus connus côté Java sont Cobertura, EMMA, JaCoCo et Clover (le seul non Open Source des 4, par Atlassian). Côté .NET, on trouve NCover, Partcover, dotCover et aussi la fonction native de Visual Studio Team System.
 
Les outils de couverture sont très peu utilisés, même pour des projets qui réalisent des tests unitaires. Pourtant leur mise en œuvre est assez abordable (surtout quand ils ne demandent pas de retraiter le code avant déploiement, par exemple JaCoCo s’exécute avec une simple option de la JVM (javaagent:jacocoagent.jar), mais l’interprétation et l’exploitation de leurs résultats sont délicates.
 
Le taux de couverture de code peut être utilisé comme objectif de test, certains s’imposant des taux de 90 % voire 100 %. Comme souvent, ce sont les derniers pourcentages les plus fastidieux à atteindre et on peut douter de l’efficacité de ce type d’objectif au niveau de la qualité des tests.
 
Il est également possible de croiser ce taux brut de couverture avec la pertinence à tester les traitements pour proposer des objectifs plus réalistes. Une méthode qui présente un fort intérêt à être testée se verra associer un objectif de couverture fort (exemple : 90 %), alors qu’une méthode pour laquelle un test n’aurait aucun intérêt aura un objectif de couverture de 0 %. De manière globale, nous pouvons ainsi pondérer le taux de couverture de l’application en tenant compte de ces différents objectifs, avec comme résultat possible qu’une application affiche un taux de couverture pondéré de 80 % alors que sa couverture brute n’est que de 50 %. De cette manière, l’équipe projet peut se focaliser sur les tests les plus efficaces.

Conclusion

Nous sommes toujours surpris de l’écart entre les pratiques recommandées et les pratiques mises en œuvre. On peut toujours parler de TDD (Test Driven Development) ou de couverture de code, mais l’effet est limité quand le projet n’est toujours pas passé aux tests unitaires ou alors que les tests ont été abandonnés faute d’intérêt. Il est donc important de rendre pragmatiques des notions qui paraissent trop souvent théoriques et trop détachées du terrain pour la majorité des développeurs.

Par Sylvain François, Directeur R&D chez Kalistick 

Les Laboratoires Genévrier sécurisent leur SI

Dès leur création en 1987, les Laboratoires Genévrier ont décidé de lier leur essor à leur capacité à répondre aux besoins des professionnels de santé pour œuvrer, à travers le bon usage de leurs spécialités, à l’amélioration de la qualité, la sécurité, l’efficacité et l’efficience des soins apportés aux patients. Cette volonté de « Partage des compétences » qui est un des fondements constitutifs de l’entreprise, se traduit notamment par la mise à disposition des soignants d’un produit nouveau tous les 18 mois en moyenne.
 
Le système d’information est un élément clé de l’infrastructure des Laboratoires Genévrier. Impactant toutes les activités du laboratoire (recherche, commerce, finance, gestion…), il doit toujours être disponible et permettre aux équipes de travailler en toute sérénité. Dans ce contexte, le groupe a décidé en 2008 de mettre en place un plan de continuité d’activité (PCA) et un plan de reprise d’activité (PRA) pour garantir une parfaite protection de son SI et des données. L’objectif était clairement de dupliquer son infrastructure présente en interne. Au niveau technologique, les Laboratoires Genévrier ont notamment déployé une architecture virtualisée sous VM Ware, un stockage en réseau (SAN) Netapp…

 Le siège et le data center reliés par fibre optique

Très rapidement, l’option de s’appuyer sur un data center pour construire le plan PRA et PCA a été validée. Après étude, le choix d’Euclyde s’est imposé en raison du positionnement du groupe sur le marché, des SLA (Service Level Agreement) proposés et de ses infrastructures qui permettent de garantir une disponibilité permanente du SI. Euclyde dispose, en effet, à Sophia Antipolis, sur 1 500 m2, d’un data center de dernière génération de classe IV, ce qui signifie qu’il est composé de plusieurs circuits électriques pour l’énergie et pour la distribution de refroidissement, dispose de composants redondants et actifs, supporte la tolérance de panne et offre un taux de disponibilité de 99,995 %.
 
Opérationnellement, l’infrastructure déployée chez Euclyde est le miroir de celle du siège social (stockage de données en Y générées en interne…). Actualisée en temps réel, elle permet donc au laboratoire de ne pas connaître de rupture d’exploitation en cas d’indisponibilité de son SI interne. Pour garantir une parfaite connectivité entre le siège du laboratoire et le data center d’Euclyde, une fibre optique multiplexée comprenant 5 brins (4 brins de 2 Gbps et 1 brin Giga Ethernet) a été installée par Completel.
 
« Vital dans nos activités, notre Système d’information doit être disponible 24 heures sur 24 et 365 jours sur 365. L’expertise des équipes d’Euclyde nous ont permis de concevoir et de mettre en place, en un temps record, un plan de PCA et de PRA sur mesure. Messagerie, archivage des mails, bases de données, dossiers de R&D et des brevets, duplications des données financières et de gestion… sont autant de points clés qui sont sécurisés » affirme M. Picon, Directeur des Systèmes d’Information des Laboratoires Genévrier.