Les Laboratoires Genévrier sécurisent leur SI

Dès leur création en 1987, les Laboratoires Genévrier ont décidé de lier leur essor à leur capacité à répondre aux besoins des professionnels de santé pour œuvrer, à travers le bon usage de leurs spécialités, à l’amélioration de la qualité, la sécurité, l’efficacité et l’efficience des soins apportés aux patients. Cette volonté de « Partage des compétences » qui est un des fondements constitutifs de l’entreprise, se traduit notamment par la mise à disposition des soignants d’un produit nouveau tous les 18 mois en moyenne.
 
Le système d’information est un élément clé de l’infrastructure des Laboratoires Genévrier. Impactant toutes les activités du laboratoire (recherche, commerce, finance, gestion…), il doit toujours être disponible et permettre aux équipes de travailler en toute sérénité. Dans ce contexte, le groupe a décidé en 2008 de mettre en place un plan de continuité d’activité (PCA) et un plan de reprise d’activité (PRA) pour garantir une parfaite protection de son SI et des données. L’objectif était clairement de dupliquer son infrastructure présente en interne. Au niveau technologique, les Laboratoires Genévrier ont notamment déployé une architecture virtualisée sous VM Ware, un stockage en réseau (SAN) Netapp…

 Le siège et le data center reliés par fibre optique

Très rapidement, l’option de s’appuyer sur un data center pour construire le plan PRA et PCA a été validée. Après étude, le choix d’Euclyde s’est imposé en raison du positionnement du groupe sur le marché, des SLA (Service Level Agreement) proposés et de ses infrastructures qui permettent de garantir une disponibilité permanente du SI. Euclyde dispose, en effet, à Sophia Antipolis, sur 1 500 m2, d’un data center de dernière génération de classe IV, ce qui signifie qu’il est composé de plusieurs circuits électriques pour l’énergie et pour la distribution de refroidissement, dispose de composants redondants et actifs, supporte la tolérance de panne et offre un taux de disponibilité de 99,995 %.
 
Opérationnellement, l’infrastructure déployée chez Euclyde est le miroir de celle du siège social (stockage de données en Y générées en interne…). Actualisée en temps réel, elle permet donc au laboratoire de ne pas connaître de rupture d’exploitation en cas d’indisponibilité de son SI interne. Pour garantir une parfaite connectivité entre le siège du laboratoire et le data center d’Euclyde, une fibre optique multiplexée comprenant 5 brins (4 brins de 2 Gbps et 1 brin Giga Ethernet) a été installée par Completel.
 
« Vital dans nos activités, notre Système d’information doit être disponible 24 heures sur 24 et 365 jours sur 365. L’expertise des équipes d’Euclyde nous ont permis de concevoir et de mettre en place, en un temps record, un plan de PCA et de PRA sur mesure. Messagerie, archivage des mails, bases de données, dossiers de R&D et des brevets, duplications des données financières et de gestion… sont autant de points clés qui sont sécurisés » affirme M. Picon, Directeur des Systèmes d’Information des Laboratoires Genévrier.
 

Le modèle EFQM démystifié

Des années après les meilleurs européens, allemands et anglais en tête, les français commencent enfin à s’engager dans une démarche EFQM (European Foundation for Quality Management) qui, selon  Florent A. Meyer, auteur de l’ouvrage « Le Guide de l’EFQM – Réussir son passage vers l’excellence et la performance durables », n’est pas un prolongement de l’ISO 9001. Alors que ce dernier est une norme relative à un système de management qui appelle à la conformité, l’EFQM est un référentiel qui permet d’évaluer l’alignement de maturité de son organisation,  tant au niveau des facteurs (approches et pratiques) mis en œuvre que des résultats (de performance et de perception) obtenus. Il constitue à la fois un guide, un cadre d’évaluation et un référentiel de comparaison pour les organisations. Son cœur de cible, ce sont les leaders et les managers, pas les « sachants » de l’ingénierie des systèmes de management, même si ces derniers viennent juste derrière.

Le contenu de l’EFQM est le fruit de la mise en commun de multiples années d’expérience des meilleures organisations européennes. C’est ce condensé d’expérience collective des meilleurs praticiens de l’excellence et de la performance durables qui lui donne ses qualités :

  • de ne pas être prescriptif dans le sens où il n’impose pas de méthode ni d’outil ;
  • d’offrir une vue holistique de l’organisation plongée dans l’océan de la globalisation ;
  • d’articuler les termes pour le pilotage de l’organisation (immédiat, court, moyen long) ;
  • d’être orienté sur l’essentiel, à savoir les résultats, tout en poussant à l’apprentissage, à la créativité et à l’innovation collectives en matière d’approches pour les atteindre.

Le modèle EFQM est un univers d’apprentissage de la complexité systémique articulant les approches et les résultats en matière d’excellence et de performance durables. La logique entrepreneuriale  que l’on acquiert en le pratiquant peut se résumer simplement par la réflexion suivante : « En ayant fait telle chose, articulée avec telles autres, nous avons obtenu tels résultats au bout de tant de temps. Ces résultats ont telle tendance sur plusieurs années, sont meilleurs ou moins bons que ceux des meilleurs dans ce domaine parce que nous avons fait telle ou telle chose en plus ou en moins qu’eux. Cette logique que nous continuons à améliorer nous permet de prévoir sereinement de bons résultats sur les années à venir parce que nos premiers indicateurs sont tout à fait positifs… » écrit Florent A. Meyer.

Dans son guide, Florent A. Meyer offre au lecteur une description détaillée et pratique de la mise en place d’une démarche EFQM au sein d’une organisation. Il présente également, de manière simple et pédagogique, les fondamentaux qui permettent de bien comprendre la vision de l’excellence qui caractérise ce modèle complétés par  de nombreuses fiches et modèles pratiques tirés de son expérience. Il est en effet l’un des rares en France à avoir conduit une entreprise jusqu’au Prix européen de la qualité (EFQM), en passant par les certifications ISO 9001, OHSAS 18001, ISO 14001, SA 8000, le Prix régional de la qualité et le Prix français de la qualité. Consultant en systèmes de management pour des entreprises, il met cette expérience au service de groupes nationaux et internationaux en tant que conseiller des directions générales en matière d’alignement stratégique, d’alignement opérationnel et d’alignement de maturité. Il est également enseignant en excellence et performance durables, maîtrise des risques et innovation auprès de masters universitaires et d’écoles d’ingénieurs (Marne-la-Vallée, Hubert-Curien, EFREIÉ) ainsi qu’assesseur EFQM et CAF, membre du jury EQA, auditeur certifié ICA (ISO 9001, ISO 14001, OHSAS 18001) et IRCA (ISO 27001).

Par M.C
 

Contrôler un ordinateur par la pensée

Une équipe de l’Université Ben Gourion du Negev (UBGN), à Beer-Sheva, en Israël, composée d’étudiants en Génie logiciel ainsi que de trois chercheurs en Génie, a développé une technologie innovante qui pourrait permettre de faire fonctionner n’importe quel ordinateur sans l’aide de nos périphériques habituels, la souris et le clavier, mais bien uniquement à l’aide de leurs ondes cérébrales.

Bien qu’il y ait eu précédemment de très nombreuses tentatives visant à développer des systèmes capables de lire ces ondes cérébrales et de faire fonctionner des programmes bien précis, ces appareils se trouvaient toujours fort encombrants et étaient inutilisables en dehors de l’encadrement lourd que peut fournir un laboratoire, et dans des conditions expérimentales trop contraignantes.

Un casque muni de 14 électrodes

La technologie développée par l’équipe de l’UBGN comprend un casque équipé de quatorze points munis d’électrodes, permettant de mesurer l’activité électrique du cerveau, autrement dit de faire une électro-encéphalographie. Les signaux recueillis sont analysés et interprétés à l’aide de ce logiciel, pour enfin être traduits en actions gérées par le système d’exploitation de la machine.

Selon le professeur Rami Puzis, un des chercheurs, « cette technologie est destinée en priorité à assister les potentiels utilisateurs qui sont physiquement déficients, qui ne peuvent d’aucune manière manipuler une souris d’ordinateur ou bien un clavier ».

L’équipe estudiantine a mis au point sa version prototype pour leur projet de fin d’études, et en a fait la démonstration grâce à un étudiant, qui a composé et envoyé un e-mail sans l’aide de ses mains, seulement à l’aide de ses pensées et du logiciel adéquat. Ils prévoient de continuer dans cette voie pour aider les handicapés lourds, dont les quelques aides et moyens mis à leur disposition sont à trouver du côté des logiciels à commandes vocales. Un bon nombre d’innovations initialement pensées pour les handicapés truffent notre vie de tous les jours.

Par Moonzur Rahman

 

Déjà publié :

OpenVibe, un logiciel français pour agir par la pensée

L’ordinateur connecté à nos muscles : bientôt une réalité ?

IBM fait un pas de plus vers le cerveau virtuel

Energies renouvelables : les techniques d’avenir

En 2050, la population mondiale atteindra 9 milliards d’habitants, soit 2 milliards de plus qu’à la fin de cette année ont rappelé d’entrée Michel Dubois (LaSalle Beauvais) et Luc de Marliave (Total) lors des 8émes Journées de l’Environnement organisée par l’Institut Polytechnique LaSalle Beauvais. Sauf crise majeure, la croissance économique globale, surtout tirée par les pays dits émergents, entraînera, en absence de changement, une croissance de la demande mondiale en énergie d’au moins 40 % par rapport à la demande actuelle.

Toutefois, la part des énergies renouvelables, bien qu’en croissance rapide, ne couvrira pas cette augmentation. En prenant en compte la décroissance des énergies fossiles (baisse de la production pétrolière, mesures volontaristes contre la production de gaz à effet de serre…), il manquera entre 5,1 et 8,5 Gtep pour répondre à la demande totale estimée à 20 Gtep ! Comment les combler ? Sobriété énergétique ? Efficacité énergétique ? Nucléaire ?… Il s’agira d’une transformation industrielle et sociétale considérable.

Les différentes voies d’énergies alternatives

Parmi les techniques d’avenir, les nanomatériaux (nanoparticules, nanofilms, nanofibres) et les bioénergies (micro-ondes, ozonation, méthanisation) sont plus que jamais d’actualité.

Les biocarburants représentent un enjeu à la fois économique et écologique face à l’augmentation du prix du pétrole, à l’épuisement des ressources fossiles et aux problèmes environnementaux, comme l’a souligné Robert Ralainirina (LaSalle Beauvais). Ces biocarburants, issus de la transformation de matières végétales, sont nettement moins polluants et se positionnent comme des pistes prometteuses de substitution aux énergies fossiles. Thierry Ribeiro (LaSalle Beauvais) est revenu sur le mode de production du biogaz par la méthanisation de la matière organique. Il a insisté sur ses valorisations possibles : l’électricité, la chaleur, voire même le froid (utilisé en chaudière ou en injection dans le réseau de gaz), ainsi que le carburant par la production du biométhane. Grâce à la volonté politique de développement de cette bioénergie, 1000 unités de biogaz devraient voir le jour sur le territoire national, d’ici 4 à 5 ans.

Les recherches dans le domaine du photovoltaïque sont également très actives. Daniel Lincot (IRDPE) a affirmé que la production photovoltaïque a augmenté d’environ 40% par an, ces dernières années dans notre pays, avec une progression marquée des filières technologiques couches minces par rapport aux filières technologiques basées sur le silicium cristallin. La recherche vise en particulier à l’augmentation des rendements (le record obtenu étant de près de 42 %) ou encore à l’apparition de nouvelles structures de cellules solaires. Cette industrie étant encore jeune, le seuil de compétitivité de cette technologie est attendu pour 2015-2020. Luc de Marliave (Total) a complèté ces chiffres par une vision au niveau mondiale : le solaire photovoltaïque a une croissance assurée de 20 à 25 % par an jusqu’en 2020.

La mer est également un milieu riche en flux énergétiques pouvant être exploités sous différentes formes. Olivier Bain (LaSalle Beauvais) a dressé un bilan des principales sources d’énergies marines : l’énergie marémotrice, l’énergie des courants de marée (houlomotrice), l’énergie thermique des mers, l’énergie des gradients de pression osmotique, l’éolien offshore et l’énergie des vagues. Dans le monde, ces technologies se trouvent à divers stades de développement. En France, la croissance de leur utilisation est programmée puisque le pays possède une ouverture océanique conséquente. Vers 2020, les projets labellisés de récupération de l’énergie marine devraient générer plus de 3 200 emplois directs.

Pour anticiper les besoins en énergie de demain tout en réduisant parallèlement les émissions de gaz à effet de serre, il sera nécessaire d’utiliser plusieurs énergies renouvelables comme ressources additionnelles aux énergies fossiles dont la part doit nécessairement décroître. Vraisemblablement, selon Luc de Marliave (Total), le charbon, le solaire et le nucléaire devraient apporter les principales contributions. Total, pour sa part, a choisi de parier sur le solaire, la biomasse et une énergie sans CO2 : le nucléaire. En ce qui concerne la biomasse, l’entreprise privilégie trois voies de transformation expérimentées dans 8 projets pilotes : la thermo-(bio)chimie pour les carburants, le biochimie pour les lubrifiants et les algues photosynthétiques pour les produits chimiques.

Les risques liés au développement des énergies renouvelables

La jeunesse de ces technologies induit une méconnaissance des risques liés à leur utilisation, que ce soit pour les biocarburants, les biogaz, ou encore les nanomatériaux qui se développent de manière fulgurante. C’est pourquoi, comme l’a rappellé Alexis Vignes, l’INERIS travaille à produire et collecter des données de sécurité, afin de maîtriser au mieux les risques accidentels et sanitaires et de contribuer à l’élaboration d’un cadre réglementaire et normatif adapté.

Le transfert de technologie pour un équilibre mondial

Chaden Diyab (IES-EMCA) a souligné cependant l’importance de trouver des solutions environnementales, industrielles et politiques afin de préserver l’équilibre entre les pays producteurs pétroliers du Sud et ceux producteurs de technologies du Nord. D’ailleurs, certaines grosses firmes pétrolières vont dans ce sens, comme Luc de Marliave l’a expliqué pour Total qui s’est engagé dans divers projets : implication dans l’industrie du solaire photovoltaïque, partenariat sur l’une des plus grandes centrales solaire concentré au monde à Abou Dhabi ou encore distribution et production de biocarburants en Europe.

M.C

 

La sûreté nucléaire en France, au centre des débats

La conception des centrales nucléaires en France s’appuie sur le risque de catastrophes naturelles (crues, inondation, séisme, etc.), en fonction de l’historique de la zone concernée. Les centrales sont étudiées pour résister au risque sismique maximal constaté sur les 1 000 dernières années, augmenté d’une marge de sécurité. Un retour d’expérience est réalisé après chaque incident, et des modifications sont apportées aux centrales, quand cela s’avère nécessaire.

Plus que le risque sismique, c’est le risque d’inondation qui est considéré par les experts comme le plus probable en France.

L’incident de la centrale nucléaire du Blayais (Aquitaine), inondée par l’estuaire de la Gironde lors du passage de la tempête de décembre 1999, a montré que la France n’était pas bien préparée au déchaînement des éléments naturels. Un mètre d’eau supplémentaire au Blayais aurait pu nuire au refroidissement du réacteur, comme à Fukushima. 

André-Claude Lacoste, président de l’ASN (Autorité de Sûreté  Nucléaire) a d’ailleurs reconnu après l’accident de la centrale de Fukushima, que la France n’était pas préparée au « cumul » de catastrophes naturelles.

Cette année, l’ensemble du parc nucléaire français va faire l’objet d’un audit de l’ASN, qui se prononcera, fin 2011, sur l’état de sécurité des centrales françaises. Plusieurs centrales trentenaires seront à l’arrêt durant plusieurs mois, le temps d’une visite décennale, qui, si elle est positive, devrait prolonger leur durée de vie jusqu’à 40 ans.

Chez EDF, qui, rappelons-le est l’unique producteur d’électricité nucléaire dans l’Hexagone, le dernier incident de niveau 2 (sur une échelle de 7) a été déclaré le 16 février 2011, à la centrale du Tricastin (Drôme). Il concernait une faiblesse des groupes électrogènes diesel de secours. En décembre 2010, à l’issue d’un « réexamen de sûreté », l’ASN avait donné dix années supplémentaires au réacteur numéro 1 du Tricastin, qui devait pouvoir fonctionner jusqu’à 40 ans au total.

Le 1er février 2011, une anomalie a été détectée dans le système d’injection de sécurité de l’ensemble des 34 réacteurs de 900 MWe. Plus récemment, le 3 avril 2011, alors que le réacteur n°1 de la centrale nucléaire de Fessenheim (Haut-Rhin) était dans une phase de montée en puissance après une opération de maintenance, un système de protection automatique a provoqué l’arrêt du réacteur à la suite d’une erreur de pilotage. Construite dans une zone sismique, la doyenne  alsacienne des centrales nucléaires (1977) concentre actuellement les inquiétudes des antinucléaires, qui demandent sa fermeture et l’organisation d’un référendum sur la sortie du nucléaire.

Jeudi prochain, EDF sera auditionné par l’ASN au sujet de son plan post-Fukushima. Dans son rapport annuel 2010, l’ASN affirmait que la sûreté des centrales EDF était « assez satisfaisante ».
 

Le parc nucléaire français

  • La France est la deuxième puissance nucléaire mondiale, derrière les États-Unis et devant le Japon.
  • Elle comptabilise 58 réacteurs à eau pressurisée, dont 34 produisent chacun une puissance électrique de 900 mégawatts (MWe). À cela, s’ajoutent 20 réacteurs de 1 300 MWe, tandis que les quatre autres délivrent 1 450 MWe.  Les réacteurs sont âgés de 25 ans en moyenne.
  • Les 58 réacteurs sont répartis dans 19 centrales sur tout le territoire, pour une puissance totale de 63 260 MW (cf. carte ci-dessous). On dénombre 104 réacteurs aux États-Unis et 55 au Japon.
  • Actuellement, ces installations fournissent près de 80 % de l’électricité produite en France.
  • Un 59e réacteur de type EPR (Evolutionary Power Reactor), le premier en France, est actuellement en construction à Flamanville, au bord de la Manche. Il développera une puissance électrique de l’ordre de 1 600 MWe. Un autre réacteur devrait être construit à Penly (Seine-Maritime).
  • La centrale de Fessenheim (Haut-Rhin) est la plus ancienne : elle a été mise en service en 1977. Elle possède deux réacteurs de 900 MW.
  • Civaux (Vienne) est la centrale la plus récente (2002) avec la mise en service du réacteur numéro 2 en 1999. Elle possède deux réacteurs de 1 450 MW.

 

L’ASN

L’ASN assure, au nom de l’État, le contrôle des installations nucléaires françaises. Cet organisme définit, avec le ministère chargé de la sûreté nucléaire, la réglementation technique, et peut imposer des prescriptions aux exploitants pouvant aller jusqu’à la fermeture en cas de risque grave et imminent. L’ASN s’appuie notamment sur l’expertise de l’IRSN (‘Institut de Radioprotection et de Sûreté Nucléaire).

L’exploitant EDF doit transmettre systématiquement à l’ASN tout incident ou dysfonctionnement relevé sur le parc. L’ASN l’analyse et rend public son avis sur chaque incident, même le plus minime. L’ASN effectue également des visites inopinées sur l’ensemble du parc.

En juillet 2009, l’ASN avait donné un feu vert de principe à une prolongation jusqu’à 40 ans de l’exploitation des réacteurs de 900 mégawatts, les plus anciens, sous réserve d’une évaluation au cas par cas.

Les incidents français

Les deux plus graves accidents jamais signalés en France ont été classés au niveau 4 sur l’échelle des événements nucléaires et radiologiques (INES), qui en compte 7 (l’accident au Japon a été relevé au niveau 7 depuis le 12 avril 2011). Ils sont survenus dans la centrale de Saint-Laurent-des-Eaux (Loir-et-Cher) en octobre 1969 et en mars 1980 avec, dans les deux cas, un début de fusion des combustibles.

De nombreuses « anomalies » (niveau 1), voire des « incidents » (niveaux 2 et 3), sont en revanche signalés chaque année.

En 2009, l’IRSN a recensé 713 « événements significatifs pour la sûreté », en hausse de 14 % par rapport à 2008 et une augmentation quasi constante depuis 2005. Dans 85 % des cas, ils étaient liés à une erreur humaine.

Toujours en 2009, la France a recensé 699 incidents de niveau 0, 95 incidents de niveau 1 et un incident de niveau 2. Selon Greenpeace, ces incidents sont « souvent sous-évalués » et « parfois évités de justesse ».

 

Consulter la liste des avis d’incidents dans les installations nucléaires françaises déclarés à l’ASN
 

C.H.

 

Sources : Gooldplanet ; Le Figaro ; l’ASN ; Ministère de l’écologie, du développement durable, des transports et du logement

 

Déjà publié :

Un audit va être réalisé sur le parc nucléaire français

Une mini-centrale nucléaire sous-marine en 2017 ?

Le réacteur 2 a été colmaté grâce à du verre liquide

KIS, l’intubation assistée et robotisée

Le système robotique appelé « Kepler Intubation System » (KIS), mis au point par le Docteur Thomas Hemmerling, chercheur en neurosciences et professeur d’anesthésie au McGill University Health Centre (MUHC) et son équipe, devrait faciliter la procédure d’intubation et réduire les complications liées à la gestion des voies respiratoires. La première intubation effectuée dans le monde à l’aide d’un robot a eu lieu au General Hospital de Montréal plus tôt ce mois-ci, par le même docteur Hemmerling.

« Le KIS nous permet de faire fonctionner un laryngoscope robotisé muni d’une caméra-vidéo, à l’aide d’un joystick depuis un poste de commande à distance », précise le Dr Hemmerling. Ce système rend possible l’insertion précise et sure d’une sonde d’intubation endotrachéale dans la trachée du patient. L’insertion de cette sonde assure le maintien de la perméabilité des voies aériennes du patient tout en permettant la ventilation mécanique, utilisée dans la plupart des anesthésies générales. L’insertion parfaite de la sonde est une manœuvre plutôt complexe qui requiert une certaine expérience pour pouvoir la maitriser.

« Des difficultés apparaissent parce que les caractéristiques et les différences de chaque patient induisent une gestion des voies aériennes qui leur est propre, elles ont une incidence sur le bon déroulement des opérations », explique le Dr Hemmerling. « Mais cette incidence est grandement réduite lorsque le KIS est employé ». Après l’avoir étrenné avec succès sur les « voies aériennes » de mannequins de simulation, ressemblant presque en tout point à une intubation sur un être humain, les tests cliniques ont d’ores et déjà commencé.

Les équipements high-tech ont révolutionné la pratique de la chirurgie, apportant une plus grande précision sans effort, augmentant de manière significative la sécurité du patient. Le KIS, comme bien d’autres systèmes et innovations technologiques, pourrait donc bien devenir un nouveau standard de la chirurgie.

Moonzur Rahman

 

Déjà publié :

Un robot, mais tailleur de pierres naturelles

RoboCup 2010 à Singapour, le robot officiel est français

Un nouveau verre de sécurité feuilleté minimise les coûts de rénovation

Le verre de sécurité feuilleté est de plus en plus utilisé pour remplacer le verre de sécurité trempé dans les projets de rénovation de façades. Il présente en effet divers avantages : notamment, en cas de rupture, les fragments de verre adhèrent à l’intercalaire, de telle sorte que le panneau reste quasiment intact, en place dans sa fixation, et conserve une haute résistance. Toutefois, pour offrir la même capacité de charge que le verre de sécurité trempé, un verre feuilleté standard produit avec un intercalaire en polyvinyle butyral (PVB) est considérablement plus lourd.

Telle était la situation du siège du Fraunhofer Gesellschaft, organisme allemand de recherches en sciences appliquées, à Munich : une façade en verre de sécurité trempé qu’un projet de modernisation demandait de remplacer par du verre de sécurité feuilleté. Des feuilletés standard basés sur un intercalaire (PVB) auraient dépassé la capacité de charge de la structure de soutien et des cadres métalliques des panneaux, d’où la nécessité de procéder à d’importantes modifications.

Une résistance après rupture nettement plus élevée

Les calculs effectués par Flachglas Wernberg spécialiste de la transformation du verre, avec l’assistance de DuPont ont montré qu’un feuilleté composé de deux plaques de verre de sécurité trempé de 5mm d’épaisseur et d’un intercalaire SentryGlas de DuPont de 1,52mm résisterait aux charges attendues. L’épaisseur totale du verre (10mm) étant la même que celle du verre de sécurité trempé utilisé jusqu’alors, les ingénieurs structurels ont approuvé cette solution sans aucune modification de la structure en place. En effet, un panneau feuilleté avec un intercalaire SentryGlas étant environ un tiers  moins épais et plus léger qu’un panneau offrant la même performance mais produit avec un intercalaire PVB, la capacité de chargement en augmente d’autant.

L’intercalaire SentryGlas est 100 fois plus rigide et 5 fois plus résistant qu’un intercalaire PVB conventionnel, ce qui permet un transfert de charge quasiment parfait entre les deux plaques de verre. Ainsi, à charge égale, les feuilletés produits avec SentryGlas présentent une flèche correspondant à moins de la moitié de celle d’un feuilleté contenant un intercalaire PVB, et quasiment le même comportement qu’un verre monolithique de même épaisseur. Ils peuvent aussi résister à des chocs bien plus importants que les feuilletés PVB et, s’ils viennent malgré tout à se briser, conservent une résistance après rupture nettement plus élevée.

Le Fraunhofer Gesellschaft a donc choisi le verre de sécurité feuilleté Siglaplus de Flachglas Wernberg produit avec l’intercalaire SentryGlas qui associe un niveau de sécurité élevé et un poids particulièrement faible. Il a ainsi été possible de conserver la structure de soutien existante, conçue à l’origine pour un verre de sécurité trempé, et donc de minimiser le coût d’ensemble de cette rénovation d’envergure en dépit du coût théoriquement plus élevé par mètre carré de vitrage. Une surface totale de 1700m2 a ainsi été restaurée lors de cette modernisation, dont la mise en œuvre a été assurée par la société allemande Atzinger Glasbau GmbH d’Osterhofen-Altenmarkt.

M.C
 

Premier système de navigation en entrepôt utilisable en allée large

Il existe une différence fondamentale entre la navigation en allée étroite, qui repose sur la technologie RFID d’identification par radiofréquence avec des transpondeurs placés au sol, et celle en allée large nécessitant un système spécial. « En effet, les chariots en allée large ne sont pas filoguidés comme dans l’entrepôt à allées étroites et se déplacent librement », précise Helmut Limberg, Directeur commercial et Membre du Directoire de Jungheinrich qui sera la première entreprise au niveau mondial à présenter un système de navigation en entrepôt utilisable en allée large et dans la zone de transfert.

Une utilisation judicieuse de la navigation en allée large suppose que tous les chariots de manutention en service, chez l’utilisateur, soient intégrés à la chaîne globale des process, qui va de l’entrée de marchandises ou du déchargement des camions à l’expédition ou au chargement des camions. Le système de navigation en allée large qui sera présenté au salon CeMAT 2011 de Hanovre, en mai prochain, est un module qui peut être installé sur différents chariots Jungheinrich tels que les chariots à mât rétractable, les préparateurs de commandes ou les chariots électriques. 

Détermination exacte de la position des chariots 

 Jungheinrich utilise, pour la navigation en allée large, un système de localisation optique qui permet de déterminer en permanence le positionnement précis des chariots, à quelques centimètres près. Le terminal RF 2475 avec l’interface logistique Jungheinrich est l’élément de base de ce système de navigation. L’interface « traduit » les ordres du système de gestion de l’entrepôt en langage-chariot et inversement.

Ce nouveau système de navigation Jungheinrich comporte différentes fonctions. Le système de guidage indique au cariste, entre autres, quelle est la direction à prendre et l’itinéraire à suivre comme le GPS d‘une voiture. Si le cariste se trompe de direction, le système le lui signale. Si la direction est maintenue, l’itinéraire est redéfini. Le but est que le chariot parvienne à destination en utilisant l‘itinéraire le plus court ou le plus rapide. La fonction « localisation du chariot » détermine en  permanence la position du chariot. Les informations concernant la localisation des chariots sont transmises simultanément au système de gestion de l’entrepôt ou à un système de gestion des chariots, ce qui permet d’optimiser la gestion de la flotte de chariots. A titre de comparaison, « le système de navigation pour l‘entrepôt à allées étroites que Jungheinrich commercialise depuis deux ans permet d’obtenir une augmentation de rendement du transport de charges allant jusqu’à 25 % ».

Renforcement sensible de la sécurité des process

Lorsque le cariste est arrivé à destination, à un emplacement donné dans l’allée de rayonnage par exemple, et qu’il commande par impulsion la levée du mât, la fonction « présélection de hauteur de levée » assure le déploiement automatique du mât jusqu’à l’emplacement de palette spécifié par le système de gestion de l’entrepôt. La lecture par scanner ou une autre confirmation de l’emplacement n’est plus nécessaire. « Le système de guidage, la présélection de la hauteur de levée et les confirmations automatiques transmises au système de gestion de l‘entrepôt allègent, au total, considérablement la tâche du cariste. Il n’y a plus d‘erreur de rayonnage ou d’alvéole dans les opérations de stockage ou déstockage. A l’avenir, l’utilisation d’un système de navigation pour l‘entrepôt à allées larges renforcera considérablement la sécurité des process des systèmes logistiques ou de gestion de l’entrepôt » indique Helmut Limberg.

M.C

 

 

  

Le management par les risques informatiques

M.CLe développement continu des technologies de l’information (Web, mobilité, réseaux sociaux, Cloud computing…), le recours croissant à l’externalisation de fonctionnalités, la gestion de l’entreprise numérique étendue, l’implication croissante des métiers conduisent les entreprises à ajuster régulièrement leur stratégie, leur politique et leur organisation. Toutes ces évolutions sont autant d’opportunités permettant de créer de la valeur mais leur mauvaise maîtrise accroît le risque pour l’entreprise de ne pas atteindre ses objectifs.

Le management par les risques est donc une des dimensions importantes de la gouvernance de l’entreprise. L’AFAI (Association Française de l’Audit et du Conseil Informatiques) accompagne les parties prenantes concernées par le risque informatique en publiant deux ouvrages complémentaires pour favoriser le passage de la gestion des risques à la gestion par les risques informatiques.

Risk It est le référentiel de management du système d’information et des technologies par les risques. C’est à la fois un guide de principes directeurs et de bonnes pratiques. Il aide les entreprises à mettre en place une gouvernance ad hoc, à identifier et à gérer efficacement les risques informatiques.

Il a été réalisé par une centaine d’experts internationaux de l’ISACA (Information Systems Audit and Control Association) et adapté en langue française par l’AFAI, en coopération étroite avec d’autres associations francophones. Parallèlement, l’AFAI a élaboré un document sur la cartographie des risques informatiques, outil majeur du management des risques, au service du management par les risques.

Risk It : un référentiel et un guide utilisateur

Risk It considère le risque informatique comme un risque d’affaire/métier alors qu’il est trop souvent vu comme un risque technique réservé aux experts de l’informatique. Conçu pour servir de socle au management par les risques informatiques, en traitant à la fois des aspects de gouvernance et des principes de gestion, il s’appuie sur des normes reconnues comme COSO ERM, ISO 31000 et ISO 27005.

Il s’enrichit naturellement par des référentiels, normes ou méthodes plus spécifiques de tel processus ou activité (par exemple EBIOS ou MEHARI pour l’analyse des risques).

Risk It comprend deux documents :

  • le référentiel Risk It, qui présente de façon détaillée le modèle de management par les risques informatiques reposant sur 3 domaines (gouvernance, évaluation, traitement), 9 processus et 47 bonnes pratiques ;
  • le guide utilisateur Risk It, qui aide à mettre en place le modèle. Il fournit de nombreux conseils et outils d’aide à l’évaluation des risques, dont une cartographie s’appuyant sur 36 scénarios de risque informatique. Il propose également des bonnes pratiques de contrôle et de management tirées des référentiels COBIT et Val IT pour réduire les risques liés à ces mêmes scénarios.

Cartographie des risques informatiques

« État de l’art » (exemples, méthodes et outils) sur la cartographie des risques informatiques, l’ouvrage Cartographie des risques informatiques, concret et d’application, dresse un panorama des pratiques en montrant ce que font un certain nombre d’organisations témoins. Il vise à guider le lecteur désirant mener une démarche d’identification et d’appréciation des risques informatiques. Il traite de sujets de nature et de portée aussi différentes que les principaux modes de représentation des cartographies, la nécessité ou non d’une vision unifiée des risques au sein de l’organisation, les acteurs à impliquer. Il aborde également les facteurs clés de succès.

M.C

 

 

Une nouvelle puce anti-contrefaçon

Les batteries, les chargeurs, les cartouches d’imprimantes à jet d’encre et laser et autres accessoires de produits électroniques grand public, représentent l’un des plus grands segments de produits contrefaits au niveau mondial. « La contrefaçon et la copie sont des fléaux pour les fabricants de produits high-tech grand public, générant non seulement des pertes de chiffre d’affaires et d’emploi mais ayant aussi des conséquences néfastes pour leur image de marque », souligne Christian Fleutelot, Directeur général de l’entité VaultIC-Secure Microcontroller Solutions chez Inside Secure, fournisseur de semi-conducteurs dédiés aux transactions sécurisées et à l’identification numérique.  « La puce VaultIC100 offre à ces fabricants une solution clé en main en leur apportant une sécurité de niveau bancaire pour protéger leurs produits. »

Le dispositif VaultIC100 utilise l’authentification mutuelle par courbe elliptique, une méthode sûre et efficace pour protéger les produits qui en seront équipés. Avec le module de sécurité VaultIC100, une imprimante et une cartouche d’encre, par exemple, peuvent s’authentifier mutuellement, ce qui permet de s’assurer que la cartouche d’encre a été certifiée pour un usage dans cette imprimante, mais aussi qu’il s’agit de la cartouche d’encre officielle conçue pour ce modèle d’imprimante. Les téléphones et les ordinateurs portables peuvent de même s’assurer que seules des batteries approuvées et du bon modèle sont utilisées, ce qui offre un niveau de sécurité supplémentaire contre les éventuelles explosions ou départs de feu. Le VaultIC100 peut protéger de nombreux produits contre la copie, y compris les accessoires pour ordinateurs ou pour consoles de jeux, le gros électroménager, les chargeurs de batteries, les lecteurs mp3, les oreillettes Bluetooth (R), les compteurs intelligents, et bien d’autres équipements.

Authentification par clés privées ou infrastructure à clés publiques

Dans le cas le plus simple, le produit hôte (une imprimante ou un téléphone portable, par exemple) envoie un message challenge aléatoire à l’accessoire (cartouche d’encre ou batterie), qui contient un VaultIC100 embarqué, pour vérifier s’il s’agit d’un dispositif autorisé. Le VaultIC100 utilise sa clé privée enregistrée de façon sécurisée pour calculer la signature numérique de la courbe elliptique du message challenge et le renvoie à l’hôte. En utilisant la clé publique correspondante, l’hôte réalise la vérification de signature nécessaire. Selon les résultats, il décide s’il authentifie ou non l’accessoire.

Pour une sécurité encore plus haute, le VaultIC100 peut être employé dans une infrastructure à clés publiques (PKI). Bien que plus complexe à mettre en oeuvre, l’approche PKI (Public Key Infrastructure) est une méthode encore plus sécurisée pour distribuer les clés. Elle élimine entièrement la nécessité de garder une copie de la clé secrète dans le dispositif hôte. La clé publique et son certificat numérique peuvent être soit embarqués dans l’hôte, soit stockés dans le VaultIC100 contenu dans l’accessoire et récupérés par l’hôte quand cela est nécessaire pour l’authentification. La clé privée est protégée dans le VaultIC100.

Une taille et une mémoire réduites

Le nouveau module de sécurité VaultIC100 est très compact (2 x 3 mm). Il comporte un microprocesseur RISC sécurisé, un générateur de nombres aléatoires et l’accélérateur cryptographique µAd-X (TM) d’Inside, qui permet d’utiliser plusieurs courbes elliptiques jusqu’à 303 bits selon la norme FIPS (Federal Information Processing Standard). Les communications sont gérées par un ou deux bus (I²C), ce qui permet d’utiliser le VaultIC100 dans un grand nombre d’applications grand public embarquées.

Le VaultIC100 comporte également une grande variété d’éléments dédiés à l’anti-falsification, y compris une protection contre les attaques SPA et DPA (analyse des différences de charges électriques), une protection élevée contre les attaques physiques (y compris un bouclier actif), des systèmes de protection environnementale (surveillance du voltage, de la fréquence et la température), une protection contre la lumière et un contrôle d’accès/management sécurisé pour empêcher l’ingénierie inversée ou le clonage. Le VaultIC100 est conforme au EAL4+ du Common Criteria et capable de protéger des biens de grande valeur.
 
Le micrologiciel de sécurité, inclut dans le dispositif, facilite le stockage non-volatile des données sensibles ou secrètes d’utilisateurs parfaitement définis. Il permet la mise en place d’une authentification basée sur l’identité de l’utilisateur, de l’administrateur et du fabricant. Il autorise la réalisation de l’authentification, de la signature numérique, de l’encryptage et du décryptage, ainsi que d’autres opérations cryptographiques avancées en utilisant les clés et les données du dossier système ; et il fournit des canaux de communication sécurisés. Le kit de démarrage du VaultIC d’Inside donne des instructions simples pour maîtriser les procédures de stockage des données cryptographiques et sécurisées des modules de sécurité VaultIC.

M.C
 

L’alcool au service de la supraconductivité !

Non, ce n’est pas un canular. Ni une blague potache de scientifiques, énième détournement du célèbre slogan de la sécurité routière. Une équipe de scientifiques de l’Institut national des sciences des matériaux de Tsukuba, dirigée par le chercheur en physique Yoshihiko Takano, a fait une découverte pour le moins surprenante : des composés à base de fer deviennent supraconducteurs une fois immergés durant 24 heures dans le l’alcool chauffé.

Perturbé par une déception amoureuse, un des membres de cette équipe a tout simplement fait plusieurs entorses au protocole expérimental des recherches entamées au préalable par la petite équipe japonaise. N’ayant plus aucun échantillon de fer-tellure-souffre en stock pour son équipe, il finit par leur fournir un échantillon mal conservé et resté à l’air libre. Pourtant, l’échantillon montra des prédispositions à la supraconductivité, laissant penser au professeur que « la coexistence de l’eau et de l’oxygène était importante ».

Décidé à creuser dans cette direction, il plongeât pendant 24 heures des échantillons du composé dans du vin rouge, du vin blanc, du saké, de la bière et du whisky, chacune des boissons étant chauffées à 70°C pour accélérer les éventuelles réactions. Il se trouve que c’est le vin rouge qui a le mieux fonctionné, le composé ferreux montrant de forts signes de supraconductivité. L’équipe a pu en déduire, à l’aide d’autres tests portant sur des mélanges d’eau et d’éthanol, tout en faisant varier le degré d’alcool, que celui-ci n’était pas la cause directe de l’apparition de la supraconductivité.

Le chercheur pense que les polyphénols, molécules anti-oxydantes présentes en grand nombre dans le vin rouge, jouent un rôle dans cette réussite.

Moonzur Rahman

 

Le réacteur 2 a été colmaté grâce à du verre liquide

Alors que nous vous parlions mardi de la fuite continue d’eau très radioactive provoquée par une fissure d’une vingtaine de centimètres au niveau d’un puits appartenant à la fosse de maintenance en béton du réacteur 2 de la centrale de Fukushima Daiichi, la TEPCO, administrateur du site, a annoncé mercredi matin avoir réussi à combler la brèche.

Pour ce faire, ils avaient décidé mardi de procéder à des forages en amont pour suivre les flux d’eau contaminée, notamment à l’aide d’un colorant de couleur blanche. Une fois le flux repéré, les liquidateurs décidèrent d’injecter du « verre liquide », du silicate de sodium (Na2SiO3 ), qui est un composé chimique ayant la particularité de solidifier le sol.

Le silicate de sodium est stable dans des solutions neutres ou alcalines, mais les ions silicates réagissent avec les ions hydrogènes dans des solutions acides, formant un acide faible appelé l’acide silicique (Si(OH)4 ). Une fois chauffé et « grillé », l’acide silicique se polymérise sous forme de gel de silice, une matière très solide et ayant l’apparence du verre. C’est ce gel de silice solidifié qui a ainsi permis d’arrêter les fuites. On se souvient que de précédentes tentatives de colmatage, à l’aide de ciment ou encore d’un autre polymère mêlé à de la sciure et à du papier journal n’avaient pas connu le succès escompté.

Les rejets d’eau radioactive continuent

Dans le même temps, la centrale de Fukushima continue les rejets d’eau « faiblement radioactive » dans le Pacifique, prévus pour durer cinq jours, et ainsi se débarrasser de 11 500 tonnes d’eau contaminée. Il ne pourrait s’agir que d’un premier délestage, car la centrale contiendrait plus de 60 000 tonnes d’eau contaminée, dont le stockage ne pourra être assuré que peu de temps, les autorités étant désireuses de faire de la place pour de l’eau beaucoup plus radioactive.

Les dernières mesures du taux de radioactivité prises dans de l’eau de mer non loin des réacteurs faisaient état de niveaux jusqu’à 7,5 millions de fois supérieurs à la limite admise. On ne peut qu’écouter d’une oreille sceptique les déclarations de la TEPCO, assurant que « cette contamination n’aurait pas un impact immédiat sur l’environnement. »

La peur d’une nouvelle explosion

La situation dans trois des six réacteurs de la centrale est très inquiétante, au point que de nouvelles mesures sont en passe d’être prises. De la fumée s’échappe continuellement de ces réacteurs, notamment du réacteur 1. De l’azote va être injecté dans ce réacteur par les liquidateurs, espérant éviter une explosion et l’aggravation de la situation de la centrale.

Il est encore et toujours question de l’hydrogène qui s’échapperait des réacteurs, focalisant une partie des craintes des autorités. Lorsque les crayons de combustible se sont échauffés, ils firent fondre et fuir leur gaine de zirconium soumises à une température bien trop élevée, réagissant avec le combustible et le peu d’eau restante dégageant des gaz radioactifs et de l’hydrogène. C’est cet hydrogène (rôle de carburant), en contact avec de l’oxygène ambiant (rôle du comburant) et à haute température (comme dans les moteurs de fusée, car la liaison H-H est très faible, et que la molécule d‘eau formée est très stable) qui a été responsable des premières explosions sur le site, soufflant les toits des bâtiments de confinement des réacteurs.

L’azote injectée dans le réacteur 1, où de l’hydrogène s’accumule toujours de manière très importante, doit empêcher les explosions de se produire, grâce à une réaction d’inertage. En effet, l’azote, inerte, permet de faire chuter drastiquement le taux d’oxygène dans l’air, limitant ainsi les possibilités d’explosion car l’oxygène en est indispensable. L’azote sert d’ailleurs souvent dans les zones de stockage sensibles pour ces raisons. La TEPCO envisagerait d’en injecter 6 000 m3 sur 6 jours, et d’infliger bientôt le même sort aux réacteurs 2 et 3 de la centrale.

Moonzur Rahman

« Des présomptions de toxicité sur des nanoparticules ont été établies »

465 chercheurs, experts, préventeurs et médecins, venus de 22 pays, se sont rassemblés pour partager leurs connaissances autour de la toxicité des nanoparticules, de la  mesure des expositions et des méthodes de prévention.

Bien que le risque lié aux nanoparticules ne soit toujours pas avéré, plusieurs laboratoires internationaux ont fait état de présomptions de toxicité sur certaines nanoparticules. Il a été démontré qu’à concentrations massiques comparables, la toxicité induite est généralement plus importante lorsque la taille des particules diminue. Après inhalation, certaines nanoparticules se logeraient principalement, chez les animaux de laboratoire tout du moins, dans le foie et les poumons. Un manque de recherche in vivo par inhalation de nanoaérosols chez l’animal de laboratoire a été souligné. L’INRS, à Nancy, disposera en 2012 d’un tel laboratoire. Il en existe très peu en Europe aujourd’hui.

La nature chimique et la concentration massique, utilisées habituellement comme critères pour caractériser les risques des produits chimiques, ne sont pas des  paramètres suffisants pour les nanoparticules. La morphologie, la taille, la réactivité de surface et la surface spécifique sont d’autres paramètres qui doivent être pris en considération. L’un des objectifs des recherches d’aujourd’hui en toxicologie est de comprendre l’influence de ces paramètres sur la toxicité de ces matériaux et de déterminer quel serait la métrique qui caractériserait le mieux les effets sur la santé. Il convient également de vérifier la pertinence des méthodes d’essais existantes et de proposer le cas échéant des procédures adaptées aux nanomatériaux.

Les données d’exposition aux nanoparticules restent parcellaires. Des instruments sont disponibles pour mesurer la concentration en masse, nombre ou surface des particules dans l’air mais il n’existe pas encore de méthode spécifique, simple et validée pour mesurer l’exposition professionnelle aux nanoaérosols et les discriminer du bruit de fond. Des appareils de mesure transportables commencent à apparaître sur le marché. Les travaux consistent à étudier les performances de ces instruments, à développer des protocoles d’utilisation et des outils d’interprétation des données.

Concernant les dispositifs de protection collective ou individuelle des salariés, il a été démontré l’efficacité des filtres classiques sur les particules nanométriques de taille supérieure à 4 nm. Les moyens de prévention utilisés pour minimiser les risques chimiques semblent donc efficaces mais des études complémentaires sont nécessaires pour confirmer les performances, mieux comprendre les phénomènes d’agglomération des nanoparticules et l’influence des fuites.

Dans ce contexte d’incertitude, la démarche de prévention préconisée par l’INRS, partagée par de nombreux pays, est une approche « basée sur la précaution », associée à la mise en place de mesures de prévention « au cas par cas », adaptées au produit et au scénario d’exposition. Ces méthodes ne sont pas très différentes de celles qui sont recommandées pour toute activité exposant à des produits chimiques dangereux et doivent permettre de réduire l’exposition du salarié au niveau le plus bas possible.

 

Par Didier Baptiste, directeur scientifique à l’INRS

Découvrez la formation Techniques de l’Ingénieur : NANOMATÉRIAUX

Le Solar Impulse décolle à nouveau

Ce vol inaugural était l’occasion de faire des essais et de vérifier que le problème technique, survenu la semaine dernière, avait bien été résolu. De l’eau s’était en effet introduite dans le cockpit, reportant d’une semaine le décollage de l’engin.

En juin 2011, c’est en tant qu’« invité spécial » que l’avion participera au Salon aéronautique du Bourget. Il devrait à cette occasion effectuer des vols quotidiens, si la météo l’y autorise.

Pour rappel, le Solar Impulse effectuait son premier vol de nuit le 7 avril 2010. Le 7 et le 8 juillet, il accomplissait un vol historique ininterrompu de 26 heures, sans carburant, grâce à l’énergie solaire stockée dans ses batteries.

Titulaire de trois records mondiaux, cet avion pèse 1 600 kg pour une envergure de 64 mètres. Ses ailes sont recouvertes de 12 000 cellules photovoltaïques alimentant ses quatre moteurs électriques, d’une puissance de 10 CV chacun.

Un deuxième prototype est prévu pour effectuer un tour du monde en 2013. Cinq étapes sont prévues, pour changer de pilote et présenter l’aventure au public ainsi qu’aux autorités politiques et scientifiques. Chaque tronçon du vol durera entre 3 à 4 jours, ce qui est considéré comme le maximum supportable pour un pilote.

C.H.

 

Déjà publié :

Diaporama : Solar Impulse fait le tour du cadran

Le fluide frigorigène écologique séduit l’administration américaine

D’après des estimations, plus de 400 millions de voitures dans le monde possèdent un système de climatisation, chacune consommant entre un 0,5 et 1 kg de fluide frigorigène. Une situation qui a conduit l’Agence américaine de protection de l’environnement (EPA) et le ministère américain des transports, à adopter, l’année dernière, de nouvelles normes visant à réduire les émissions de gaz à effet de serre des véhicules utilitaires légers. Les constructeurs automobiles peuvent recevoir des fonds s’ils choisissent, conformément aux normes, des fluides frigorigènes ayant un impact moindre sur l’environnement.

Dans le cadre de son programme « Significant New Alternatives Policy » (SNAP), l’EPA vient d’accorder son autorisation à l’emploi du nouveau fluide frigorigène à faible impact sur le réchauffement climatique HFO-1234yf  de Honeywell. « Ce nouveau produit chimique nous aide à combattre le changement climatique et l’appauvrissement de la couche d’ozone », a déclaré Gina McCarthy, administratrice assistante de l’« Office of Air and Radiation » de l’EPA.

« Il s’agit d’un important pas en avant vers l’adoption au niveau mondial de ce nouveau fluide frigorigène, offrant aux constructeurs automobiles une solution de remplacement par rapport aux fluides frigorigènes actuels, tout en leur permettant de satisfaire aux nouvelles normes réglementaires », explique Terrence Hahn, Vice-Président et General Manager de Honeywell Fluorine Products.

Outre ces nouvelles normes américaines, l’Union européenne a adopté une directive concernant les émissions provenant des systèmes de climatisation des véhicules à moteur, exigeant des nouveaux modèles fabriqués à partir de 2011, d’utiliser un fluide frigorigène dont le PRP est inférieur à 150. Enfin, d’ici 2017, toutes les nouvelles voitures vendues en Europe devront utiliser un fluide frigorigène à faible PRP.

Le HFO-1234yf possède un potentiel de réchauffement de la planète (PRP) 99,7 % plus faible que le fluide utilisé actuellement dans la plupart des systèmes de climatisation automobile, le HFC-134a. Il a subi des tests approfondis de sécurité et d’efficacité, effectués par des groupes d’évaluation indépendants tels que le Programme de recherche coopérative de SAE International, auquel participent les plus grands constructeurs automobiles.

Ces tests ont conclu que le produit offrait des performances environnementales supérieures aux produits à base de  dioxyde de carbone – un autre fluide frigorigène – particulièrement en cas de températures extérieures élevées, tout en présentant « le risque d’utilisation le plus faible dans les systèmes de climatisation automobile, et en répondant aux besoins des consommateurs et de l’environnement. »

M.C

 

Déjà publié :

Un système RFID « spécial » en entrepôt frigorifique

Photovoltaïque : toujours un problème de délai…

Les deux arrêtés du 4 mars 2011 réformant la filière photovoltaïque n’ont pas permis de modifier les articles 3 et 4 du décret du 9 décembre 2010 imposant aux projets dont la PTF a été acceptée avant le 2 décembre 2010, de réaliser les travaux et les achever (!) dans les délais extrêment courts de 18 mois ou 9 mois selon la date d’acceptation de la PTF.

Bertrand De Gerando

Titulaire d’un DESS de Droit des Affaires et du Diplôme de Juriste Conseil d’Entreprise (DJCE), d’une spécialité en droit public, Lauréat de la Conférence du Stage, Bertrand de GERANDO est avocat depuis plus de 16 ans et est inscrit au Barreau de Paris.

Le Rapport Charpin qui avait alerté le Gouvernement sur cette difficulté, plus particulièrement sur l’incompatibilité de ces délais avec la mise en oeuvre d’un projet photovotaïque (financement, prescriptions particulières du permis, travaux de raccordement..), n’aura pas été entendu. D’ailleurs, de ce rapport devant en principe favoriser la concertation, pas grand chose n’aura été pris en compte…

Les deux arrêtés viennent au contraire :

  • confirmer l’application des articles 3 et 4 du décret du 9 décembre 2010, dans toutes leurs dispositions: « par ailleurs, peuvent bénéficier des conditions d’achat telles qu’elles résultaient des dispositions de l’arrêté du 31 août 2010 précité les installations de production d’électricité issue de l’énergie radiative du soleil entrant dans le champ d’application des articles 3 et 4 du décret du 9 décembre 2010 susvisé ».
  • définir sévèrement la notion d’achèvement des travaux: « la date d’achèvement de l’installation correspond à la date où le producteur soumet : pour une installation raccordée en basse tension, l’attestation de conformité aux prescriptions de sécurité mentionnée dans le décret n° 72-1120 du 14 décembre 1972 au visa d’un des organismes visés à l’article 4 de ce même décret ; pour une installation raccordée à un niveau de tension supérieur, les rapports de vérification vierges de toute remarque délivrés par un organisme agréé pour la vérification initiale des installations électriques conformément aux dispositions prévues par l’arrêté du 22 décembre 2000 susvisé ».

Alors que certains pensent déjà à solliciter indemnisation des conséquences négatives des articles 3 et 4 du décret du 9 décembre 2010 sur des projets qui apparaissent ne plus pouvoir être mis en oeuvre alors que leur développement depuis plusieurs mois se chiffre parfois en centaine de milliers d’euros, d’autres semblent ne pas avoir encore dit leur dernier mot!!!

A suivre donc…

Par Bertrand de Gerando

 

Déja publié :

Pourquoi la France ne sera pas l’industrie photovoltaïque de demain

Le marche mondial du photovoltaïque en pleine croissance

Photovoltaïque français : l’après moratoire en question

Les promesses du photovoltaïque à concentration

« Fibre hertzienne » : un substitut de la fibre optique

Le plan national très haut débit vise une couverture totale du territoire en 2025, en faisant appel à la fibre optique mais aussi à différentes technologies telles que les réseaux filaires existants (ADSL), le hertzien (réseaux haut débit mobiles) ou le satellite. Théoriquement, 100 % des particuliers et des entreprises devraient, d’ici là, accéder à des services à très haut débit, dont 80 % en FTTH (Fiber To The Home), 5 % par équipement des sous-répartiteurs et 15 % en technologies hertziennes de prochaine génération.

En attendant, pour répondre aux besoins croissants du très haut débit, surtout dans les zones rurales qui seront, au mieux, les dernières servies, Altitude Infrastructure, avec un patrimoine de points hauts conséquent et son expertise des technologies radios, propose aux opérateurs télécoms entreprises une offre équivalente à la fibre optique.

Lancé sous le nom d’ « Offre FH-Entreprise », ce raccordement par faisceaux hertziens point à point, présente des caractéristiques techniques très proches de la fibre en termes de débits, de qualité et de stabilité. Il offre une couverture du territoire complémentaire (déploiement là où la fibre n’est pas présente), un déploiement plus rapide et une disponibilité immédiate sur les zones couvertes par l’opérateur.

Par rapport à la fibre optique, il se caractérise par l’absence de génie civil, ce qui permet un déploiement beaucoup plus rapide (construction d’une infrastructure hertzienne dédiée entre 3 et 8 semaines), et des frais d’accès au service inférieurs à ceux de la fibre et forfaitaires (indépendamment de la distance).

Une disponibilité de service de 99,95 %

Cette solution de raccordement par faisceaux hertziens du site utilisateur à l’architecture radio du réseau d’Altitude Infrastructure, offre un Ethernet symétrique de 5 à 100 Mbps. Les liaisons radios permettent d’assurer une haute qualité de service (sécurité des données, temps de transit très courts, transport d’un grand nombre de VLAN 802.1q sur des distances pouvant atteindre 20 km) avec une disponibilité du service de 99,95 %.

Les fréquences d’émission utilisées dont l’utilisation et l’attribution de ces fréquences sont contrôlées par l’Autorité de Régulation des Communications Électroniques (ARCEP), varient de 3,5 GHz à 26 GHz, selon le type de faisceaux, la distance et le débit souhaité.

« Si quelques entreprises bénéficient déjà de ce type de raccordement, cette offre restait jusqu’à présent spécifique. L’expression des besoins croissants de très haut débit, surtout en ruralité, nous amène à intégrer à notre catalogue cette offre à destination des fournisseurs d’accès à Internet et des opérateurs entreprises », explique David El Fassy, Président Directeur Général d’Altitude Infrastructure qui, depuis plus de 10 ans, construit, développe et exploite des réseaux de télécommunications alternatifs avec, notamment, 17 RIP (réseaux d’initiative publique).

M.C

Déjà publié :

La fibre optique est plus rapide mais aussi plus écologiques

Recharger sa batterie électrique en 12 minutes !

La 3D s’immisce partout, à l’instar de nos écrans domestiques, de nos cinémas, ou encore dans le monde du son. Elle s’immisce aussi dans l’univers de l’énergie, plus précisément dans le domaine des batteries Lithium-Ion (Li-Ion). Les scientifiques de l’Université de Colorado State ont présenté leurs travaux devant l’American Chemical Society (ACS), lors de leur 241ème meeting national qui s’est tenu le 31 mars dernier, et ont obtenu bien plus qu’un simple succès d’estime avec leurs découvertes concernant les batteries 3D.

Cette batterie, qui ne serait pas plus grande qu’une batterie de téléphone portable, pourrait se recharger en une douzaine de minutes, ce qui la rendrait idéale pour les voitures électriques, réglant le problème du temps de charge et de l’autonomie.

Une batterie… 3D ?

Une batterie Li-Ion conventionnelle est composée d’une anode en graphite, d’une cathode à base d’un composé de lithium, et d’un électrolyte, qui est une substance conductrice car contenant des ions mobiles, séparant les deux. Les électrodes sont arrangées sous forme de nombreuses couches fines, et les ions lithium se déplacent de l’anode en graphite vers la cathode en lithium lors du chargement, et dans le sens inverse lors du déchargement. C’est cette configuration qui plombe ce type de batterie, rendant le rechargement long et raccourcissant la durée de vie de celle-ci.

C’est l’architecture interne de la batterie Li-Ion qui serait arrangée en 3D dans la nouvelle génération présentée devant l’ACS : l’anode en graphite est remplacée par une multitude de nano fils composés de cuivre et d’antimoine, d’une largeur 50 000 fois inférieure à celle d’un cheveu humain, ayant une énorme surface cumulée, et pouvant recevoir deux fois plus d’ions lithium que la même quantité de graphite.

Ces nano-fils sont en outre plus stables chimiquement et plus résistants à la chaleur. Ils sont arrangés à l’intérieur de la batterie suivant une structure tridimensionnelle rappelant les poils d’une brosse à cheveux très dense, enrobés d’une fine couche d’électrolyte et entourée de la conventionnelle cathode, faite de lithium.

Amy Prieto, qui dirige ces travaux, a cofondé sa propre société, Prieto Company, dans le but de commercialiser cette nouvelle génération de batterie, idéalement dans un peu moins de deux ans.

Moonzur Rahman

Un camion électrique de 12 t pour livrer les McDonald’s parisiens

Avec la réception du premier camion électrique de 12 t, le PTAC le plus important actuellement sur le marché pour un véhicule électrique, permettant des livraisons sous température dirigée en zone urbaine, LR Services, le partenaire logistique de McDonald’s depuis plus de 20 ans,  lance le projet « Keytruck ».

Matérialisant la volonté de l’entreprise de faire évoluer son organisation logistique en zone urbaine, afin de mieux limiter son impact sur l’environnement, « Keytruck » va consister à livrer les restaurants McDonald’s de Paris intra-muros avec un véhicule silencieux et non-polluant, ayant pour principales caractéristiques :

  • de disposer d’une partie porteur 100 % électrique. Doté d’un moteur électrique à induction de120 kW et de batteries lithium Ion Acier Phosphate d’une capacité de 80 kWh, le camion fabriqué en Grande-Bretagne par Fraikin, sous la marque Smith, dispose d’une autonomie de 90 km ;
  • de fonctionner selon un système de caisses mobiles certifiées PIEK, permettant de générer, lors de la livraison des restaurants, un niveau sonore inférieur à 60 dB soit l’équivalent d’une conversation entre deux personnes (le groupe froid est un Carier Arier Supra 850 Super Silent). Trois types de caisses mobiles ont été construits : une caisse frigorifique mono-température, une caisse mobile bi-température de 2,9 t de charge utile réalisées par Chéreau et une caisse fourgon due à Carrosserie Industrielle Lemasson ;
  • de recourir à une zone de transit en périphérie de Paris dédiée au transfert de caisses mobiles préalablement chargées sur le centre de distribution de Fleury-Mérogis, permettant ainsi de tirer parti de 100  % de l’autonomie de ce véhicule.

LR Services va exploiter ce camion pendant les 3 prochains mois, afin de réaliser plusieurs phases de test qui correspondront à une montée en puissance progressive en termes de fréquences de rotation, de nombre de restaurants livrés et de variété dans les types de livraisons effectuées (mono, puis bi-température). En fin d’expérimentation, LR Services optimisera le schéma de distribution, en y intégrant des tournées spécifiquement destinées à la collecte de certains déchets revalorisables, au moyen de la caisse fourgon prévue à cet effet.


 

Un premier bilan en juillet 2011

L’évaluation de la performance environnementale de ce nouveau véhicule sera menée par le GIE Cemafroid, un centre d’expertise indépendant sur la chaîne du froid, qui réalise des essais et étalonnages, notamment pour les engins de transport frigorifique et dispose, pour ce faire, de laboratoires accrédités Cofrac. Il réalisera des mesures portant sur le bruit, la production de froid et l’impact du kilométrage parcouru. LR Services, qui se donne pour objectif de partager les premiers résultats de cette expérimentation début juillet, envisagera sur cette base les suites à donner à ces tests en termes de déploiement.

Cette expérimentation entre dans l’engagement environnemental de LR Services, qui a obtenu la certification ISO 14 001 de son système de management environnemental en 2006 et réalisé son premier bilan carbone cette même année. L’entreprise fait en effet partie des signataires de la « Charte de réduction volontaire des émissions de CO2 » élaborée en 2007 par le Ministère des Transports et l’ADEME et de la « Charte des bonnes pratiques des transports et des livraisons de marchandises dans Paris » (mise en place en 2006 par la Mairie de Paris) et est membre de l’association Demeter et de la Chaire Frelon à Mines-ParisTech. Elle effectue un travail de fond au quotidien dans plusieurs directions pour améliorer son bilan environnemental :

  •  le stockage des produits, avec une plateforme située à Beauvais ayant servi de pilote en 2005 pour l’application de la démarche Haute Qualité Environnementale (HQE) aux entrepôts logistiques ;
  • la limitation du kilométrage à vide, en livrant son client McDonald’s en une seule fois, grâce à des livraisons tri-température (ambiant, frais, surgelé) et grâce à une organisation de ses 7 plate-formes sur l’ensemble du territoire pour être au plus près des restaurants ;
  • la livraison des produits aux restaurants en réduisant les nuisances sonores (notamment grâce à la norme PIEK), en utilisant des véhicules moins polluants (100 % des véhicules conformes à la norme Euro 5 et roulants au B30 – Biodiesel 30 % d’origine végétale et test de l’utilisation du B100 sur 10 véhicules depuis mai 2010) et en formant les chauffeurs-livreurs à la conduite économique ;
  • le recyclage, avec la collecte auprès des restaurants de certains déchets revalorisables (10 000 t de cartons et 310 t de films plastiques collectées en 2010).
     

L’alchimie opère entre Solvay et Rhodia

« Nous avons décidé de joindre nos forces pour former un grand groupe de chimie qui aura 12 milliards d’euros de chiffre d’affaires et qui sera leader mondial dans l’ensemble de ses métiers », a déclaré, le 4 avril 2011, Jean-Pierre Clamadieux, PDG du groupe français Rhodia.

« L’offre a été recommandée à l’unanimité par le conseil d’administration de Rhodia », indique   Christian Jourquin,  président de Solvay.

Les deux groupes sont de même taille : 6,5 milliards d’euros de chiffre d’affaires pour Solvay, 5,2 milliards d’euros de chiffre d’affaires pour Rhodia ; 1 milliard d’euros d’Ebitda (bénéfice courant avant intérêts, impôt, provisions et amortissements) pour le premier, 900 millions d’euros pour le second. En termes d’effectifs, la société belge compte 16 000 employés quand le groupe français en recense 15 000. « Les métiers, les technologies sont en revanche complémentaires », précise Jean-Pierre Clamadieux.

Pour le président de Rhodia, le but de cette opération n’est pas de peser davantage face aux clients pour avoir un meilleur pricing power (capacité d’une entreprise à pouvoir imposer ses prix à ses clients). « Nos résultats du premier trimestre démontreront que le groupe est capable de défendre ses marges dans le contexte actuel », déclare ce dernier. La stratégie visée est davantage une stratégie de croissance. « Nous avons ensemble 40 % de notre chiffre d’affaires dans les pays émergents. Nous sommes ainsi un des groupes de chimie les plus exposés à ces pays à très forte croissance. Qui plus est, du fait de la structure de bilan solide, le groupe aura les moyens de saisir des opportunités dans une tendance qui est celle d’une consolidation de l’industrie chimique. »

Solvay prévoit une ouverture officielle de l’offre début juillet 2011, et sa clôture fin août 2011. Le groupe « se réserve la faculté de demander le retrait obligatoire si elle obtient 95 % des titres de Rhodia », déclare Solvay.

« Pas de suppressions d’emplois massives »

La fusion des deux chimistes devrait engendrer des synergies de coûts de 250 millions d’euros dans les trois ans, à raison de 80 millions d’euros par an. Les deux tiers des économies attendues proviendraient de « l’optimisation des coûts externes ». En conséquence, « aucune restructuration majeure » n’est envisagée dans le cadre de cette opération capitalistique, assure le groupe Solvay. « Il n’y aura pas de suppressions d’emplois », garantit Christian Jourquin. Jean-Pierre Clamadieu se montre toutefois moins catégorique : il n’anticipe pas de « suppressions d’emplois massives ». Si aucun plan social n’est prévu, les fonctions administratives devraient malgré tout faire l’objet d’« ajustements ».

Jean-Pierre Clamadieu, succèdera à Christian Jourquin, 63 ans, lorsque ce dernier aura atteint l’âge limite des 65 ans. Il devrait aussi faire son entrée au conseil d’administration de Solvay lors de l’assemblée générale ordinaire en mai 2012.

Le nouvel ensemble franco-belge verra sa présence renforcée dans ses différents segments de marché : spécialités chimiques destinées aux produits de grande consommation, construction, automobile, énergie, eau, environnement. Solvay aurait tenté en vain de racheter le groupe agroalimentaire et de biotechnologies danois Danisco, finalement tombé entre les griffes de son concurrent américain DuPont.

C.H.

 

Sources : BFM TV, Le Monde, Le Point

Wysips : des films solaires sur les smartphones

Face aux géants de l’industrie mobile, une start-up française, Wysips (What You See Is Photovoltaic Surface), a remporté le CTIA Wireless, dans la catégorie « Enterprise & Vertical Market: Green Telecom & Smart Energy Solutions, Apps & Hardware », un grand concours international de l’innovation mobile qui récompense chaque année, à Orlando, les projets les plus innovants en matière de technologie mobile.

Breveté en 2006, son procédé lenticulaire qui inclut des cellules solaires photovoltaïques dans un film transparent suffisamment fin (100 microns) pour ne pas perturber le fonctionnement de la couche tactile, et sans incidence sur la luminosité, permet de produire de l’énergie afin de recharger un téléphone mobile de façon autonome.

Le démonstrateur présenté lors du salon américain sur un Iphone 4 est déjà relativement abouti. Selon Ludovic Deblois, fondateur et président de WYSIPS, il faut 6 heures à la lumière du soleil pour recharger sa batterie complètement et un peu plus longtemps sous une lampe. Le produit ne permet donc pas la création d’un smart-phone autosuffisant, mais pourrait prolonger son autonomie et réduire le nombre de fois nécessaires pour brancher son appareil sur une prise secteur.

L’origine de cette technologie optique provient de l’étude d’images lenticulaires, qui renvoient des images différentes en fonction de la position de l’observateur. « À partir du procédé holographique que l’on trouve sur les livres, j’ai eu l’idée de remplacer une des deux images par une fine bande photovoltaïque, et ca fonctionne », raconte Joël Gilbert, astrophysicien et inventeur de la technologie Wysips, qui a initié les premiers travaux de recherche et développement dans le domaine de l’énergie solaire depuis 2004. Passionné par les phénomènes optiques, Joël Gilbert a développé une expertise forte permettant ainsi à l’entreprise de déposer de nombreux brevets.

Un procédé universel aux multiples applications

Si le démonstrateur primé ne s’applique aujourd’hui qu’aux téléphones mobiles, à terme, tous les écrans pourraient produire de l’énergie. En fait, Wysips apparait comme un procédé universel qui, avec un rendement de 10 % (soit 100 W/m2), est capable de transformer n’importe quel support en surface photovoltaïque sans en changer l’aspect. De nombreux produits peuvent ainsi acquérir une totale indépendance énergétique ainsi que de nouvelles fonctionnalités grâce à l’énergie solaire ainsi produite.

L’équipe Wysips travaille d’ailleurs sur l’intégration de cette technologies avec des films souples ou rigides, dont l’épaisseur varie de 0,1 à 0,5 millimètres, sur des supports très divers. Écrans, verre, tissus, voiles, plastiques, composites… sont susceptibles de devenir des matériaux producteurs d’énergie photovoltaïque.

Par exemple, la technologie Wysips permettrait de rendre autonomes les stores des bâtiments, évitant ainsi la réalisation de travaux normalement nécessaires à l’installation des produits classiques (la motorisation fonctionnerait grâce à l’énergie captée par les éléments constituant le store devenu photovoltaïque). Complexes sportifs, bâtiments culturels ou tertiaires… pourraient ainsi produire leur propre énergie et  fournir l’électricité nécessaire à l’éclairage ou au fonctionnement d’équipements électroniques.

Intégrée au textile, cette technologie permettrait également de proposer des vêtements intelligents producteurs d’énergie, autorisant ainsi pompiers ou médecins à recharger des équipements de première nécessité.

Autre application potentielle : le mobilier et la communication. Des cellules photovoltaïques intégrées dans ces produits permettraient de proposer des nouvelles fonctions : tente de camping intégrant une source lumineuse, table de jardin avec prise électrique, parasol éclaireur… Et appliquée aux surfaces publicitaires fixes (panneaux) ou mobiles (transport), Wysips donnerait à l’image une fonction nouvelle : la production d’énergie dédiée à l’autonomie de ces matériels, mais aussi à la production d’une énergie complémentaire permettant l’ajout de fonctionnalités (éclairage, vidéo surveillance, bornes WiFi…).

Appliquée au yachting motorisé et intégrée sur le pont du navire, la technologie Wysips pourrait fournir une partie de l’énergie électrique nécessaire à la propulsion. Pour les voiliers, elle pourrait  constituer une source d’énergie complémentaire pour des moteurs hybrides, garantir l’autonomie de certains équipements de bord (éclairage, radio, GPS…), alimenter des stabilisateurs ou des unités de secours (lampe flash, radio, désalinisateur …).

Filiale de SunPartner, groupe spécialisé dans la recherche, la mise au point et l’exploitation de solutions innovantes dans le domaine de l’énergie solaire, la société Wysips, implantée à Aix-en-Provence, pourrait démarrer des projets industriels relativement rapidement. Ludovic Deblois espère d’ailleurs voir son système intégré dans des produits commercialisés d’ici les douze prochains mois. 

Quand l’Ipad débarque en entreprise : comment s’y préparer ?

Les réseaux d’entreprise doivent s’adapter à la déferlante de dispositifs mobiles introduits dans l’entreprise par les collaborateurs. iPads, iPhones, Androids et autres smartphones : ces produits voient leurs ventes doubler chaque année. Aux États-Unis, plus de 50 % des entreprises du palmarès Fortune 500 se penchent sur l’idée de prendre en charge l’iPad sur l’ensemble de leur périmètre. Et la situation n’est guère différente sur le Vieux Continent.

La croissance exponentielle du nombre d’iPads et de smartphones est source de nombreuses interrogations pour l’entreprise : comment gérer des équipements privés sur un réseau essentiellement conçu pour les PC portables d’entreprise ? Comment sécuriser aussi bien les données privées que corporate sur des équipements dont l’essence est justement de partager les données ? Et comment fournir un service fiable via un média/réseau partagé et mutualisé alors que nous consommons toujours plus de flux voix et vidéo en streaming ?

Pour les distributeurs et revendeurs, cet état des lieux constitue une opportunité fantastique pour conseiller et accompagner les entreprises clientes, en les préparant à surfer sur la vague des iPads, iPhones et autres équipements similaires qui débarqueront en force sur le réseau d’entreprise.

La première préoccupation porte sur l’intégration. Les iPads, qui se connectent à des réseaux sans fil 2.4 GHz déjà congestionnés, gagneraient à être pris en charge par des réseaux à 5 Ghz, moins encombrés, grâce à un processus de « band steering ». Ce processus accélère les données et les préserve de tout impact lié à des clients sans fil génération précédente et donc plus lents.

Parallèlement, les applications voix et vidéo sur l’iPad et les smartphones doivent être identifiées, même lorsque les flux sont chiffrés, pour éviter tout impact dû à des transferts de fichiers en masse. Des solutions existent pour éviter les performances médiocres sur les autres équipements et optimiser les réseaux hétérogènes dans leur globalité.

En l’absence de basculement vers les ports Ethernet en cas de dysfonctionnement du Wi-Fi, un réseau sans fil doit être capable de prendre en charge un nombre important d’iPads. Les entreprises gagneront à étudier les solutions qui gèrent avec précision l’environnement radio et utilisent un contrôle automatique pour optimiser les performances des clients et améliorer la stabilité de l’ensemble du réseau Wi-Fi. Avec cette méthode, les entreprises s’assurent que le réseau sans fil offre des performances de premier rang, quelle que soit la localisation des utilisateurs.

Autre problématique : la mobilité. L’iPad est intrinsèquement nomade, et les utilisateurs s’attendent à pouvoir l’utiliser sur l’ensemble du site et des bâtiments d’une entreprise, sans problématique de connexion. Un réseau pervasif, capable de prendre en charge un roaming rapide sur un ou plusieurs domaines IP, constitue la solution adéquate pour prendre en charge les iPads et autres équipements, notamment dans le cas d’applications sensibles à la latence à l’image comme Skype, YouTube et iTunes.

La sécurité reste une préoccupation majeure pour garantir une protection pérenne des données confidentielles, mais sans impact sur les utilisateurs d’iPad, que leurs données soient personnelles ou entreprise. L’iPad a certes été conçu pour le grand public, mais sa migration vers la sphère d’entreprise incite de nombreux responsables informatiques à rechercher une solution pour juguler les risques de perte de données.

Les modèles de sécurité qui attribuent des rôles aux utilisateurs et aux équipements sont les plus adaptés aux équipements mobiles. Avec la gestion des rôles, les collaborateurs nomades disposent d’un moyen simple et standardisé d’accès au réseau, un moyen que les responsables informatiques estiment être de confiance. Les invités bénéficient également de ce modèle et d’un niveau de sécurité plus élevé, selon les règles et politiques de sécurité de l’entreprise hôte.

Ce principe, ainsi que l’utilisation d’un système de détection d’intrusion, doivent être recommandés par les distributeurs et revendeurs pour éviter tout privilège d’accès superflu et simplifier l’application des règles de sécurités grâce à un reporting sur l’activité des différents rôles.

Pour Gartner, 43 % des collaborateurs utilisent déjà leurs équipements sur les réseaux sans fil, et ce chiffre devrait progresser à 58 % à l’horizon 2014. De plus, l’iPad est appelé à intégrer la palette d’outils du parfait collaborateur, qu’il s’agisse d’un vendeur de voitures qui vérifie la disponibilité d’un modèle dans son stock, ou commande une voiture aux côtés d’un client dans un showroom, ou encore des hôpitaux qui y trouvent un moyen simple pour mieux prendre en charge le patient à son chevet.

En d’autres mots, l’idée de l’entreprise mobile est déjà une réalité appelée à perdurer, mais les entreprises restent encore trop nombreuses à se contenter de réseaux sans fil obsolètes et inadaptés pour prendre en charge les nouvelles problématiques d’intégration, d’évolutivité, de sécurité et de mobilité.

Pour autant, ces entreprises migreront un jour, ce qui constitue une réelle opportunité pour les partenaires de distribution et les équipementiers : offrir des solutions réseau sur-mesure, capables de répondre aux nouvelles exigences qui s’imposent aux entreprises, et leur permettre de mettre à niveau leurs réseaux pour prendre en charge les équipements nouvelle-génération de leurs collaborateurs.

Par Roger Hockaday, Directeur marketing EMEA, Aruba Networks / Journal du Net

Vol AF447 : un navire d’Alcatel-Lucent choisi pour remonter l’épave

Le 1er juin 2009, l’Airbus A330 d’Air France, reliant Rio de Janeiro à Paris, disparaissait dans l’Océan Atlantique, avec 228 personnes à bord. L’épave a été retrouvée dimanche 3 avril aux larges des côtes brésiliennes, à 3 900 mètres de profondeur, un peu plus au nord de la dernière position connue de l’appareil accidenté.

C’est le navire « Ile-de-Sein » d’Alcatel-Lucent Submarine Networks (ASN), qui a finalement été préféré par le BEA (Bureau d’enquêtes et d’analyses) de l’Aviation civile, pour repêcher les débris de l’avion. Trois bateaux avaient déjà été pré-sélectionnés pour ces opérations : un navire du groupe français France Télécom, un de l’Américain Phoenix International et celui d’Alcatel.

L’« Ile-de-Sein » est équipé d’un ROV (Remotely Operated Vehicle ou robot submersible téléguidé), capable d’intervenir à 4 000 mètres de profondeur, et pouvant remonter jusqu’à 200 kg à l’aide de bras articulés et jusqu’à 10 tonnes, grâce à un câble « ombilical », le reliant au navire.

Estimée à plusieurs millions d’euros, l’opération de repêchage de l’épave et des corps des passagers, devrait démarrer d’ici 1 mois. Le bâtiment se trouve actuellement dans les eaux des Canaries et devrait quitter le Cap-Vert le 21 avril, son retour étant prévu pour la mi-juin.

Le BEA espère retrouver les boîtes noires de l’appareil parmi les débris, car seuls les enregistreurs de paramètres du vol pourraient permettre d’éclaircir les conditions de la catastrophe, inconnues à ce jour. Jusque-là les seuls éléments techniques connus sont une déficience des sondes Pitot de mesure de vitesse, qui, selon le BEA, ne peuvent expliquer à elles seules l’accident.

Parallèlement, le navire américain qui a permis de localiser l’épave dimanche dernier, a quitté la zone vendredi, après avoir pris quelques 15 000 clichés du champ de débris grâce aux « Remus », des petits robots sous-marins autonomes pouvant plonger jusqu’à 6 000 mètres de profondeur.

C.H.

Sierra, le plus important projet .Net en France en nombre de jours/hommes

Pour une meilleure productivité de son matériel roulant, la SNCF a décidé une refonte du système d’information de son activité « Roulements de Rames et de Matériels moteur » qui comprend les voitures, les trajets, les opérations de maintenance… C’est l’objet du programme Sierra (Système Informatisé d’Elaboration des Roulements de Rames et de mAtériels) qui permet aux 200 utilisateurs un contrôle rapide du matériel roulant par rapport aux sillons horaires, autrement dit la capacité d’infrastructure requise pour faire circuler un train donné entre deux points d’un réseau ferré pendant une période de temps donnée. En facilitant le pointage et le minutage, Sierra offre aux responsables des productions de SNCF Proximités des solutions d’optimisation et d’aide à la conception du plan de transport avec des temps de réponse de l’ordre de la seconde. « En production depuis début 2009, le projet Sierra offre à de nombreux utilisateurs un outil moderne pour l’élaboration des roulements de matériels » déclare Monique Pério, Responsable de la Business Unit « Etudes pour le Transport de Voyageurs » de la SNCF (DSI-T).

Le programme Sierra pour lequel la SNCF a choisi Sogeti, filiale à 100 % de Capgemini, est à l’heure actuelle le plus important projet .Net en France en nombre de jours/hommes. Il intègre les dernières technologies .Net dans un environnement métier très complexe avec des objectifs de performance et de volumétrie ambitieux.

Une base de données de 150 millions d’enregistrements

Sogeti s’est chargé de la mise en place d’un socle technique solide, basé sur le Framework .NET de Microsoft. Ce socle tient compte de la complexité métier de la SNCF et permet de répondre aux contraintes techniques fortes comme la volumétrie de la base de données (12,5 Go pour 150 millions d’enregistrements).

La rapidité de développement, la pérennité et la capacité à monter en charge ont motivé le choix de la plate-forme .NET : le langage .net de Microsoft permet d’avoir une approche unifiée de la conception d’applications Windows Web, tout en introduisant des facilités pour le développement, le déploiement et la maintenance d’applications.

L’architecture technique .NET a été couplée à un générateur de code interne à Sogeti pour produire des systèmes informatiques réutilisables, taillés sur mesure, évolutifs et robustes, avec un haut niveau d’automatisation. La solution d’industrialisation de Microsoft Visual Studio Team Foundation Server, plate-forme collaborative sur laquelle repose la solution de gestion du cycle de vie des applications, a permis aux 25 spécialistes de Sogeti de mettre en oeuvre une solution opérationnelle en seulement un an et demi.
 

Un réseau hotspot WiFi sécurisé qui supporte la vidéo HD

Appartenant au Groupe Tranchant, le casino Seven d’Amnéville-les-Thermes, situé en Moselle, occupe à ce jour la quatrième position du classement des casinos français. Dans ce complexe nouvellement créé de plus de 10 000 m2, 35 % de l’espace est dédié exclusivement au jeu avec 400 machines à sous et 21 tables de jeux. Il compte également une salle de gala, un restaurant et un hôtel de 78 chambres. Récemment, pour accueillir le World Poker Tour, il a été conduit à se doter d’un réseau hotspot WiFi hautement disponible et sécurisé pour la centaine de journalistes du monde entier qui couvrait l’événement. Il devait, d’une part, offrir une bande passante capable de supporter la transmission des données et de la vidéo HD en haut débit et, d’autre part, sécuriser toutes les connexions, notamment lors de la finale. Dans le même temps, le World Poker Tour a abouti à une mutualisation du réseau Internet pour l’ensemble du complexe, à savoir la connexion sans fil de deux sites distants : l’hôtel et le casino avec une seule ligne ADSL.

La division informatique du Groupe Tranchant souhaitait procéder à la refonte des réseaux câblés existants pour l’hôtel et le casino en s’appuyant sur un seul réseau WiFi pour les deux sites.
« Au delà du déploiement d’un accès Internet sécurisé pour le World Poker Tour, nous voulions disposer d’un hotspot unique permettant aux clients de l’hôtel de se connecter, aux invités d’accéder à Internet depuis la salle de gala, transformée en gigantesque salle de presse lors du tournoi, aux joueurs de se connecter dans les parties communes du casino, aux salariés de gérer les tâches administratives et à l’équipe de maintenance de procéder aux relevés compteur quotidien des machines à sous, qui jusque là s’effectuait par téléphone », indique Didier Guirlé, coordinateur informatique du Groupe Tranchant.

Il importait ici de cloisonner le réseau en fonction des différents besoins de connexion, et de couvrir l’ensemble du complexe tout en palliant aux perturbations causées par le bâtiment en sous-sol, où la portée du signal WiFi a été étendue par l’installation d’antennes. « Nous rencontrions un problème de sécurité évident avec notre ancienne installation car nous ne pouvions pas à la fois définir une zone sécurisée pour l’exploitation du casino et une autre dédiée à la couverture médiatique du World Poker Tour. De même que nous n’avions aucun moyen de tracer les connexions des visiteurs », souligne Didier Guirlé.

Traçabilité, conservation et restitution à la demande des logs

Après avoir procédé à des tests de validation, la passerelle G-4100 de ZyXEL sécurisée par un pare-feu VPN ZyWALL USG 1000, a permis de répondre à l’ensemble des besoins. L’installation a été coordonnée par les équipes de ZyXEL et le partenaire IDS.

L’hôtel est désormais en mesure de proposer à ses clients un accès Internet en libre-service sécurisé via l’attribution d’un login et d’un mot de passe pour chaque utilisateur. Ces données sont enregistrées par le client depuis le portail de l’hôtel. La durée de connexion est ici paramétrable à la minute, à l’heure ou à la journée. La passerelle G-4100 garantit aussi la traçabilité et la conservation des logs ainsi que leur restitution à la demande pour une parfaite conformité avec la loi anti-terroriste du 23 janvier 2006, qui oblige à stocker les informations de connexion des clients pendant un an.

En outre, la G-4100 s’appuie sur le câblage RJ45, d’où une alimentation des bornes en PoE (Power over Ethernet) pour qu’un seul câble puisse envoyer les données et l’alimentation, une contrainte à laquelle répondent les bornes NWA-3166 de ZyXEL. Enfin, l’ajout du pare-feu permet de protéger le réseau des menaces cybercriminelles et d’établir des sessions VPN distinctes pour l’hôtel, la salle de gala et le casino.

La solution finale adoptée qui a fait ses preuves lors du World Poker Tour, devrait être déployée à moyen terme dans 17 casinos du groupe Tranchant.

 

M.C
 

Les résines thermoplastiques montent à bord des avions

En moyenne, un avion consomme environ 0,03 kg de carburant pour chaque kilogramme transporté par heure. Étant donné que l’ensemble de la flotte commerciale vole environ 57 millions d’heures par an, obtenir une réduction d’un kilogramme par vol peut permettre d’économiser environ 1 700 tonnes de carburant et 5 400 tonnes de dioxyde de carbone (CO2) par an.

« Les équipementiers et les fournisseurs aéronautiques mondiaux ont besoin de solutions conformes, sûres et économes en carburant pour concevoir et fabriquer à moindre coût des avions de dernière génération, » a déclaré Jack Govers, directeur général du service des films et des plaques de spécialité de SABIC Innovative Plastics qui, lors de l’Aircraft Interiors Expo, à Hambourg, a mis en avant ses résines thermoplastiques à haute performance, ses films, ses mousses et ses solutions composites. Des matériaux avancées qui aident les équipementiers aéronautiques mondiaux à réduire le poids de près de 50 % tout en étant en conformité avec les sévères réglementations matière en terme de flammabilité, fumée et toxicité.

La course à l’allègement

Par exemple, en utilisant la plaque Lexan F6000 en remplacement des traditionnels produits en polychlorure de vinyle/acrylique sur les cadres de sièges, une compagnie aérienne peut réduire le poids d’environ 23 %, soit 80 kg si l’on se base sur un avion de 190 sièges. Quant à la plaque Lexan XHR, elle offre une réduction de poids supérieure de près de 12 % par rapport aux produits traditionnels en PVC / polyméthacrylate de méthyle (PMMA). Un matériau que Geven S.p.A., grand fournisseur de solutions d’intérieur et de sièges d’avions, a choisi pour équiper les nouveaux sièges d’avions des intérieurs Armonia de la compagnie aérienne des Caraïbes, conçus par Giugiaro. L’objectif visé qui était de limiter le poids des sièges à un maximum de 9 kg, a poussé Geven à envisager de nouveaux matériaux légers à haute performance. La plaque Lexan XHR s’est révélée être la solution à ce problème en raison de la conformité du matériau aux strictes réglementations en matière de flamme, fumée et diffusion de chaleur et aux exigences de toxicité d’Airbus. De plus, à la réduction de poids par rapport aux produits traditionnels, s’ajoute une mise en œuvre améliorée au thermoformage.

Autre solution d’allègement : la résine Ultem. Contenant 40 % de carbone, sa rigidité et sa  fluidité permettent de produire des pièces moulées à parois minces pour remplacer l’aluminium moulé sous pression des composants structurels. Elle offre une réduction du poids de près de 50 % et une rigidité améliorée de 40 % tout en respectant les exigences de la FAA. Les applications potentielles comprennent les supports structurels, les accoudoirs, les repose-pieds, les châssis de cafetière et les bras des tablettes. Ainsi, dans les inserts chariot de Sell Cabin Interiors GmbH, filiale du groupe Zodiac Aerospace, la résine Ultem a remplacé le métal sur plus de 30 pièces pour réduire le poids et les coûts tout au long de la consolidation des pièces du four nouvelle génération de Sell. Cette résine a été choisie pour équiper l’avant et la porte du réchaud pour petits pains, le bac récepteur avant, la tête à infusion et la tasse à infusion de la cafetière, l’avant et la porte du four et la théière, la machine à boissons et le chauffe-eau. Elle a permis une plus grande liberté de conception et un meilleur assortiment des couleurs. Même choix pour le chariot de vol ultra-léger de LSG Sky Chef et Norduyn  qui a fait récemment l’objet d’une annonce en tant que finalistes du Prix Crystal Cabin 2010 dans la catégorie Cabine écologique, Santé et sécurité. La résine Ultem résistante aux UV est utilisée pour les profilés extrudés et le verrou de porte alors que la résine Noryl est destinée à la carcasse et à d’autres composants.

Alliance de performances et d’esthétisme

Ces nouveaux matériaux peuvent également être retenus pour leurs propriétés mécaniques, leur résistance aux hautes températures, leur facilité de mise en œuvre ou même leur esthétique. Ainsi, Patrick Lindon, un dessinateur industriel qui conçoit des produits pour les intérieurs et les sièges d’avion, a choisi la plaque Lexan F2000A, légère et transparente, pour créer un nouveau porte-brochures pour Bucher Leichtbau AG. Quant à Pilatus Aircraft Ltd., un fabricant mondial d’avions monomoteurs à turbopropulseur et de systèmes de formation aéronautique, il a sélectionné la plaque Lexan F6000 pour créer son nouveau cockpit ultra moderne. Ce matériau offre à l’équipementier un traitement supérieur à celui des matériaux thermodurcissables, ainsi qu’une colorabilité et une stabilité dimensionnelle, tout en répondant aux exigences de l’industrie.

Pour leur part, les plaques aéronautiques composites (PAC) UItem, co-développées et fabriquées avec Crane & Co., constituent une alternative aux composites alvéolaires renforcés de fibres aramides thermodurcissables. Recyclables, elles offrent un grand potentiel de remise à neuf à l’aide d’une nouvelle couche de film décoratif. La résine copolymère Lexan FST transparente, offre, elle, une flexibilité esthétique améliorée. Elle peut être associée à la plaque Lexan XHR pour assortir les couleurs de composants tels que les unités de service personnelles, les moulures de hublot et les garnitures de seuil, éliminant ainsi les coûts et les expositions environnementales du processus de peinture secondaire.

Les résines en polymères thermoplastiques (TPI) Extem UP conservent certaines propriétés mécaniques et électriques à 240 °C sur une période de 10 ans. L’incorporation du polyétheréthercétone (PEEK) à la résine Extem, permet de combiner le meilleur des deux matériaux, pour offrir une résistance à la flexion et une rigidité cinq fois supérieures au PEEK à 200 °C. En outre, sa stabilité dimensionnelle exprimée sous la forme d’un coefficient de dilatation thermique (CTE) est jusqu’à 30 % moins importante que le PEEK. Les propriétés de cette résine thermoplastique offrent une meilleure résistance et rigidité en utilisant des parois plus minces afin de réduire le poids et le coût du matériau, et un contrôle dimensionnel plus strict pour des applications de haute précision.
 

Dépollution innovante du site d’une ancienne usine à gaz

Le site d’une ancienne usine à gaz, a été désigné pour accueillir un projet immobilier comprenant 200 logements collectifs, une crèche, une maison de repos ainsi que des bureaux administratifs. Le planning de construction du site a nécessité un phasage adapté des opérations de dépollution pour pouvoir intégrer les contraintes liées aux travaux de réaménagement du site.

Il a en effet été constaté un fort impact des sols et de la nappe par du goudron et des dérivés hydrocarbonés lourds ainsi que la présence d’une forte épaisseur de produits surnageants (créosote, huiles lourdes, goudrons,…) au droit des deux anciens gazomètres.

La présence à proximité du site d’une voie ferrée, de riverains ainsi que d’espaces verts ont imposé le respect d’objectifs de réhabilitation sévères, ainsi que de contraintes opérationnelles spécifiques (monitoring des émissions en contaminants volatils, monitoring des nuisances olfactives, mesures vibratoires des sols lors des opérations de démolition…).

Pour répondre aux exigences sévères du projet, Biogenie Europe, spécialiste de la dépollution de sites, a mis en place une stratégie de traitement complexe reposant sur une palette de technologies :

  • pompage sélectif des dérivés pétroliers lourds surnageant ;
  • pompage/rabattement des eaux de la nappe pour canaliser les produits surnageants;
  • chauffage conductif in situ des sols ;
  • extraction et traitement des gaz du sol;
  • traitement complémentaire par lessivage par tensioactif des sols contaminés ;
  • traitement de finition par oxydation chimique in situ.

Traitement des eaux du site

Les estimations préalables aux travaux ont mis en évidence un volume de produit à récupérer d’environ 100 m3, principalement situé sous les fondations des anciens gazomètres. Pour accéder aux zones directement contaminées par les goudrons, une quarantaine d’ouvrages auront été forés à 6 mètres de profondeur et disposés tout autour des deux gazomètres. Dix autres ouvrages ont été implantés au centre des gazomètres.

Ecrémage

En raison de la forte épaisseur de produits flottants présents sur le toit de la nappe souterraine (> 1,8 mètres), le traitement de la nappe souterraine du site a débuté par la mise en place d’un dispositif d’écrémage simple. Pour cela, 30 pompes pneumatiques avec système suiveur ont été mises en opération durant une période de dix mois. Les pompes employées, de technologie extrêmement robuste, ont été conçues spécifiquement afin de pouvoir opérer sur des produits à haute viscosité (créosote, huiles lourdes, goudrons…).

Durant les trois premiers mois d’écrémage, l’efficacité de récupération a été maximale, avec des volumes journaliers de produit atteignant les 600 l/j. Au-delà de trois mois, la récupération de produit s’est trouvée amoindrie avec un taux de récupération tombant sous 80 l/j.

Pompage et rabattement de nappe

Compte tenu de la baisse des taux de récupération, il a été nécessaire d’améliorer le traitement afin de remobiliser les produits imprégnant les sols de façon plus tenace. Pour cela, un système de rabattement de la nappe par pompage a été ajouté au système d’écrémage initial. Ce procédé consiste à accumuler gravitairement les produits surnageants en une zone spécifique par un abaissement localisé du niveau de la nappe (via une pompe de rabattement) et à récupérer les produits accumulés au moyen de pompes écrémeuses.

Durant la phase de pompage et rabattement, un total de 352 m3 d’eau a été pompé et traité. Les analyses menées sur les eaux ont mis en évidence des concentrations en HCT (hydrocarbures totaux), HAP (hydrocarbures aromatiques polycyclique) et BTEX (benzène, toluène, éthyle-benzène et xylènes) comprises entre 20 et 25 mg/l.

Les eaux de pompage ont été traitées par passage au travers d’un séparateur hydrocarbure, suivi par un traitement de finition sur 2 filtres à charbon actif. Les eaux traitées respectant les seuils de rejet imposés, ont été réinjectées pour partie afin de lessiver quelques horizons d’accumulations préférentiels et augmenter les gradients vers les ouvrages d’écrémage ou envoyées vers le réseau d’eaux usées du site.

Lorsqu’il a été constaté une baisse des taux de récupération des produits flottants (après trois mois de traitement), il a été décidé de compléter le dispositif de traitement par ajout d’une unité de chauffage conductif in situ des sols.

Pompage, rabattement de nappe et chauffage des sols

Le procédé de chauffage conductif in situ (In Situ Conductive Heating ou ISCH) a été mis en œuvre dans le but d’augmenter la température des sols, de réduire la viscosité des produits, d’augmenter leur disponibilité et d’améliorer le taux de récupération du dispositif.

La chaleur a été apportée aux sols par immersion en zone saturée d’appareils résistifs spécifiques dans des ouvrages préférentiels. Le chauffage des sols mis en œuvre durant quatre semaines, a été réalisé en parallèle de l’écrémage et du rabattement de la nappe afin de garantir la récupération des produits mobilisés.

En complément du chauffage des sols qui a eu un impact significatif sur les taux de récupération par ouvrage, un dispositif d’extraction des vapeurs du sol a été installé pour prévenir toute nuisance olfactive générée par la montée en température des produits hydrocarburés. Cinq ouvrages ont été équipés pour aspirer les gaz du sol, et déplacés à la faveur des zones présentant le plus de risques de générer des nuisances.

Après un mois de fonctionnement de l’installation d’ISCH, le taux de récupération de flottants s’est de nouveau stabilisé malgré les optimisations constantes apportées par les techniciens de Biogenie. Il a alors été décidé de mettre en place un procédé complémentaire de lessivage par tensioactif des sols.

Lessivage des sols au tensioactif

L’objectif de cette technologie est d’abaisser la tension interfaciale huile/sol et donc de favoriser la mobilisation des produits fortement adsorbés aux sols. De manière concomitante, cette technologie a également pour effet d’abaisser la tension interfaciale eau/huile et donc d’augmenter par voie de conséquence la teneur en contaminants dissous dans les eaux.

Préalablement à la mise en œuvre de cette technique, des tests en laboratoire ont été menés afin de définir la solution de tensioactif la plus appropriée aux sols en place, à la contamination, et aux objectifs du projet. Le tensioactif retenu a été le QDS5, un composé anionique et biodégradable.

En premier lieu, le niveau de la nappe au droit des deux gazomètres a été abaissé afin de s’assurer que la solution de tensioactif affecterait le maximum de sols contaminés. Un total de 2 000 litres de solution concentrée de tensioactif a été injecté dans les sols sous-jacents aux gazomètres via les ouvrages de pompage du site.

Parallèlement aux injections de tensioactif, les procédés d’écrémage, rabattement de la nappe, chauffage conductif des sols et extraction des vapeurs du sol ont été maintenus en opération afin de conserver le taux de récupération de produits le plus élevé. Le rabattement par pompage a également joué un rôle important dans la récupération de la solution de tensioactif. Le lessivage des sols par tensioactif a permis de rehausser le taux de récupération de produits de goudron de 66 l/j à 1 085 l/j.

Des analyses en laboratoire sur des échantillons d’eau prélevées dans cinq puits ont été réalisées tout au long des opérations d’injection de  tensioactif. Les analyses ont mis en évidence que les injections de surfactant ont permis d’augmenter les concentrations en HCT et BTEX dissous (les concentrations en HAP restant sensiblement identiques) d’un facteur 20 à 30 et donc de peaufiner le traitement mis en œuvre.

Après environ un mois de lessivage, les analyses d’eau ont pu mettre en évidence une diminution globale des concentrations en HCT, HAP et BTEX. Le taux de récupération de flottants s’est stabilisé autour d’une valeur nulle montrant qu’il devenait impossible de récupérer d’avantage de produit depuis le sous-sol avec cette technologie. Il fut alors décidé d’entamer l’ultime phase de traitement par oxydation chimique in situ.

Oxydation chimique

La dernière phase de traitement a consisté à mettre en œuvre un traitement par oxydation chimique in situ. Afin de traiter les derniers polluants dissous récalcitrants, 6,5 tonnes de solution de permanganate/persulfate ont été injectées dans les eaux de la nappe. Simultanément, le système de pompage et de recirculation des eaux de pompage a été mis en place afin de permettre une mise en contact optimale de l’oxydant dans les eaux de la nappe.

Douze jours après la fin de la phase d’injection, des analyses de validation ont été menées dans trois ouvrages représentatifs de la zone traitée. Les mesures de flottants réalisées sur les ouvrages du site à l’achèvement des travaux n’ont pas permis de mettre en évidence de phase flottante dans les ouvrages avoisinant les gazomètres. Sur l’ensemble de l’opération, un volume total de 115 m3 de produits surnageants a été mobilisé et récupéré.  

Truffle 100 : Dassault Systèmes toujours loin devant

Truffle Capital, fonds d’investissements indépendant en capital-risque, entre autres dans le domaine de l’énergie et des technologies de l’information, vient de publier la septième édition de son palmarès des 100 premiers éditeurs de logiciels en France, classés en fonction de leur chiffre d’affaire, le « Truffle 100 ». Une fois n’est pas coutume, c’est l’éditeur de logiciels Dassault Systèmes qui arrive très largement en tête, avec pas moins de 1,58 Milliard d’Euros de revenus pour l’exercice 2010, surclassant son dauphin Axway (filiale de Sopra) avec 355 Millions d’Euros, et le troisième, Murex, avec 310 Millions.

Le chiffre d’affaire de Dassault Systèmes correspond à un peu plus du tiers des revenus globaux des entreprises recensées, écrasant toute concurrence française et reléguant loin ses poursuivants. Philippe Guerrier remarque que « l’industrie du logiciel en France suit trois grandes tendances : le cloud (59 %), les applications mobiles (39 %) et la gestion des processus métiers (25 %) ».

Dassault Systèmes, filiale du groupe industriel Marcel Dassault (connu essentiellement comme constructeur aéronautique et comme patron de presse avec le Figaro) a été créée au début des années 80 pour développer et faire évoluer les CAO (Conception Assistée par Ordinateur), grâce à son vaisseau amiral, le logiciel CATIA, permettant la conception, le test et la réalisation de produits manufacturés, ainsi que les outils permettant leur fabrication.

La gestion du cycle de vie des produits (« Product Lifecycle Management », PLM, avec le logiciel ENOVIA) et la conception 3D (Solid Works ainsi que 3DVIA) représentent maintenant l’essentiel de l’offre logicielle autour de laquelle s’articule Dassault Systèmes.

L’intégralité du classement de cette année et des années précédentes se trouvent sur le site :  http://www.truffle100.fr/presentation.php.

Moonzur Rahman

Java, un choix coûteux pour les DSI ?

Une « prise en main longue et compliquée », des « compétences et une expertise coûteuses », des « architectes apprentis sorciers », un « écosystème technologique étourdissant »… Le constat des DSI sur l’utilisation du langage Java est souvent sans appel, au point qu’elles regrettent parfois leurs bons vieux langages, peut-être complètement dépassés dans certains domaines mais tellement plus productifs.

Certaines entreprises expérimentent des langages encore plus récents, qui promettent à leur tour de pallier les carences et la complexité du langage Java. D’autres cherchent à s’affranchir définitivement du code source en explorant de nouveaux paradigmes, tels que l’approche par modélisation (MDA) ou la programmation fonctionnelle dédiée (DSL).

Mais ces pratiques n’ont pas encore atteint la maturité suffisante pour être industrialisées sur des projets stratégiques. Une autre voie consiste à capitaliser au maximum sur des briques Open Source proposant des réponses aux problématiques les plus courantes dans le développement d’applications de gestion, à condition toutefois d’éviter certains écueils.

Gérer le foisonnement de l’Open Source 

Le bon sens nous commande de nous appuyer sur des solutions déjà éprouvées plutôt que de « réinventer la roue ». Ainsi, les DSI ayant choisi de réaliser elles-mêmes leur « framework maison » (comme cela a été le cas avec l’arrivée de Java) s’interrogent, pour des raisons évidentes de coûts de maintenance et de pérennité de leurs investissements.

Cela est d’autant plus naturel qu’Internet regorge désormais de composants (ou frameworks) répondant à quasiment tous les besoins d’une application de gestion. Ils sont eux-mêmes diffusés le plus souvent sous une licence Open Source garantissant ainsi une liberté d’utilisation à moindre frais pour les entreprises. 

Mais trouver son bonheur dans ce foisonnement technologique est aussi un véritable casse-tête. En effet, rien que sur les forges Open Source les plus connues, pas moins de 1 500 frameworks techniques Java, plus ou moins matures, rivalisent pour grossir leur communauté respective d’utilisateurs, le buzz étant un des principaux critères de choix d’un composant Open Source. Ce nombre monte à plus de 20 000 composants, si vous élargissez votre recherche à des modules fonctionnels.
 
Au sein d’une DSI, vous serez donc confrontés à l’embarras du choix. Une fois les composants sélectionnés, vous devez ensuite organiser leurs interactions sous la forme d’un assemblage technique en gérant l’hétérogénéité des interfaces de programmation. Avec l’aide d’un ou plusieurs experts techniques, il vous faut donc construire un cadre de développement qui servira de base homogène à la majorité de vos applications, afin d’éviter de refaire ce travail de sélection et d’intégration au démarrage de chaque projet.
 
Pour réaliser un socle applicatif de qualité industrielle (c’est-à-dire complété par des générateurs de code, une approche méthodologique et un processus structurant de développement), il est raisonnable de prévoir une phase d’une durée de 3 à 18 mois de développements techniques avec une équipe de 3 à 10 experts selon vos besoins : niveau d’intégration dans votre système d’information, simplicité de prise en main par vos développeurs, productivité et qualité attendue pour la réalisation de vos projets, criticité des applications pour votre entreprise… 

On peut toutefois penser que les besoins identifiés pour votre DSI soient en grande partie identiques à ceux d’autres entreprises. Ainsi, si vous n’avez ni le temps, ni le budget pour construire votre socle applicatif personnalisé, vous pouvez vous orienter vers un socle applicatif fourni clé-en-main, qui pourra ensuite être adapté au contexte spécifique de vos projets. Il existe d’ores et déjà quelques socles applicatifs Open Source garantissant leur prise en main et leur maîtrise par vos équipes techniques.

Ces socles se présentent sous la forme d’une distribution de composants Open Source intégrée dans une architecture applicative couvrant un périmètre plus ou moins important selon les applications concernées. Mais attention, si vous ne voulez pas que vos développeurs passent leur temps à suivre les forums de discussion sans garantie de résultats, assurez-vous d’un support professionnel sur la totalité du socle applicatif afin de sécuriser la réalisation, la maintenance et l’exploitation de vos applications les plus critiques. Mutualisé entre les entreprises utilisatrices, ce socle applicatif communautaire restera plus économique que la maintenance d’un socle applicatif maison.

Absorber la versatilité des composants 

Ces dernières années, les socles applicatifs maison ont été construits en intégrant les composants les plus reconnus, soit en s’appuyant sur une équipe d’architectes interne, soit en déléguant ce chantier à un prestataire. Une fois le socle applicatif terminé et livré, se pose alors la question de sa maintenance pour les 5, 10 ou 15 prochaines années (soit la durée des applications de votre SI).

La particularité de l’écosystème Open Source est qu’il est en constante évolution. C’est d’ailleurs l’un de ses principaux atouts, car en évoluant, les composants deviennent plus pertinents et plus robustes. Cet écosystème est aussi régulièrement enrichi par de nouveaux composants plus performants, voire plus innovants. D’ailleurs, bon nombre des récentes innovations dans le domaine de l’informatique sont issues de projets Open Source.

Mais, mal gérée, les conséquences de cette démographie versatile peuvent aussi être désastreuses pour votre SI, car le rythme de ces évolutions est imprévisible et diffère pour chaque composant de votre socle applicatif. Un composant particulier peut aussi être abandonné par sa communauté mais rester accessible sur Internet. La moindre anomalie critique devient une sorte de bombe à retardement pour vos applications.

Vous êtes alors condamné, soit à remplacer ce composant par un autre plus récent en minimisant l’impact sur votre patrimoine applicatif, soit à assurer vous-même la maintenance de ce composant désormais obsolète. À noter que vous pouvez subir ce même type de désagrément suite à une rupture technologique introduite par une évolution majeure, ou encore par le changement brutal d’une licence Open Source en une licence propriétaire.
 
Le seul moyen d’anticiper ces risques est d’assurer une veille technologique permanente par un ou plusieurs experts sur les forums, les blogs et autres sites communautaires. Cette capacité d’anticipation ne dispensant pas néanmoins de procéder à des opérations de remplacement,  le moment venu. Il est clair que ces activités de veille et de maintenance des socles applicatifs ne sont pas neutres au plan budgétaire.

Ces coûts sont d’autant plus mal vécus par les directions, qu’ils sont mal compris dans leur nature technique et sans rapport avec les enrichissements fonctionnels et métiers attendus par l’entreprise. Ces coûts induits nuisent enfin à l’image de l’Open Source, souvent considérée à tort comme des ressources entièrement gratuites.

Survivre à son architecte

Mais au fond qu’est-ce qu’un socle applicatif ? C’est avant tout un assemblage de composants techniques proposant de cadrer la réalisation des applications tout en tenant compte des spécificités d’environnement propres à chaque entreprise. Afin de répondre au mieux aux exigences et aux contraintes spécifiques de l’infrastructure et du patrimoine applicatif existants, cette construction nécessite le savoir-faire d’un architecte justifiant de plusieurs années d’expérience dans la conception d’applications Java et l’utilisation de composants Open Source.

Toutefois, la phase d’architecture ne représentant qu’une étape nécessaire à la mise en œuvre d’un ou plusieurs projets, l’architecte est souvent un prestataire de haut vol intervenant de façon limitée dans le temps. En effet, une fois le socle applicatif stabilisé, le rôle de l’architecte n’est plus aussi déterminant. C’est sans doute pourquoi, les entreprises qui ont recruté leurs propres architectes ont souvent du mal à les retenir dans la durée. 

En effet, les bons architectes puisent leurs motivations dans la résolution de nouveaux challenges techniques, leur permettant d’améliorer leur expertise. Les phases de maintenance induisent rapidement le sentiment de « végéter », d’où sans doute cette réputation de « diva », qui leur est souvent attribuée. 

Quoi qu’il en soit, le départ de l’architecte du socle applicatif est bien souvent synonyme de perte de la maîtrise du socle. Cette perte de maîtrise peut rapidement se traduire par des difficultés ou des surcoûts de maintenance, voire même conduire au désengagement technique de vos partenaires qui ne voudront pas travailler sur une plateforme obsolète ou non supportée.

Ces écueils peuvent néanmoins être évités en organisant un transfert de compétences au sein d’un contrat de maintien en condition opérationnel (MCO) de votre socle applicatif dans la durée, ou en optant pour un socle applicatif communautaire supporté dont la maintenance est mutualisée.

Exploiter la richesse, évacuer la complexité

Les subtilités de Java en font un langage difficile d’accès pour un développeur fonctionnel. Ceci est encore plus marqué pour les développeurs expérimentés sur d’autres langages, souvent rebutés par la verbosité de ce langage très structurant. Paradoxalement, c’est cette verbosité qui permet de garantir la qualité et la portabilité des applications développées en Java.

De plus, l’intégration de nombreux composants Open Source pour la réalisation des projets accroît drastiquement les compétences requises pour les développeurs, et avec elles les difficultés de recrutement et les budgets.  

Pour de nombreuses entreprises, la situation devient cornélienne lorsqu’elles doivent choisir entre former à Java ses développeurs internes maîtrisant le métier de l’entreprise et des langages plus anciens, ou externaliser la réalisation et la maintenance de ses projets stratégiques auprès d’un prestataire.  Pourtant, des solutions existent pour évacuer la complexité du langage et de son environnement.

Les développements spécifiques en Java peuvent être industrialisés par un cadrage structurant les méthodes de développement et l’utilisation de Frameworks. Vous pouvez vous appuyer sur une stratégie d’intégration continue pour un suivi qualitatif de l’avancement de vos projets, ou encore recourir à une approche agile de gestion de projet favorisant les échanges d’informations et limitant votre dépendance aux personnes clés du projet, tout en augmentant votre flexibilité.

Enfin, vous pouvez utiliser, au moins sur une partie du code source, des outils de génération automatique et des tests associés.
 
Pour vous accompagner dans cette démarche d’industrialisation, certains socles applicatifs communautaires vont bien plus loin qu’une simple distribution de composants Open Source et complètent leur plateforme avec une surcouche simplifiant le codage des applications, des générateurs de code et un cadre méthodologique. Ils offrent les qualités d’un modèle éditeur traditionnel tout en capitalisant sur les bénéfices apportés par la richesse de l’Open Source.

Conclusion

La complexité du monde Java est réelle mais ses qualités, son ouverture et sa standardisation poussent à son adoption malgré les difficultés à bâtir et à maintenir son environnement technologique. Pour bénéficier des avantages de cet environnement, particulièrement bien adapté aux technologies de l’information, il est indispensable de capitaliser sur le savoir-faire et les retours d’expérience des composants Open Source qui le peuplent.

Au delà de l’économie d’échelle induite par l’approche communautaire, celle-ci vous permet de bénéficier d’une constante évolution, gage de fiabilité, d’interopérabilité et de respect des derniers standards.
 
Un des principaux freins à l’adoption d’une stratégie basée sur l’utilisation de composants Open Source pour une DSI est le foisonnement et la versatilité des solutions proposées. À l’instar de Linux qui s’est déployé sous forme d’offres packagées et supportées pour les entreprises (telles que RedHat et Ubuntu), les socles applicatifs Java intégrant une distribution opérationnelle de composants Open Source commencent à se faire connaître.

Pour les DSI, l’industrialisation et l’homogénéisation de leurs développements Java s’appuiera probablement sur ce type de solutions leur garantissant la pérennité de leurs développements métier et des économies par la mutualisation d’un support et d’une maintenance professionnelle. L’émergence d’éditeurs Open Source dans ce domaine est un signe encourageant de la maturité des socles applicatifs et une réponse adaptée aux DSI qui souhaitent investir sur leur métier, plutôt que sur la technologie qui les sous-tend.
 
Par David Duquenne, Directeur Général Open Wide Technologies
 

Nouvel étiquetage : Etes-vous au point ?

QUIZ N°1 : LA CORROSIVITÉ

Vous disposez de deux étiquettes de deux produits corrosifs. L’un est R35 et l’autre est R34. Déterminez les étiquettes sur la base du règlement CLP. Que constatez-vous ?

Les deux anciennes étiquettes :

Ponfrappe (100% m/m)

N°CAS 46492-07-7

R35 : Provoque de graves brûlures

  • S26 :En cas de contact avec les yeux, laver immédiatement et abondamment avec de l’eau et consulter un spécialiste.
  • S36/37/39 : Porter un vêtement de protection approprié, des gants et un appareil de protection des yeux/du visage.
  • S45 : En cas d’accident ou de malaise, consulter immédiatement un médecin (si possible, lui montrer l’étiquette).

 

Methyl-Diot (100% m/m)

N°CAS 1132-95-8

R34 : Provoque des brûlures

  • S23:Ne pas respirer les aérosols.
  • S26 :En cas de contact avec les yeux, laver immédiatement et abondamment avec de l’eau et consulter un spécialiste.
  • S36/37/39 : Porter un vêtement de protection approprié, des gants et un appareil de protection des yeux/du visage.
  • S45 : En cas d’accident ou de malaise, consulter immédiatement un médecin (si possible, lui montrer l’étiquette).

 

LES REPONSES

En ce qui concerne les classes de danger : Pour le produit R35, l’annexe VII du CLP vous indique une correspondance directe avec la classe de danger corrosion cutanée 1A, H314.

Ponfrappe (100% m/m)

N°CAS 46492-07-7

H314 : Provoque des brûlures de la peau et des lésions oculaires graves

  • P305+P351+P338: EN CAS DE CONTACT AVEC LES YEUX : rincer avec précaution à l’eau pendant plusieurs minutes. Enlever les lentilles de contact si la victime en porte et si elles peuvent être facilement enlevées. Continuer à rincer.
  • P280: Porter des gants de protection/des vêtements de protection/un équipement de protection des yeux/du visage.
  • P310: Appeler immédiatement un CENTRE ANTIPOISON ou un médecin.

En ce qui concerne les classes de danger : Pour le produit R34, l’annexe VII du CLP vous alerte sur le fait que plusieurs classes de danger sont possibles : corrosion cutanée 1B et corrosion cutanée 1C. Seul le temps d’observation d’une nécrose vous permettra de faire la différence (temps d’observation entre 3 mn et 1h pour la catégorie 1B et entre 1h et 4h pour la catégorie 1C). Ces résultats devraient être disponibles dans la FDS, sinon vous pouvez suivre la note 2 de l’annexe VII du CLP.

Methyl-Diot (100% m/m)

N°CAS 1132-95-8

H314 : Provoque des brûlures de la peau et des lésions oculaires graves :   

  • P305+P351+P338: EN CAS DE CONTACT AVEC LES YEUX: rincer avec précaution à l’eau pendant plusieurs minutes. Enlever les lentilles de contact si la victime en porte et si elles peuvent être facilement enlevées. Continuer à rincer.
  • P280: Porter des gants de protection/des vêtements de protection/un équipement de protection des yeux/du visage.
  • P310: Appeler immédiatement un CENTRE ANTIPOISON ou un médecin.

En ce qui concerne les étiquettes :
Sur la base du tableau 3.2.5 de l’annexe I du CLP, vous obtenez le pictogramme, la mention d’avertissement et la mention de danger. Vous remarquez qu’il n’y a plus de moyen de faire la différence entre les deux produits. Il conviendra de se reporter à la FDS pour déterminer la catégorie (A, B, C) de la classe danger « corrosion cutanée » de votre substance.
Attention : les conseils de prudence sont choisis en tant compte des mentions de danger et de l’utilisation prévues ou identifiées de la substance ou du mélange (article 22. 3 du CLP). Ils peuvent donc être différents pour une même substance entre deux fournisseurs.

QUIZ N°2 : TOXICITÉ AIGUE

Vous disposez de l’étiquette d’un produit corrosif et nocif pour la voie cutanée et ingestion. Et la Fiche de Données de Sécurité référence les valeurs suivantes :

  • Toxicité aigüe par voie cutanée : DL50 = 1500 mg/kg pour le rat.
  • Toxicité aigüe par voie ingestion : DL50 = 250 mg/kg pour le rat.

Déterminer les étiquettes sur la base du règlement CLP.

Les anciennes étiquettes :

 

Tirabouis (100% m/m)

N°CAS 95801-19-8

R21/22 : Nocif par contact avec la peau et par ingestion.
R35 : Provoque de graves brûlures.

  • S26 :En cas de contact avec les yeux, laver immédiatement et abondamment avec de l’eau et consulter un spécialiste.
  • S36/37/39 : Porter un vêtement de protection approprié, des gants et un appareil de protection des yeux / du visage.
  • S45 : En cas d’accident ou de malaise, consulter immédiatement un médecin (si possible, lui montrer l’étiquette).

 

LES REPONSES

En ce qui concerne les classes de danger : Pour la phrase R35, l’annexe VII du CLP vous indique une correspondance directe avec la classe de danger corrosion cutanée 1A, H314. Sur la base du tableau 3.2.5 de l’annexe I du CLP, vous obtenez le pictogramme, la mention d’avertissement et la mention de danger pour cette classe de danger.
Pour la phrase R21/22, l’annexe VII du CLP vous alerte sur le fait que plusieurs classes de danger sont possibles pour chaque voie d’exposition.
Xn R21 => Toxicité aigüe catégorie 4, H312 ou Toxicité aigüe catégorie 3, H311
Xn R20 => Toxicité aigüe catégorie 4, H302 ou Toxicité aigüe catégorie 3, H301
Pour déterminer les classes de danger, vous devez donc vous referez au tableau 3.1.1 de l’annexe I du CLP pour déterminer la catégorie de danger pour les toxicités aigües. Sur la base de ce tableau, Xn R20 devient Toxicité aigüe catégorie 3, H301 et Xn R21 devient Toxicité aigüe catégorie 4, H312. Le tableau 3.1.3 de l’annexe I du CLP vous indique le pictogramme, la mention d’avertissement et la mention de danger pour ces classes de danger.

Tirabouis (100% m/m)

N°CAS 95801-19-8

 

H312 : Nocif par contact cutané.
H301 : Toxique en cas d’ingestion.
H314 : Provoque des brûlures de la peau et des lésions oculaires graves.

  • P305+P351+P338: EN CAS DE CONTACT AVEC LES YEUX : rincer avec précaution à l’eau pendant plusieurs minutes. Enlever les lentilles de contact si la victime en porte et si elles peuvent être facilement enlevées. Continuer à rincer.
  • P280 : Porter des gants de protection/des vêtements de protection/un équipement de protection des yeux/du visage.
  • P310 : Appeler immédiatement un CENTRE ANTIPOISON ou un médecin

 

En ce qui concerne les étiquettes :

Pictogramme : sur la base des classes de danger trois pictogrammes sont à votre disposition pour l’étiquette. L’article 26.1 du CLP qui indique que si le pictogramme « tête de mort » s’applique, le pictogramme « point d’exclamation » n’apparaît pas. Il convient donc de retenir le pictogramme « corrosion » et « tête de mort ».
Mention d’avertissement : danger pour corrosif et toxicité aigue par ingestion et attention pour la toxicité aigue par contact cutané. Lorsque l’étiquette comporte la mention avertissement « danger », elle ne comporte pas la mention d’avertissement « attention » (article 20.3 du CLP).
Attention : les conseils de prudence sont choisis en tant compte des mentions de danger et de l’utilisation prévues ou identifiées de la substance ou du mélange (article 22. 3 du CLP). Ils peuvent donc être différents pour une même substance entre deux fournisseurs.

Par P.T

Les formations TECHNIQUES DE L’INGENIEUR correspondant aux problématiques d’étiquetage :