Intégration des Eurocodes dans un logiciel de calcul de bâtiments en béton armé

Pour les marchés publics, les Eurocodes sont recommandés depuis juillet 2009. Pour les marchés privés, à défaut d’autres précisions dans les pièces du marché, les Eurocodes sont les normes nationales applicables dans le domaine de la construction. Derrière le terme Eurocode, la mise en pratique de l’EC2 impose déjà de distinguer l’Eurocode « commun », les annexes nationales et encore les recommandations professionnelles qui ne s’appliquent que si le marché le spécifie explicitement. Pour certaines vérifications, il existe plusieurs méthodes dont le choix peut être dicté par l’approche économique, ce qui ne peut être ignoré dans un logiciel professionnel et qui doit être suffisamment transparent pour que l’utilisateur maîtrise ses choix. Les premières applications des Eurocodes montrent qu’il est important de ne pas se limiter aux méthodes simplifiées de l’Eurocode sous peine d’aboutir à des dimensionnements peu économiques. D’où la nécessité de mettre en œuvre des outils pointus de simulation et de dimensionnement.

Mise au point en concertation avec des experts de la profession ayant, pour certains d’entre eux, participé aux comités de rédaction des Eurocodes, la nouvelle version 2011 du logiciel Arche de Graitec, dédié au calcul de bâtiments en béton armé, s’est concentrée sur une implémentation poussée des dernières publications des normes européennes Eurocodes et des évolutions fonctionnelles majeures dans le logiciel Arche Poutre.

« Le module de Poutre est essentiel dans la panoplie des outils de calculs et dessins d’armatures. Un partenariat s’est mis en place autour de l’équipe de développement de Graitec avec des représentants actifs du Bureau d’Etudes de Structures qui ont contribué à ajuster le cahier des charges et à tester un certain nombre de cas types. Au-delà de l’implémentation des Eurocodes, Graitec a accepté de relever le défi en intégrant les améliorations qui doivent permettre d’élargir les domaines d’utilisation et d’optimiser la chaîne d’étude calcul-dessin. Par ailleurs, certains points d’interprétation des normes EN 1990, 1991 et 1992 – respectivement Eurocodes 0,1 et 2 – ont été anticipés dans l’attente d’une officialisation escomptée par voie de recommandations professionnelles et de corrections d’un certain nombre d’ouvrages publiés », précise Philippe Busi, Directeur des Etudes de Bouygues Bâtiment Ile-de-France.

Intégration des Eurocode 1 et Eurocode 2

Afin de réaliser le programme de calcul de poutre Eurocode 2 le plus automatique et le plus performant possible, Graitec a apporté un soin tout particulier au module Arche Poutre dans cette nouvelle version qui intègre entre autres les points suivants :

  • la gestion détaillée des combinaisons (ELU STRGEO, ELS caractéristiques, fréquentes et quasi permanentes), définition des catégories de surcharges d’exploitation ;
  • la possibilité de prendre en compte une loi de déformation avec palier incliné pour les aciers d’armatures, fonction de la classe de ductilité (Classes A à C) ;
  • le calcul détaillé des effets du fluage à l’infini et à un instant « t » imposé ;
  • le calcul exact des ouvertures de fissures (§7.3.4 de l’EN 1992-1-1) en fonction du ferraillage mis en place ;
  • la vérification de l’enrobage minimum (§4.2 de l’EN 1992- 1-1) ;
  • la justification de la résistance au feu (EN 1992-1-2) ;
  • la détermination exacte des diamètres des mandrins de cintrage et des longueurs d’ancrage (§8.4 et §8.7 de l’EN 1992-1-1) ;
  • le calcul détaillé des flèches (méthodes d’intégration des courbures avec calcul précis de la flèche nuisible et totale) ;
  • le calcul des aciers de peaux (Annexe J).
  • la gestion des BHP (Bétons Hautes Performances) ;
  • la justification des renforts de trémies ;
  • la prise en compte des recommandations professionnelles…

Les autres modules ont également bénéficié de développements poussés :

  • le module de descente de charges, Arche Ossature, intègre l’EN1991-1-3 et l’EN 1991-1-4 pour la génération des charges climatiques et l’Eurocode 8 pour la génération des charges sismiques (avec prise en compte de l’arrêté et des décrets d’applications d’octobre 2010). ;
  • Arche Poteau 2011 permet de dimensionner les poteaux par la méthode simplifiée (recommandations professionnelles), par la méthode de la rigidité nominale (§5.8.7 de l’EN 1992-1-1) et par celle de la courbure nominale (§5.8.8 de l’EN 1992-1-1) ;
  • Arche Semelle 2011 permet de dimensionner les semelles par la méthode des bielles DTU 13.12 (recommandations professionnelles), par la méthode des bielles EC2 et par la méthode des consoles ;
  • le Module Arche Plaque et Arche « Boites à Outils » ont également fait l’objet d’une révision approfondie pour l’intégration des Eurocodes 2.

Graitec a adopté la même démarche pour les charpentiers métalliques : la version 2011 de son logiciel Melody intègre les Eurocodes 0 et 1 pour la génération des charges climatiques et les combinaisons, ainsi que l’Eurocode 3 pour la vérification et l’optimisation des profilés.

DIAPORAMA – Power Flower : des arbres éoliens dans les villes

Si les panneaux solaires investissent les parcmètres et les candélabres publics, les éoliennes peinent encore à s’imposer dans le paysage urbain en raison de leur gabarit important. L’émergence des smart grid a toutefois rendu possible la conception d’éoliennes plus petites, certes moins efficaces, mais surtout moins imposantes que les traditionnelles éoliennes et situées à proximité des usagers.

Ainsi, une équipe d’architectes basée à Amsterdam a dévoilé, début mars, un concept d’arbres éoliens baptisé « Power Flower ».

Ce concept se base sur un modèle déjà existant nommé « Eddy », et conçu par Urban Green Energy, un fournisseur new-yorkais d’éoliennes destinées aux particuliers. Pour 6 000 dollars, « Eddy » peut être installée en moins d’une heure, et supporter des vents de plus de 193 km/h.

L’idée de NL Architectes a été de créer des « arbres », en assemblant ces petites éoliennes. Intégrées à l’environnement urbain, ces arbres à éoliennes fourniraient de l’énergie renouvelable d’appoint, près des lieux de consommation.

Chaque « power flower » est constitué d’un mât en acier, prolongé de trois à douze turbines, pour une durée de vie annoncée d’au moins 20 ans. Installées sur les toits des immeubles, le long des routes ou dans les parcs, ces mâts reliés au réseau pourraient ainsi contribuer à alimenter des lampadaires, des feux de signalisation, éclairer des parkings…

D’après les calculs de NL Architects – qui se base sur les données du constructeur – une tige à trois branches permettrait de produire 13 000 kWh d’électricité par an, avec un vent de 5 mètres par seconde.

Un fond sonore adouci ?

Les pales d’une forme atypique sont conçues pour fonctionner dans des conditions de vents instables et variables. Soit, un contexte très fréquent dans les villes. Leur prise au vent étant réduite, cela permettrait en outre une diminution notable des vibrations et donc du bruit par rapport à des modèles classiques à trois pales.

Le constructeur assure ainsi qu’en fonctionnement normal, son modèle « Eddy » ne dépasse pas les 43 décibels, soit l’équivalent du bruit d’un lave-vaisselle. Pour autant, il ne précise pas le volume sonore engendré par plusieurs turbines installées sur un même mât.  Pas sûr que ces éoliennes hippies fassent changer d’avis les anti-éoliens. Affaire à suivre donc….

 

C.H.

 

Sources : www.cleantechrepublic.com

 

Un arbre éolien « Flower Power »

Une tige à trois branches produirait 13 000 kWh d’électricité par an.

Installation fictive en Hollande

Installation fictive sur la place Saint-Pierre de Rome

Installation fictive en Grèce

L’isolation, un gisement d’économies dans les industries de transformation

Une isolation efficace des installations techniques, notamment des tuyaux, chaudières et réservoirs travaillant à haute température, peut permettre d’économiser plusieurs millions de tonnes de dioxyde de carbone (CO2). Simultanément, des millions d’euros sont économisés au bénéfice des exploitants qui, globalement, peuvent amortir en deux ans ou moins leur investissement de départ dans les dispositifs d’isolation correspondants.

Rockwool Technical Insulation, un des principaux spécialistes mondiaux de l’isolation des installations techniques, propose un outil de calcul pour aider à déterminer les économies d’énergie et les réductions d’émissions de CO2, potentiellement réalisables par les industries de transformation pour lesquelles la différence de température entre les parois interne et externe des tuyaux peut dépasser 600 °C.

Un rapport, récemment publié par la société, fournit un exemple d’un tel calcul : « Une isolation de 50 mm d’épaisseur est courante pour une conduite à 250 °C. Notre calcul indique que, compte tenu des coûts actuels de l’énergie, le fait de porter à 100 mm l’isolation d’un tuyau de 10 km de longueur et de 150 mm de diamètre augmente bien sûr les coûts d’isolation, mais permet aussi de dégager près de 2 millions d’euros d’économies d’énergie. » Cet exemple repose sur un rééquipement complet de l’installation des tuyauteries au bout de 10 ans, mais la durée de vie potentielle de l’isolation peut dépasser 25 ans.

Isoler les process industriels comme les bâtiments « passifs »

Comme le souligne Frank Jacobs, directeur général de Rockwool Technical Insulation, lorsqu’elle est spécifiée, mais ce qui n’est pas toujours le cas dans la pratique, l’isolation répond davantage à la nécessité pratique de protéger le personnel qu’au souci d’économiser l’énergie. Dans cette démarche, qualifiée « d’ingénierie de la sécurité », l’épaisseur d’isolation reste minimale et peut ne pas dépasser 30 mm dans certains cas. Outre des déperditions énergétiques et thermiques évidentes, une isolation insuffisante est susceptible d’entraîner des pertes de vitesse et de productivité.

Selon Frank Jacobs, « des standards performants d’isolation sont aujourd’hui couramment appliquées dans le secteur du bâtiment, avec notamment les ouvrages à zéro énergie et les maisons dites « passives ». Mais les industries de transformation n’ont pas encore adopté de critères d’efficacité énergétique normalisés, voire même spécifiés. Si la dynamique en faveur de l’isolation des procédés à chaud était la même que celle qui s’exerce pour isoler les bâtiments neufs, les bénéfices, dans tous les sens du terme, seraient phénoménaux. »

Concevoir pour le développement durable

A ce jour, les conceptions courantes ne prévoient pas assez d’espace pour une isolation correcte des tuyauteries. Les conduites ou les éléments constitutifs sont souvent trop proches les uns des autres pour permettre de les isoler suffisamment. Rockwool Technical Insulation plaide en faveur de solutions de conception respectueuses du développement durable. Celles ci supposent de reconcevoir les tuyauteries, les conduits, les chaudières et les matériels en partie chaude des procédés en cohérence avec les objectifs d’économies d’énergie et de réduction des émissions de C02. Dans les procédés impliquant des températures très élevées, une épaisseur d’isolation d’au moins 300 mm se traduit par des gains en termes d’économie d’énergie et de réduction de coûts pour les installations de production, tout en réduisant leur impact sur l’environnement.
« Les installations techniques que nous avons isolées dans le monde entier cette année vont permettre de réduire les émissions de CO2 de près de 4 milliards de tonnes au cours de leur durée de vie. Investir dans l’isolation des conduites et des procédés travaillant à chaud peut s’avérer extrêmement profitable, avec des investissements capables d’être amortis en un an seulement » a conclu Frank Jacobs.  

Un groupe scolaire parisien chauffé par un égout

A Paris, le réseau des égouts reçoit des eaux usées dont la température est comprise entre 12 °C et 20 °C selon le moment de la journée et la saison. Elles proviennent en partie des appareils électroménagers (lave-vaisselle et lave-linge) qui utilisent de l’eau portée à haute température. Lorsque l’eau est évacuée, elle conserve une partie de sa chaleur que la technologie brevetée Degrés Bleus de la Lyonnaise des Eaux permet de récupérer.

Dans le cadre du Plan Climat de la Ville de Paris qui prévoit 30 % d’énergies renouvelables dans la consommation énergétique de la ville d’ici 2020, la Compagnie Parisienne de Chauffage Urbain (CPCU) et Lyonnaise des Eaux expérimentent une solution de chauffage du groupe scolaire Wattignies, dans le XIIème arrondissement, par la récupération de la chaleur des égouts. Cette solution urbaine de production de chaleur, sans combustible fossile, devrait permettre de couvrir plus de 70 % des besoins annuels de chauffage de l’école et d’éviter, ainsi, l’émission de 76,3 t de CO2 chaque année.

60 m d’échangeurs pour chauffer une école

Le fonctionnement de ce système est simple mais son efficacité dépend du débit des eaux usées qui doit être suffisant pour assurer une température constante : on estime que les eaux usées produites par 100 habitants permettent de chauffer 10 habitants. La récupération des calories s’effectue par le passage des eaux sur les plaques d’un échangeur en inox dont les tuyaux sont parcourus par un fluide caloporteur (eau glycolée) qui circule en boucle fermée. Réchauffé au contact du métal, ce fluide alimente ensuite une pompe à chaleur qui va concentrer les calories, jusqu’à une température de 60 °C. Cette chaleur est alors transmise au réseau habituel de chauffage.

A Paris, le groupe scolaire a été équipé d’une pompe à chaleur et 60 m d’échangeurs ont été installés dans le collecteur des Coteaux, un égout de grande dimension qui assure le débit nécessaire. L’installation, qui représente un investissement de 400 000 €, a été réalisée en moins de cinq mois (entre octobre 2010 à janvier 2011), les deux mois suivants ayant été consacrés aux essais de mise en service de l’installation.

Ce procédé de récupération de chaleur sûr et non polluant qui ne demande aucune combustion, assure uniquement la transmission de la chaleur et pas celle des odeurs, car les trois flux sont physiquement séparés. Il peut être mis en place dans certaines zones, comme les grands ensembles de bâtiments (écoles, complexes sportifs, bâtiments administratifs…) ou dans des quartiers à forte consommation de chaleur, à condition que le bâtiment à chauffer ne soit pas situé à plus de 500 m de l’égout pour éviter les déperditions d’énergie.
 

Optique Serre fait rimer Cloud Computing et ROI

PME dont l’activité principale consiste à vendre des éléments d’optique (lunettes, loupes, accessoires optiques), Optique Serre réalise des estimations financières sur des périodes hebdomadaires et mensuelles. Pour ce faire, l’entreprise s’était initialement tournée vers un logiciel de gestion d’activité spécialement dédié à son secteur qui lui fournissait des statistiques calibrées, essentiellement axées autour du Chiffre d’affaires et de la force de vente. Mais les tableaux présentés étaient peu parlants et nécessitaient un retraitement des éléments chiffrés en export, sous Excel ou Powerpoint, dans le cas de la présentation des chiffres à des tiers. Ces statistiques standardisées ne correspondaient pas non plus à ses besoins en termes de lisibilité, de synthèse, de traitements croisés et analytiques. Les indicateurs présents dans la base de données étaient, par ailleurs, difficilement exploitables.  

Dans ce contexte, Optique Serre a choisi la solution de reporting en mode 100 % Cloud Computing, accessible en ligne, de la société Bittle. Première solution rich BI au monde à utiliser l’offre de Cloud Computing Google App Engine, elle a obtenu le « Prix de l’application la plus novatrice accessible par le web » lors des Trophées de l’Innovation TIC 2010 organisés par la région Provence Alpes Côte d’Azur. Basée sur un ensemble d’indicateurs définis par l’utilisateur en amont, elle correspondait aux besoins de gestion d’Optique Serre. Essentiellement utilisée dans le cadre d’analyses du chiffre d’affaires et du développement commercial, Optique Serre a progressivement élargi son usage à la qualité et à la gestion des stocks.
 
« Bittle nous permet aujourd’hui de redéfinir notre stratégie d’entreprise point par point, grâce à l’extraction d’indicateurs beaucoup plus précis qu’auparavant et ce, sur des périodes plus fréquentes », explique Laurent Serre, Gérant d’Optique Serre et d’un point de vente du Groupe Optic 2000. « En cela, Bittle s’avère être un véritable levier de performance, nous permettant d’identifier de manière très fine nos points forts et nos points faibles, de capitaliser sur les uns et de corriger les autres. Nous pouvons ainsi approfondir nos points défaillants en rentrant plus avant dans l’analyse des statistiques alors déclinées en couches, en identifiant l’indicateur à améliorer et en mettant en place des actions pour progresser. »

« Le couteau suisse de la gestion »

Outre cet aspect d’optimisation de la gestion de l’activité, Bittle a facilité la communication entre les équipes car l’outil, dont l’interface est simple d’utilisation, est facilement configurable selon les besoins de chaque utilisateur. « Nous pouvons objectiver davantage d’éléments tout en restant étonnamment lisibles », précise Laurent Serre. « Pour exemple, en ce qui concerne la gestion du poids du stock que nous possédons, nous pouvons, via l’outil, découper chaque produit par famille de produit tout en étant visuellement clairs, ce qui nous permet une plus grande finesse dans notre gestion. »
 
Par ailleurs, lisibilité des données à toutes les fonctions de l’entreprise offre une meilleure compréhension des besoins des services connexes et de leurs préoccupations au quotidien. « Nous avions un problème de communication entre la gestion des tiers payants et celle des stocks. De fait, après avoir pu facilement visualiser les réalités des deux contextes, chacun a su s’adapter pour répondre à cet impératif de cohérence et de production. Nous travaillons désormais de façon plus claire et plus performante », précise Laurent Serre.
 
« Depuis que nous utilisons la solution Bittle, c’est-à-dire depuis le mois de septembre 2010, notre chiffre d’affaires a augmenté significativement. Cet outil de pilotage nous a permis de révéler le potentiel humain de nos vendeurs, d’optimiser notre matériel et nos techniques, nos services, et plus globalement, notre relation avec nos clients. Cette solution répond aussi aux objectifs des formations que nous sommes amenés à suivre régulièrement en management et stratégie d’entreprise. Nous pouvons désormais mettre en pratique, simplement et concrètement, les mesures que nous avons apprises en théorie et passer enfin d’un statut de « sachant » à celui d’ « agissant », indique Laurent Serre. Au final, Bittle nous a permis de gagner un temps précieux. A la fois au niveau du traitement des données mais également au niveau de leur communication à des tiers. Il n’est plus nécessaire désormais d’expliquer tel ou tel tableau, telle ou telle donnée, les graphiques sont simples et clairs. Notre gestion s’est améliorée, plus performante et plus proactive, notre chiffre d’affaires a augmenté significativement. En un mot, je dirais que Bittle est le « couteau suisse » de la gestion », conclut-il.
 

Déjà paru :

Le tandem électrique E-Tracer se dote d’une carrosserie en Kevlar

Le X-Prize de 10 millions de dollars qui avait récompensé SpaceShipOne pour le premier vol spatial par une firme privée, avait, en 2007, annoncé la même initiative pour encourager le développement de véhicules propres. Les règles étaient simples : les véhicules devaient pouvoir être produit en série, passer les crash-tests américains et consommer une énergie équivalente à 100 MPGE (miles par gallon), soit 2,35l/100km, et rejeter moins de 200 g/mile de CO2. Trois catégories avaient alors été créées : une pour les véhicules à 4 places, un pour les voitures avec 2 sièges cote à cote et une pour les voitures avec des sièges en tandem. Les deux dernières ont été remportées par des véhicules électriques. Si la Li-Ion Motors Wave II,  propulsée par un moteur électrique alimenté par une batterie lithium-ion et consomme 187 MPGE a gagné dans la catégorie des sièges cote a cote. La catégorie siège tandem a été remportée par la E-Tracer de la firme suisse Peraves AG, avec 187,6 MPGE, qui a ainsi remporté 2,5 millions de dollars..

De forme ovoïde, le E-Tracer, dérivé du MonoTracer à propulsion therrmique qui est en vente en Suisse, est équipé d’un moteur à induction de type « AC » d’une puissance de 150kW et de 162Nm de couple. Exposé sur le stand de DuPont lors salon JEC Composites de Paris, le véhicule passe du 0 à 100 km/h en moins de 5 secondes et atteint  une vitesse maximale de 240 km/h. Sa batterie au lithium lui confère une autonomie de l’ordre de 300 km.

En cas de crash, la fibre Kevlar ne se brise pas

Le poids de la cabine monocoque constituant un avantage concurrentiel décisif, Peraves AG a opté pour le Kevlar de DuPont. « Nous travaillons avec Kevlar depuis plus de 20 ans. Il s’agit d’un matériau léger qui, contrairement à la fibre de verre ou à la fibre de carbone, ne se brise pas en cas de choc » indique Roger Riedener, CEO de Peraves AG. « C’est le seul matériau dont le poids, la résistance et la réaction aux chocs était satisfaisante. De plus, cette fibre est plus facile à réparer que n’importe quelle autre » poursuit-il.

Olivier Lengwiler, Responsable Marketing du segment Transport pour DuPont, explique pourquoi Kevlar est particulièrement adapté à ces applications exigeantes : « Kevlar a une capacité d’absorption de la force gravitationnelle unique. En cas de crash, la fibre distribue l’énergie de l’impact et ne se brise pas. » De ce fait, il remplace de plus en plus la fibre de verre dans les carrosseries. Aujourd’hui, Kevlar équipe aussi bien des pièces d’avion que des structures de ponts suspendus ou encore des câbles de fibres optiques. 

Ecoles d’ingénieurs : généralistes ou spécialisées ?

Aujourd’hui, les écoles d’ingénieurs doivent répondre aux évolutions des secteurs de l’industrie. Ces mutations, importantes, concernent la manière d’appréhender les nouvelles technologies, les enjeux liés à l’environnement et à la mondialisation des échanges. Ainsi, l’exigence en matière de langues étrangères en école d’ingénieur a augmenté ces dernières années, ce qui permet de répondre à l’internationalisation des entreprises, de plus en plus importante depuis 10 ans.

Il existe deux types d’écoles d’ingénieurs. Les écoles dites généralistes. Elles fournissent un enseignement théorique et pratique dans les grandes disciplines scientifiques. Elles donnent une bonne formation scientifique de base et proposent des choix d’options dans les dernières années, mais permettent d’utiliser les compétences techniques et méthodologiques dans tous les secteurs de l’industrie.

Les écoles spécialisées, elles, préparent sinon à un métier, au développement de compétences relatives à un secteur particulier.

D’où vient la multiplication des écoles spécialisées ? La réponse est relativement simple : de la demande des employeurs en termes de compétences sur certains domaines précis. Bien sûr, même une école spécialisée a un aspect généraliste. Mais elle offre l’apprentissage d’une somme importante de connaissances permettant d’acquérir des compétences pointues. L’inconvénient de se spécialiser (moins de choix en termes de diversité d’emplois) s’efface devant le « côté » expert des ingénieurs sortant d’une école spécialisée.

Si les écoles spécialisées se développent, c’est aussi parce que de nouveaux marchés émergent, et souvent à grande vitesse. Par exemple, citons le cas des énergies renouvelables. La croissance, à la faveur des engagements gouvernementaux, des métiers liés à la recherche et à l’exploitation d’énergies renouvelables nécessite des formations spécifiques.

Cet exemple se retrouve dans tous les secteurs : Au niveau automobile, les recherches sur le véhicule électrique. En chimie, la révolution Reach. Au niveau matériaux, les nanotechnologies. Et ainsi de suite. Chaque secteur a besoin de nouvelles compétences, que ce soit pour la recherche ou au niveau technique. D’ailleurs, de nombreuses entreprises coopèrent avec des écoles d’ingénieurs pour proposer des formations spécifiques. C’est ainsi que Renault a développé une formation sur les véhicules électriques en partenariat avec ParisTech.

Des spécialisations verticales ou transversales

On trouve de nombreuses écoles qui forment des spécialistes dans leur domaine scientifique et technique. Ainsi, une thématique comme « l’exploration et la valorisation des matières premières » est tellement transversale qu’elle va trouver une application dans la plupart des secteurs de l’ingénierie (physique, matériaux, métallurgie, énergétique, géophysique, géologie, thermique, mécanique des fluides, environnement). Dans la même veine, les domaines de spécialisations tels que l’ « exploitation des ressources animales et végétales » ou encore les « techniques de l’information et de la communication », par exemple.

On voit donc que la spécialisation des écoles d’ingénieurs a quelque chose de tout à fait relatif : en effet, ces spécialisations concernent soit des techniques propres à un type d’industrie. Dans ce cas précis, l’enseignement balaie alors, au-delà des techniques proprement dites, l’industrie concernée. Après, les écoles abordant des thématiques très ciblées mais transversales proposent des enseignements à la fois très ciblés mais qui ont un côté généraliste, passage obligé puisque ces spécialités touchent tous les secteurs de l’industrie. Par exemple, les ingénieurs d’Itech Lyon reçoivent une formation à la fois généraliste et pointue dans la spécialité textile technique. Cet atout leur permet d’intégrer des entreprises du textile, bien sûr, mais aussi d’autres branches industrielles utilisatrices de matériaux textiles (chimie, luxe, automobile, lingerie, médical, sport-loisirs, construction de machines textiles et grande distribution).

Ensuite, il appartient aux entreprises d’adapter leur recrutement. Dans certains domaines d’activité (informatique, industrie chimique…), les entreprises ont tendance à recruter des ingénieurs généralistes, puis à les former (en les rémunérant), en quelques semaines, quelques mois au maximum. Au contraire, pour d’autres domaines, dont ceux évoqués plus haut, les formations ne peuvent pas être efficaces et courtes en même temps.

C’est là que réside encore la pierre d’achoppement pour les écoles d’ingénieurs spécialisées. Offrir à un étudiant un champ de compétence hyper spécialisé mais relativement étroit, sans le désavantager sur le marché du travail. D’où la multiplication de ces accords écoles-entreprises, et le développement de programmes d’enseignement spécifiques, répondant à une demande de l’industrie.

Le classement des grandes écoles d’ingénieurs généralistes, dans ses grandes lignes, n’évolue pas vraiment. Les écoles classées dans les premières places sont les mêmes depuis de nombreuses années, sans que cela soit contestable. Ces écoles sont d’ailleurs également reconnues internationalement.

Le journal l’Express a établi un classement, pour cette année, des meilleurs écoles. Ce classement s’accompagne d’une appréciation au niveau du « dynamisme de la recherche » (A étant la meilleure note, D la plus basse) pour chaque établissement. Voici les dix premières écoles qui apparaissent dans ce classement :

Etablissement

salaire brut annuel à l’embauche

dynamisme de la recherche

Ecole polytechnique – Palaiseau

+ de 40 000

A

Ecole des mines – Paris

+ de 40 000

C

Ecole centrale – Paris

+ de 40 000

C

Ecole des Ponts

+ de 40 000

B

Supélec

+ de 40 000

C

Ecole centrale – Lyon

37 000 – 40 000

B

ENSTA – Paris

37 000 – 40 000

C

ENSAE – Malakoff

+ de 40 000

D

Ecole centrale – Lille

34 000 – 37 000

C

Ecole centrale  – Nantes

34 000 – 37 000

C

Il est à noter que le salaire à l’embauche ne recule pas. Il est en moyenne de 37 000 euros à la sortie d’une des dix premières écoles d’ingénieur. Au-delà, on remarque que la poussée des écoles d’ingénieurs spécialisées, même elle est non négligeable, n’a& pas encore eu de répercussions notables sur ce classement, ni sur celui considérant les cinquante premières écoles.

Par Pierre Thouverez

 

Rejoindre les groupes thématiques « réseaux et Emplois » des Techniques de l’Ingénieur :

« Mes expériences à l’étranger m’ont aidé à intégrer des entreprises internationales »

Techniques de l’ingénieur : Pourquoi êtes-vous devenu ingénieur ?

Tout simplement parce que c’est une tradition familiale. Mon père est ingénieur de formation et il m’a transmis, ainsi qu’à mon frère, sa passion pour ce métier.

Quel est votre rôle et quelles sont vos fonctions actuelles ?

Je suis ingénieur en maintenance de programmes industriels, sous-traitant pour un grand constructeur aéronautique européen depuis maintenant 3 ans.

Plus précisément, je m’occupe de la maintenance d’une partie des applications de fabrication. Ces applications de fabrication composite, destinées à la construction des pièces importantes des avions (comme les ailes, par exemple), sont ce qu’on appelle des machines de « lay-up ». Elles incluent des robots qui disposent les matériaux, couche par couche, comme des bandes de scotch qu’on superposerait.

En quoi cela consiste au quotidien ?

Tous les jours, je dois résoudre des problèmes qui surviennent sur les programmes. C’est un travail que j’effectue en étroite collaboration avec les éditeurs en charge de la conception des applications et du développement des programmes. Parfois, les incidents vont jusqu’à stopper la chaîne de production, auquel cas je dois m’assurer de trouver une solution le plus rapidement possible. Enfin, je m’occupe du contrôle et de la gestion des licences.

Qu’est ce qui vous plaît le plus dans votre métier ?

Je dirais la diversité culturelle. Je travaille avec plusieurs pays comme l’Allemagne, l’Angleterre, l’Espagne, la France. Chaque pays est différent, et nécessite de s’adapter à ce qui fait sa spécificité.

Êtes-vous satisfait de votre cursus en école d’ingénieur ?

Oui,  j’ai eu la chance de faire des stages en Allemagne, et surtout  6 mois de master en Chine dans l’une des plus prestigieuses universités.  Malgré la difficulté à comprendre les cours qui étaient en chinois, j’ai réussi à m’adapter et à aller au bout de mon cursus. D’un point de vue culturel, j’ai beaucoup appris de ce pays, et j’ai notamment pu constater que la Chine était un pays très ambitieux. Il y a une réelle volonté de réussir là-bas, comme si l’avenir leur appartenait…

Comment se sont passés vos débuts dans la vie active ?

J’ai ressenti au début une forme de décalage, dans le sens où j’étais relégué à faire du développement alors que me sentais capable de travailler sur des projets plus ambitieux. Mais sinon, de manière générale, ça s’est bien passé. J’ai travaillé dans plusieurs sociétés de consulting spécialisées dans l’ingénierie, l’ingénierie aéronautique, et les services informatiques. En outre, mes différentes expériences à l’étranger m’ont permis de travailler dans des entreprises internationales. J’ai rencontré des gens venant du Pérou, du Portugal, d’Espagne, etc.

Quelles sont les qualités, selon vous, d’un bon ingénieur ?

La discipline, la détermination, l’altruisme, et un certain sens de l’anticipation. Quand un ingénieur est en charge d’un projet, il doit savoir à terme quel est le meilleur chemin à suivre et ne pas se contenter d’éteindre des feux. Cela permet de diminuer les erreurs persistantes.

Que signifie pour vous « être ingénieur en 2011 » ?

Pour moi, ça veut dire apprendre à s’adapter au contexte économique actuel, et donc accepter de voir son pouvoir d’achat diminuer. Face à la montée de la Chine et de l’Inde, où l’on exporte tous nos services, il faut accepter l’idée qu’eux aussi ont droit au même niveau de vie que nous. C’est pour eux une question de justice et pour tous une question équilibre mondial.

En outre, l’ingénieur moderne est un ingénieur qui se forme toute sa vie. Ses connaissances ne s’arrêtent pas à la sortie de l’école. Il doit continuer à apprendre et actualiser ses connaissances tout au long de sa carrière.

Quels conseils donneriez-vous à un étudiant qui veut devenir ingénieur ?

De prendre au sérieux toutes les matières de son cursus, car elles lui serviront toutes plus tard pour développer une vision générale. La culture scientifique est très importante, elle permet d’éviter de faire des erreurs importantes car l’ingénieur d’aujourd’hui est souvent amené à travailler au sein d’un groupe développant des technologies variées et interconnectées.

Propos recueillis par Carole Hamon

« L’arrivée en entreprise exige une bonne dose d’humilité ! »

Techniques de l’ingénieur : Comment est née votre envie de devenir ingénieur ?

J’aime les sciences depuis toujours. Le métier d’ingénieur s’est imposé naturellement à moi, comme une suite logique à cette passion.

Saviez-vous ce que vous vouliez faire précisément ?

Non. J’ai commencé mes études dans une école d’ingénieur. Mais je manquais de motivation et j’ai quitté l’école en deuxième année. Je suis alors allé à la fac, durant un an, puis j’ai décidé de passer un concours d’école d’ingénieur et j’ai été accepté dans une école. L’objectif pour moi était alors de monter une entreprise avec un ami rencontré au début de mon cursus.

Qu’avez-vous pensé de vos études d’ingénieur ?

Plus que des matières, l’école d’ingénieur nous donne une vraie rigueur intellectuelle. On y apprend à être polyvalent, à savoir trouver l’information pertinente et des solutions adaptées à des problématiques concrètes. On y acquiert un vrai bagage technique et une culture scientifique, qui plus tard sont utiles pour avoir une vision globale des choses. Mais en réalité, le métier d’ingénieur, tu l’apprends surtout en entreprise.

Comment se sont passés vos débuts dans la vie professionnelle ?

L’entrée dans le monde du travail est un peu déstabilisante. À l’école, tu as des projets, tu es dans des associations, tu es noté, et donc tu sais ce que tu vaux et où tu te situes. C’est un univers familier, dans lequel on se sent à l’aise. Durant mes études, j’ai travaillé avec la junior entreprise de mon école, dont j’étais responsable. Nous réalisions des projets pour les industriels, comme par exemple, l’étude de réduction des coûts pour un sèche-linge. Cela m’a appris à gérer le travail en équipe.

Arrivé dans l’entreprise, les repères changent. On se retrouve à devoir travailler avec des gens qui ont 30, 40 ans d’expérience. Il faut alors savoir faire preuve d’humilité.

J’ai commencé ma carrière sur la partie technique, en gestion de projet informatique, puis je me suis orienté vers la partie commerciale, avec le projet de créer plus tard mon entreprise.

J’ai travaillé ensuite en tant qu’ingénieur-commercial, pour une société spécialisée dans l’optimisation des procédés de fabrication dans l’industrie. Cela m’a permis de devenir par la suite directeur commercial pour un opérateur télécom. J’y étais en charge du développement commercial au niveau mondial, et je gérais en parallèle une équipe commerciale d’une dizaine de personnes.

Actuellement, je travaille sur un projet de création d’entreprise avec 3 amis. Ce sera une entreprise d’e-commerce ludique sur Internet (www.minutekitty.com), en concurrence directe avec des sites de vente aux enchères au centime. Je construis le business plan, je fais des études de marché, je réfléchis à la stratégie d’entreprise, etc.  Le lancement du site aura lieu dans les mois qui viennent. Après, je m’occuperai de tout le travail de suivi de la stratégie et du sourcing fournisseurs. Créer son entreprise est une aventure humaine vraiment exaltante !

Quelles sont les qualités qu’un ingénieur doit posséder, selon vous?

Des capacités d’analyse, de synthèse. L’aptitude à savoir trouver l’information, et à résoudre des problèmes. Savoir aussi travailler en équipe, être ouvert d’esprit, curieux.

Quels conseils donneriez-vous à un étudiant qui veut devenir ingénieur ?

Choisir une bonne classe prépa et une bonne école, si possible. Plus jeune, je ne me posais pas la question du classement des écoles, mais c’était une erreur. C’est important d’avoir un bon réseau. Cela donne des opportunités de travail plus tard et des retours d’expérience intéressants.
 

Propos recueillis par Carole Hamon

 

Découvrez la formation Techniques de l’Ingénieur : PRISE DE FONCTION DE MANAGER

La politique écologique tous azimuts de Mondi

Le groupe international de fabrication de papiers et d’emballages Mondi s’était engagé publiquement à intégrer le développement durable, que ce soit au niveau de la culture, de la récolte et de l’achat de ses matières premières, de sa politique de marque et de distribution ou encore de ses processus de production industrielle.

Ainsi, tous ses sites de production de matériaux susceptibles d’avoir un impact sur l’environnement sont certifiés selon ISO 14001, une norme qui vise à réduire l’empreinte écologique des installations de production par moins de pollution et de déchets. Il s’était fixé des objectifs ambitieux qui sont sur le point d’atteindre ou qui ont même été dépassés. Ainsi entre 2004 et la fin 2010, Mondi a réduit de :

  • 11 % la consommation spécifique d’énergie (objectif : -15 % en 2014) ;
  • 23 % les émissions d’équivalent CO2 (objectif : -15 % en 2014) ;
  • 34 % les émissions totales de DCO (objectif : -30 % en 2010) ;
  • 63 % les émissions totales d’AOX ou composés organiques halogénés absorbables (objectif : -30 % en 2010) ;
  • 70 % le niveau d’émissions totales de SRT ou composés de soufre réduit total (objectif : -65 % en 2010) ;
  • 36 % le volume de déchets pour décharges (objectif : -20 % en 2010) ;
  • 100 % les déchets industriels dangereux (objectif : -100 % en 2009).

Quant à sa responsabilité produits, elle repose sur l’initiative Cycle de vie (LCI), définie dans le Programme des Nations Unies pour l’environnement (PNUE,) signé en 2009, qui préconise une approche intégrée dans la gestion des impacts d’un produit dans le domaine de l’environnement, de la sécurité et de la santé durant tout son cycle de vie. La gamme de produits écologiques de Mondi se compose désormais de papiers et d’emballages qui sont optimisés pour ménager les ressources naturelles et réduire les déchets et ont obtenu des certifications pour leur durabilité de la part d’organismes reconnus à l’échelle internationale.

La nouvelle gamme Green Range qui reflète parfaitement la déclaration d’intention du groupe, est répartie en six catégories afin de permettre aux clients de trouver les solutions adéquates à leurs besoins spécifiques. 

Réduction du poids et des matériaux

L’un des objectifs principaux des centres R&D de Mondi est de développer des solutions qui nécessitent moins de matériaux tout en garantissant des performances égales, voire meilleures. Les solutions économiques élaborées par Mondi sont non seulement plus légères à transporter et plus faciles à manipuler, mais permettent également de préserver les ressources naturelles et de réduire les déchets. A titre d’exemple, le nouveau complexe développé par Mondi pour les snacks est jusqu’à 20 % plus léger que d’autres matériaux alternatifs et possède des propriétés barrières durables contre l’eau, l’oxygène et la lumière. De même, le papier kraft pour sacs Advantage One et le sac industriel à un pli One avec jusqu’à 20 % en moins de grammage permettent de réduire les déchets et de réaliser des économies tangibles.

Conservation prolongée des contenus

Mondi propose des solutions avec des propriétés novatrices qui contribuent à la réduction de l’impact environnemental en prolongeant la conservation des produits alimentaires et, par conséquent, en réduisant les déchets. Ces produits vont des sacs refermables à Sanocoat, une solution d’emballage antimicrobienne unique qui protège les produits en inhibant la prolifération des bactéries et la formation de moisissure. 

Préservation des ressources

L’approche de Mondi en vue de préserver les ressources renouvelables, en particulier les fibres vierges et l’eau douce, consiste à optimiser la consommation de matériaux, à mettre en place des processus de production non polluants et à utiliser des matériaux jusqu’à 100 % recyclés, sans toutefois transiger sur la qualité ou la sécurité. Par exemple, une tonne de carton léger recyclé (RCB) produit sur la machine à papier ECO7 de Swiecie, en Pologne, requiert 20 % en moins de vapeur, 30 % en moins d’électricité et  40 % en moins d’eau que d’autres machines comparables. Avec une capacité de 470 000 t/an, l’ECO7 permet d’augmenter de 40 % la consommation de papier revalorisé.

Les investissements constants sur le site ont permis de réduire considérablement l’empreinte carbone en diminuant les émissions de CO2 de plus de 100 000 t/an, en plus des 400 000 t/an obtenus au cours des dernières années. Cette réduction de plus de 60 % a été atteinte tout en augmentant constamment le volume de production.

Exploitation forestière durable

Les forêts que Mondi possède, sont certifiées conformément aux normes du Forest Stewardship Council (FSC). La majeure partie du bois et des fibres que le groupe achète auprès de fournisseurs externes est certifiée FSC ou PEFC (Programme for the Endorsement of Forest Certification). Parmi les solutions reconnues de Mondi, figurent le cartonnage vierge certifié FSC ou PEFC, les sacs consommateurs Mondi étiquetés PEFC et les sacs industriels étiquetés FSC. 

Biodégradabilité des emballages

En raison de la raréfaction des décharges, du changement climatique qui préoccupe de plus en plus le public et de l’intérêt croissant pour les produits bio, les fabricants qui optent pour des solutions biodégradables contribuent activement à la protection de l’environnement. Les détritus jetés par terre étant encore une pratique courante, les solutions biodégradables permettent de réduire considérablement leur impact sur l’environnement. Les produits dégradables de Mondi répondent à toutes les exigences relatives aux emballages revalorisables par compostage et biodégradation conformément à la norme EN 13432. Des solutions phares incluent Sustainex, une gamme de matériaux d’emballage biodégradables, compostables et recyclables, ainsi que Terra Bag, le premier sac industriel au monde avec un film biodégradable pour protéger contre l’humidité qui a remporté le Grand Prix EUROSAC en 2010 et été officiellement proclamé « sac de l’année 2010 ». 

Réduction de l’empreinte carbone

L’approche de Mondi pour mesurer le volume total d’émissions de gaz à effet de serre produit par ses principales catégories de produits, est approuvée par Climate Partner, une entreprise de conseil leader dans la branche. Le Pulp & Paper Industry (PPI), prix de la stratégie environnementale de l’année remporté en 2010 par Mondi, reflète le rôle important du groupe dans les efforts déployés à l’échelle internationale pour réduire les émissions de gaz à effet de serre et protéger les écosystèmes mondiaux. Suite aux améliorations de l’efficacité sur de nombreux sites dans le monde entier, Mondi a réduit de 40 000 t ses émissions de CO2, investi dans des installations de traitement anaérobique des eaux usées et poursuit une stratégie « Zéro Déchet » sur tous ses sites de production dans le monde. 

Des images 3D améliorent l’efficacité du processus de flottation

La maîtrise du processus de flottation qui consiste à insuffler dans un mélange constitué du minerai à enrichir, d’eau et de produits chimiques, des bulles d’air auxquelles adhèrent les minéraux, joue un rôle déterminant dans le processus d’enrichissement des minerais. Lorsque les bulles remontent à la surface, une mousse contenant des minéraux se forme et est ensuite récupérée.

« Les usines de concentration de l’industrie minière constituent un domaine majeur. Des problèmes surviennent si la mousse n’est pas en mesure de supporter la charge de particules de minerai qui se sont fixées sur elle ou si des perturbations apparaissent par ailleurs dans l’exploitation. Dans ce cas, le matelas de mousse disparaît et le redémarrage du processus consomme un temps précieux », explique Jukka Hakola, directeur commercial de Numcore Oy.

Grâce aux appareils de mesure de l’entreprise finlandaise Numcore Oy qui, en faisant appel à la tomographie d’impédance, génére en temps réel des images en 3D de l’intérieur des tuyaux et des réservoirs, il est possible de déterminer la taille et le nombre des bulles d’air ainsi que la quantité de matières solides sur le matelas de mousse, à partir des variations de la conductivité électrique.

« Si la teneur en matières solides de la mousse ou la taille des bulles varie et que des matières solides commencent à s’accumuler sous la mousse, cela risque d’entraîner sa solidification ou son effondrement. S’il est possible de prévoir cette situation, on pourra y remédier en modifiant les paramètres d’exploitation. Le fait que cette technologie soit en temps réel est primordial : le système communique en permanence à l’opérateur des données factuelles actualisées sur ce qui se passe dans les cellules de flottation, par exemple à quel endroit les minéraux se déplacent et où se trouve le rebord inférieur du matelas de mousse. « Comme il n’était pas possible auparavant de voir à l’intérieur des réservoirs, le réglage du processus de concentration reposait essentiellement sur des compétences empiriques. L’opérateur pouvant désormais observer le processus à l’intérieur, il est à même de maintenir la composition du mélange en permanence à un niveau optimal », dit Jukka Hakola.

Une utilisation expérimentale dans deux usines de concentration

Selon Jukka Hakola, le simple fait de mesurer n’apporte pas en soi de valeur ajoutée. Il faut que les résultats pilotent l’exploitation. C’est pourquoi l’entreprise a mis au point, en collaborant étroitement avec quelques clients clés, une technologie de mesure se montrant la plus utile possible dans les tâches quotidiennes.

Outotec, qui fournit des usines de concentration des minéraux et des installations métallurgiques dans le monde entier, est un des partenaires privilégiés de Numcore, de même que le laboratoire des technologies minérales du centre de recherche géologique à Outokumpu, en particulier dans la phase initiale des travaux de développement.

« On utilise, à l’heure actuelle, des capteurs dans deux usines de concentration dans lesquelles nous avons pu voir en pratique les facteurs qu’il fallait piloter et la façon dont nous pouvons mettre en évidence les avantages pour le client en les quantifiant. Notre objectif est de parvenir à traiter les problèmes à venir à un stade suffisamment précoce pour que le processus se poursuive sans perturbation. »

La technologie de mesure de Numcore est utilisée à titre expérimental, notamment à la mine de cuivre et de zinc de la société Inmet Pyhäsalmi Mine Oy à Pyhäsalmi. Selon le responsable de l’usine de concentration de la mine, Seppo Lähteenmäki, le système a fourni des données précises sur le statut du matelas de mousse et il a fonctionné de façon fiable.

« Nous avons eu l’appareil à l’essai pendant quelques mois et il a été incontestablement utile pour les utilisateurs qui avaient reçu une formation à l’utilisation du système et ont suivi activement les données produites par celui-ci. Il semble apporter suffisamment d’avantages pour que nous considérions sérieusement l’acquérir après la phase d’essai », dit Seppo Lähteenmäki.

Apport de la modélisation mathématique

Selon le diamètre du tuyau ou du réservoir, l’instrument de mesure mis au point par Numcore prendra la forme d’un capteur de débit ou d’un capteur tige à installer séparément dans les réservoirs et tuyaux de gros gabarit.

En alimentant les électrodes du capteur en courant alternatif basse intensité, il est possible de mesurer les différences de conductivité électrique des phases, par exemple pour les liquides, à l’intérieur des réservoirs, car la conductivité varie selon les substances. Il faudra toutefois un calcul d’inversion, domaine constituant le cœur de métier de Numcore, pour obtenir l’image proprement dite.

« Le capteur de débit CoreApus est adapté à l’analyse des matières se déplaçant à l’intérieur de tuyaux de moins de 1 m de diamètre. Comme les réservoirs des usines de concentration ont généralement une taille supérieure, nous avons mis au point le capteur tige CoreHydra. À l’aide de plusieurs capteurs, il est possible de réaliser des analyses dans un réservoir ou une cellule de très grosse taille », explique Jukka Hakola.

Les deux techniques permettent de mesurer, de façon précise, les interfaces des liquides et des matières solides, mais CoreApus est aussi adapté à l’imagerie des liquides s’écoulant à grande vitesse, par exemple dans les installations de l’industrie papetière.

« La différence la plus importante par rapport à la situation précédente est qu’il est maintenant possible d’analyser la cause et les modalités de ce qui se produit dans le processus et la façon dont on pourra prévenir les événements, le cas échéant. Nous avons privilégié la convivialité de l’équipement, permettant ainsi de procéder aux mesures correctrices sur place et en temps réel, et non par exemple sur la base d’échantillons analysés en laboratoire ».  »  fgdf  f v «  vvvhhhjhjh

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Human Bios maîtrise la croissance de ses données et la consolidation de leur stockage

Le groupe suisse Human Bios est spécialisé dans la recherche et le développement, plus précisément dans le secteur des technologies d’imagerie multi spectrale, des applications de sécurité et des portails Internet très divers. L’éventail de produits de l’entreprise était très vaste, et son infrastructure très hétérogène en raison des achats et des systèmes informatiques mis en place. Elle ne pouvait donc pas être centralisée ni standardisée sur les différents sites, ce qui générait, entre autres, d’importantes contraintes administratives sur les différents sites avec des besoins très récurrents en termes d’interventions des administrateurs locaux sur les processus. Avec l’infrastructure existante, le système informatique s’avérait donc être, à long terme, inadapté aux attentes opérationnelles. Or, les exigences très versatiles dans de nombreux secteurs impliquaient des réactions rapides et flexibles en matière d’informatique. De plus, Human Bios devait faire face à une croissance importante des données ainsi qu’à des attentes très poussées en termes de performances. C’est donc pour toutes ces raisons que le groupe a décidé de faire appel aux spécialistes informatiques de l’entreprise suisse, Winglet IT AG, dans le cadre de la mise en place de l’infrastructure du centre de données.

Un cahier des charges exigeant

« La gestion et la sécurisation des données, ainsi que de l’infrastructure de stockage, sont rapidement devenues l’un des aspects clés lors de la mise en place du nouvel environnement informatique, car les attentes d’Human Bios en termes d’infrastructures étaient très élevées », explique Tom Luessi, Consultant chez Winglet IT.
 
Les principaux critères de sélection d’Human Bios en matière de solution de gestion de données étaient les suivants : 

  • un niveau d’adaptatibilité du système très élevé et transparent en termes de coûts, apte à maîtriser des croissances de données non prévues ;
  • un niveau de disponibilité élevé et garanti via une architecture NSPOF (aucun point de défaillance unique) ;
  • un-une solution capable de faire face aux pannes d’un site sans perturber les services opérationnels indispensables ;
  • une gestion des ressources facile et centrale ;
  • des options en matière de réplication du réseau étendu dans le cadre du plan de reprise après sinistre et de la connexion des sites externes ;
  • une mise en place rapide et flexible des nouvelles exigences liées, par exemple, à la forte croissance de l’entreprise et à l’exploitation de nouveaux secteurs d’activités. 

 
Le système Axiom de Pillar Data Systems qui développe des solutions de stockage tenant compte des applications (Application-Aware Storage) pour les moyennes et grandes entreprises, a su convaincre grâce à son architecture, son adaptabilité, son administration très simple, ses possibilités intelligentes et ses ressources de capacités facilement attribuables. L’entreprise a également su répondre, de manière optimale, aux attentes en matière de disponibilité élevée tout en tenant compte du système de visualisation en cluster actif/actif de FalconStor, le serveur de stockage en réseau. La solution permettait aussi à Human Bios de disposer d’une administration centrale et de fonctions complètes de gestion uniforme de la mémoire et de reflets synchrones, de captures d’écran et de duplication à distance.
 
Stephan Wolf, Directeur des technologies de l’information chez Human Bios, et ses collègues, ont surtout apprécié le caractère évolutif du système Pillar Axiom : « nous avons enfin trouvé une solution capable de s’adapter très facilement, sans interruption, et d’évoluer avec nos activités, sans que nous ayons à changer de système. De plus, grâce à la « Qualité de service » (QoS) de Pillar, les fonctions de gestion des ressources peuvent être gérées encore plus intelligemment qu’avec tous les autres systèmes que nous avions envisagés », précise Stephan Wolf  pour justifier le choix du système de données Pillar.  

A chaque utilisation, un emplacement propre et optimal

« Afin de pouvoir répondre de manière optimale aux attentes d’Human Bios en matière d’infrastructure de stockage, serveur et cliente centralisée et souple, il était nécessaire d’envisager une solution de mémoire évolutive et modulaire », ajoute Tom Luessi de Winglet. « Grâce à la répartition dynamique de la mémoire en outils de performances tiers, les ressources sont rapidement disponibles au bon endroit ». 
 
En tant que dispositif de stockage « intelligent », le système Pillar Axiom dispose d’une infrastructure et d’une réserve partagée de disques durs permettant d’attribuer à chaque utilisation un emplacement propre et optimal de façon dynamique. « Le système Pillar Axiom est idéal pour les entreprises qui souhaitent, via la mise en place d’un système consolidé, réduire leurs coûts ainsi que leurs contraintes, sans perdre en performances ni disponibilité », explique de son côté, Pillar Data Systems.
 
La nouvelle infrastructure SAN et de virtualisation de serveur centralisée a pu être facilement mise en place entre les mois de juillet et de novembre 2010. Puis, au début de l’année 2011, le système de protection des sites externes a été installé via un dispositif de duplication à distance et une infrastructure de bureau virtuel VDI centralisé. En plus des quelques 1 000 domaines déjà gérés, plusieurs centaines de nouveaux domaines devraient être ajoutés, tout comme plusieurs banques de données hébergées et portails tels que Load.cd.  

Merck optimise sa gestion d’entrepôt avec seulement 8 préparateurs vocaux

Merck est une multinationale pharmaceutique et chimique, forte de 40 000 collaborateurs répartis dans 64 pays. Son entrepôt portugais réalise en moyenne environ 9 000 opérations d’entreposage par mois, pour un total de 30 000 lignes. Il accueille quatre types de marchandises : celles du Groupe Merck provenant d’autres centres de distribution ou des laboratoires de l’entreprise, celles de partenaires dont Merck gère le stock, du matériel promotionnel et des produits à réfrigérer.
 
Les procédures d’entrepôt, basées sur la lecture de codes-barres, étaient très laborieuses. En outre, les équipements n’étaient plus conformes aux critères de l’entreprise en termes de sécurisation système. En 2010, soucieux d’améliorer ses processus, Merck a mis en œuvre la solution de reconnaissance vocale 3iV Crystal de Zetes. « Nous avions déjà travaillé avec Zetes par le passé, et savions qu’ils installaient des solutions vocales. Lorsque nous avons visité le site d’un client de référence de Zetes, nous avons pris conscience des avantages que nous apporterait cette technologie », explique Luis Azevedo, IT Manager de Merck. C’est le palmarès de Zetes dans le déploiement de solutions vocales performantes, au Portugal et sur le marché international, qui a notamment incité Merck à choisir l’entreprise pour partenaire.
 
La société a équipé seulement huit opérateurs avec la technologie vocale 3iV Crystal qu’elle a intégrée au module SAP Warehouse Management (WM) de Merck, optimisant ainsi quatre procédures en entrepôt : la réception des marchandises, le rangement en stock, le réassort et la préparation. Même avec un nombre limité d’utilisateurs, les résultats engrangés ont été impressionnants en termes de productivité, de précision et d’ergonomie.
 
« L’utilisation permanente du lecteur de codes-barres ralentissait le processus de préparation des commandes. L’installation de la technologie vocale nous a apporté de nombreux avantages : nous avons optimisé les processus, augmenté la productivité, amélioré la satisfaction des opérateurs, réduit le taux d’erreurs et amélioré la planification » affirme Luis Azevedo.
  

Les Mardis de l’Innovation

Les Mardis de l’Innovation fêtent en 2011 leur dixième anniversaire. 10 ans que le Centre National des Arts et Métiers propose des séries de cours semestriels, dont le but est de « diffuser la culture de l’innovation sous toutes ses formes ». Dynamiques et interactifs, les cours prennent la forme de conférences, de retours d’expérience et de débats. Parmi les derniers thèmes abordés, citons « Tradition et innovation dans la gastronomie », « la domotique », ou encore  « Enjeux clés et perspectives d’innovation dans la santé ».

En 2h45, Marc Giget, professeur au CNAM et expert reconnu de l’innovation, fait le tour d’un sujet, faisant souvent intervenir des professionnels témoignant de leur expérience.  L’amphi historique de l’école est bondé : en plus des étudiants du CNAM qui suivent ce cours pour leur cursus, plus de la moitié du public est constitué de cadres dirigeants, d’entrepreneurs, de responsables marketing et R&D, d’artistes et de designers… tous les acteurs de l’innovation peuvent assister gratuitement au(x) cours de leur choix. Les cursus sont semestriels, bâtis autour d’une thématique.

Pour le deuxième semestre 2011, les cours traitent de la « mise en œuvre entrepreneuriale de l’innovation ».  Toujours actuels, très vivants, illustrés de nombreux exemples, ils sont un très bon moyen de revoir les théories et concepts de l’innovation et de découvrir les meilleures pratiques à travers le monde.

Par Donatienne Gauvin

Les Mardis de l’Innovation, de 18h15 à 21h : prochains cours :

  • mardi 10 mai 2011 : Stratégies d’innovation dans la grande distribution et le e-commerce
  • mardi 17 mai 2011 : Innovations et révolutions dans la relation aux langues et au langage
  • mardi 24 mai 2011 : Entrepreneuriat, innovation, croissance et développement de l’entreprise
  • mardi 31 mai 2011 : Voyage au cœur du modèle suisse d’innovation
  • mardi 7 juin 2011 : L’entrepreneuriat et l’intrapreneuriat par les équipes projets d’innovation autonomes
  • mardi 14 juin 2011 : Séance de synthèse sur l’innovation, ou l’art de définir le futur et de le réaliser

Inscription obligatoire en laissant ses coordonnées (nom, prénom, fonction, organisme, e-mail, téléphone) sur [email protected].

Un composite céramique 200 % plus résistant

Une équipe de chercheurs de l’Université d’Arizona et de l’Institut Polytechnique Rensselaer a fait état, dans une publication dans le journal Nano de l’American Chemical Society de leur découverte, permettant à ce composite céramique de mieux résister aux cassures. « Nous avons augmenté de manière non négligeable la dureté de la céramique, et fait les premiers l’observation que le graphène pouvait arrêter la propagation d’une fissure et pouvait forcer la fissure à changer de direction, non seulement dans deux dimensions, mais aussi dans dans trois. », explique le professeur Erica L. Corral, qui a dirigé ces recherches.

Deux dimensions

Ces observations vont pouvoir nous mener vers une nouvelle approche de l’élaboration des composites céramiques, qui n’était pas permise jusqu’ici, en se servant du graphène plutôt que les plus traditionnels renforcements en fibres. Les deux dimensions des feuilles de graphène sembleraient plus appropriées que l’unique dimension de renforcement permise par la fibre, dans l’arrêt des fissures.

Résistance améliorée de 200 %

Le graphène est un cristal bidimensionnel (monoplan) de carbone qui est l’élément dont l’empilement constitue le graphite, et dont la production est toutefois encore problématique et onéreuse. « Nous avons tiré profit de l’expertise de notre laboratoire pour synthétiser une grande quantité de graphène, sous forme de plaquettes », dit-elle encore. Piste innovante et intéressante, cette découverte améliore la résistance du composite aux fractures de… 200 %.

Par Rahman Moonzur

« Un ingénieur ne doit pas se couper des réalités du terrain »

Instantanés Techniques : Décrivez-nous votre parcours de formation.

Marie Langlois : J’ai effectué trois ans d’études au sein de l’ENESAD (Ecole nationale d’enseignement supérieur en agriculture de Dijon). Durant cette période, j’ai effectué des stages, dont deux m’ont permis de mieux appréhender les tenants et les aboutissants des missions que j’ai en charge aujourd’hui.

Quel sont les missions récurrentes qui sont les vôtres aujourd’hui, professionnellement ?

Je suis ingénieur qualité depuis un an. Je distinguerai deux types de missions : tout d’abord les missions opérationnelles. A côté de cela, il y a aussi des missions plus administratives, voire théoriques.

Qu’entendez-vous par missions opérationnelles ?

Le premier point est la mise en place d’une politique qualité, dans le cadre de démarches HACCP. Concrètement, j’ai pour charge de regrouper, dans un guide de bonnes pratiques, le détail des normes que nous demandons à nos sites de production (plus particulièrement à nos employés) de respecter scrupuleusement. Dans le cadre des référencements fournisseurs, il m’incombe de m’assurer du bon respect des cahiers des charges que nous éditons.

Et au niveau administratif ?

Le plus important est de tenir la base de données « qualité », partagée par tous les départements de l’entreprise, à jour. C’est capital. Dans un environnement qualité en constante évolution, il est crucial de tenir les équipes au meilleur niveau d’information possible. J’ajouterai également le travail effectué sur la prospection. Lors des études relatives à nos projets « nouveaux produits », le département qualité a pour charge l’évaluation de la compatibilité entre les développements envisagés et les impératifs légaux et normatifs préexistants.

Quelles compétences acquises durant votre cursus en école d’ingénieur vous servent le plus aujourd’hui ?

En premier point, je dirai que l’expérience acquise en école d’ingénieur sur tout ce qui concerne les systèmes d’information me sert quotidiennement depuis mon entrée en poste. Comme je l’ai dit précédemment, la tenue d’une base de donnée à jour, entre autres, est très importante pour la performance générale de l’entreprise. Globalement, l’usage des logiciels tels qu’Excel, Access, Camtasia, que je maîtrise depuis ma formation en école, est indispensable à mon activité professionnelle. Il faut également évoquer les compétences, en termes de capacité de synthèse, que le cursus en école d’ingénieur permet d’acquérir.

Et en termes de connaissances techniques sur le secteur de l’agroalimentaire ?

Au delà de l’apprentissage strictement technique, je dirai que la connaissance des filières et de leur acteurs s’est révélée un atout précieux. C’est incontournable.

 

Quelles compétences indispensables à l’exercice de votre métier vous manquaient quand vous avez été embauchée ?

Beaucoup ! J’ai appris beaucoup de choses sur le tas. Au niveau managérial bien sûr, nous ne sommes pas ou peu formés en école à gérer le côté humain dans une équipe. L’ENESAD reste une école assez généraliste, alors que ma branche d’activité est très spécialisée. A titre d’exemple, toutes les réglementations liées aux filières bio ont été mises en place il y a peu de temps…

Avec votre recul, quelles améliorations pourraient être apportées à l’enseignement supérieur et plus particulièrement aux écoles d’ingénieur ?

Je pense sincèrement que les stages en entreprise devraient être mieux encadrés et réfléchis. J’ai personnellement ressenti un manque de sens dans mes expériences en tant que stagiaire. Il faudrait, je pense, plus intégrer les stagiaires dans des projets concrets. Cela leur permettrait de prendre conscience pleinement des attentes qui seront celles de leurs recruteurs.

Quel conseil donneriez-vous aux étudiants souhaitant intégrer votre secteur d’activité?

Avant toute chose, il est important de garder à l’esprit l’aspect terrain. Un ingénieur qualité qui se coupe des opérations de son entreprise perd le contact avec les réalités de son métier.

 

Propos recueillis par Pierre Thouverez

 

Groupes thématiques « Réseau et emploi » des Techniques de l’Ingénieur :

Groupe agroalimentaire

Le classement des écoles spécialisées, secteur par secteur

Les écoles d’ingénieurs spécialisées attirent de plus en plus d’étudiants. Leur développement correspond à l’évolution de certains secteurs d’activité de l’ingénierie, où les formations spécialisées sont reconnues par les employeurs. Ces secteurs peuvent être listés aux nombre de cinq : 

  • Informatique – Electronique – Télécoms

  • Systèmes industriels  – matériaux – Transports

  • Bâtiments – travaux publics

  • Physique- Chimie – Biologie

  • Agronomie – Horticulture – Environnement

Acteur phare de la presse à destination des jeunes diplômés, le magazine l’Etudiant a classé les meilleurs écoles dans chacun de ces domaines. 

Secteur « Informatique – Electronique – Télécoms »

Secteur en fort développement depuis des années, la filière recherche des profils très spécialisés, mais aussi généralistes. Phénomène observé dans toutes les entreprises, l’omniprésence actuelle des systèmes d’information, et les possibilités, informatiques, d’adapter des outils de manière très précise pour ne pas dire totalement personnalisée aux besoins a créé un dynamisme certain. Le secteur a aussi servi de « refuge » aux jeunes ingénieurs diplômés ces dernières années, et qui, crise oblige, n’ont pas trouvé de postes dans la recherche ou dans des domaines plus pointus.

Quoi qu’il en soit, les étudiants se tournent de plus en plus vers ces domaines d’apprentissage. Le phénomène n’est pas nouveau, mais il perdure.

Classement

Etablissement

1

ENST Telecom – Paris

2

Grenoble INP – ENSIMAG (ex-ENSIMAG+Telecom INP)

3

ENST Télécom Bretagne – Brest-Rennes

4

Télécom INT – Evry

5

ENSIIE – Évry

6

ENSEIRB – Bordeaux

7

ENSEA – Cergy-Pontoise

8

ESIGETEL – Fontainebleau

9

ISIMA – Clermont-Ferrand

10

ENSAI – Rennes

 

 

Secteur « Systèmes industriels  – matériaux – Transports » 

Les évolutions que l’on observe depuis quelques années, dans les secteurs des matériaux et des transports par exemple, expliquent le besoin d’un enseignement spécialisé. Au niveau des matériaux, la recherche n’a jamais été aussi haletante. Aussi, les nouveaux impératifs en termes d’économies d’énergies, de durabilité, recoupent les trois thématiques évoquées. 

Classement

Etablissement

1

ISAE (ex-SUPAERO+ENSICA) – Toulouse

2

ENSAM

3

ENAC – Toulouse

4

ENSMM – Besançon

5

ENSMA – Poitiers

6

Grenoble INP – Génie Industriel (ex-ENSGI+ENSHMG)

7

SupOptique – Palaiseau

8

ENSEM INP Lorraine – Nancy

9

SUPMECA – Saint-Ouen

10

Grenoble INP – Pagora (ex-EFPG)

 

Secteur « Bâtiments – travaux publics »

Il existe beaucoup d’écoles d’ingénieurs généralistes proposant des spécialisation dans le secteur des BTP. Les écoles spécialisées sont moins nombreuses. Attention, les concours d’entrée dans ces écoles sont draconiens.

Classement

Etablissement

1

ESTP – Paris

2

EIVP – Paris

 

Secteur « Physique- Chimie – Biologie »

La CGE (Conférence des grandes écoles) a réalisé une étude en 2009 sur les spécialisations des ingénieurs. Selon cette enquête, le secteur de la chimie, en particulier, illustre une tendance des étudiants à so’rienter vers l’obtention d’un double diplôme. Pour répondre à de nouveaux enjeux, et notament celui de la coopération internationale, les écoles s’ouvrent aux partenariats. Par exemple, l’ENSCM Montpelier (septième de ce classement) présente des accords de coopération avec dix pays représentant 19 établissements.

Classement

Etablissement

1

ESPCI – Paris

2

ENSCP – Chimie Paris

3

ECPM – Strasbourg

4

ENSIC INP Lorraine – Nancy

5

ENSCR – Chimie Rennes

6

ENSIACET – INP Toulouse

7

ENSCM – Chimie Montpellier

8

ESBS – Strasbourg

9

ENSCL – Chimie Lille

10

ENSCPB – Bordeaux

Secteur « Agronomie – Horticulture – Environnement » 

De même que pour le secteur de la chimie, les secteurs agronomiques et de l’environnement connaissent une mutation vers l’iunternational importante. AgroParisTech, par exemple, s’est développé à l’international : 20 % d’étudiants étrangers, des partenariats stratégiques en Chine, en Amérique latine, en Australie… Enfin, AgroParisTech participe au consortium international Agronium.

Classement

Etablissement

1

AgroParisTech

2

Grenoble INP – ENSE³ (ex-ENSIEG+ENSHMG)

3

ENSAIA INP Lorraine – Nancy

4

Montpellier SupAgro

5

ENGEES – Strasbourg

6

INH-ENSHAP – Angers

7

ENESAD – Dijon

8

ESMISAB – Brest

9

ENSBANA – Dijon

 

 

Prix de l’Innovation pour une cloison rétro-éclairée par des Led

Décernés par un jury d’experts lors du Salon Bureaux Expo lié à l’organisation des espaces de travail, les trophées 2011 ont récompensé les meilleures innovations dans trois catégories : Produit, Service et Réalisation. Le premier prix de l’innovation Produit a été attribué au fabricant français de cloisons amovibles Alsea pour sa cloison rétro-éclairée LED Partition.

Fruit de la collaboration entre Alsea et un concepteur Lumière, la cloison se compose de deux faces dont l’épaisseur est équivalente à celle des cloisons amovibles traditionnelles (9,8 cm). Elle bénéficie, comme son nom l’indique, de l’intégration de la technologie LED sur la face de la cloison fabriquée en verre filtrant. Le côté opposé peut être, au choix du client, en bois, en métal ou en verre laqué, ce qui permet bien des combinaisons et des ambiances différentes. L’utilisation de LED blanches, rouges, vertes, bleues ou au choix, sur demande, ajoute aux cloisons des qualités de signalétique et d’esthétisme tout en participant à l’éclairage des espaces.

Des cloisons rétro-éclairées LED Partition dans une version d’éclairage blanc et reproduisant le cycle de la lumière naturelle, ont été installées en avant-première à l’Organisation européenne de Coopération et de Développement Economique (OCDE) dans le cadre d’un vaste projet de réaménagement de ses 12 500 m2 de locaux sur six niveaux.

« Outre l’aspect purement fonctionnel des cloisons, nous apportons une attention toute particulière à leur esthétisme. Ces éléments de séparation sont devenus tout à la fois éléments de signalétique et de communication, porteurs d’une identité d’entreprise et source de bien-être pour les collaborateurs. C’est pourquoi leur design est important, il participe à l’harmonie de l’ensemble. L’apport en lumière et la transparence des espaces jouent aussi un rôle majeur. Avec la LED Partition, nous avons voulu aller plus loin et intégrer directement la technologie LED à la cloison », souligne Olivier Brun, PDG d’Alsea.

REACH : les dernières news

Fiche d’information sur l’évaluation des substances

(15/04/2011)
L’ECHA a publié une fiche d’information sur l’évaluation des substances. L’objectif de cette évaluation est de préciser si l’utilisation d’une substance chimique présente un risque pour la santé humaine ou l’environnement. Cette fiche répond aux questions que vous vous posez :

  • Quelles sont les caractéristiques spécifiques de l’évaluation des substances ?
  • Quelle est la procédure d’évaluation d’une substance ?
  • Quelles substances seront évaluées ?
  • Comment l’ECHA établit-elle un plan d’action ?
  • Qu’inclut-elle dans les plans d’action ?
  • Que devez-vous faire si votre substance est incluse dans le plan d’action ?
  • Qu’advient-il après l’évaluation des substances ?
  • Retrouvez la réponse à ces questions dans le document :

http://www.echa.europa.eu/doc/reach/substance_evaluation_fact_sheet_20110414_en.pdf
Information sur l’évaluation : http://www.echa.europa.eu/reach/evaluation_en.asp

Classification et étiquetage harmonisés

L’ECHA a lancé le 25 mars une consultation pour l’harmonisation de la classification et l’étiquetage de cinq nouvelles substances :

  • le phosphure d’aluminium (aluminium phosphide) (N° CAS : 20859-73-8 et n° CE : 244-088-0),
  • le 10-éthyl-4,4-dioctyl-7-oxo-8-oxa-3,5-dithia-4-stannatétradecanoate de 2-éthylhexyle (Dioctyltin bis(2-ethylhexyl mercaptoacetate)) (N° CAS : 15571-58-1 et N° CE : 239-622-4),
  • le 1-éthylpyrrolidine-2-one (N-ethyl-2-pyrrolidone (NEP)) (N° CAS : 2687-91-4 et n° CE : 220-250-6),
  • le perestane (N° CAS : 847871-03-8 et N° CE : 432-790-1)
  • le diphosphure de trimagnésium (trimagnesium diphosphide) (N° CAS : 12057-74-8 et N° CE : 235-023-7).
  • Il ne reste que quelques jours pour faire part de vos commentaires (soumission avant le 9 mai 2011).

http://echa.europa.eu/consultations/harmonised_cl_en.asp

Trois nouveaux manuels sur la soumission de données

L’ECHA a publié en avril trois nouveaux manuels sur la soumission de données :

  • n°20 : Comment préparer et soumettre une notification de substances contenues dans les articles en utilisant IUCLID 5.
  • n°21 : Comment préparer et soumettre le rapport de l’utilisateur en aval en utilisant IUCLID 5
  • n° 22 : Comment préparer et soumettre une demande d’autorisation en utilisant IUCLID 5

Retrouvez l’intégralité de ces manuel sur : http://echa.europa.eu/reachit/dsm_en.asp

Programme de travail pluriannuel de l’ECHA (2012-2014)

L’ECHA met à disposition pour avis et commentaires son programme de travail pluriannuel pour la période 2012-2014. Les commentaires sont à soumettre pour le 15 mai. Le document est téléchargeable sur :
http://echa.europa.eu/doc/work_programme/2012_2014/FINAL_MB_07_2011_DRAFT_MAWP_2012_2014.pdf
Les commentaires sont à envoyer via ce lien :
http://echa.europa.eu/forms/form_wk_prog_2012_2014/form_wk_prog_2012_2014_en.asp

Une nouvelle page sur le site de l’ECHA

L’ECHA a créé une nouvelle page sur son site internet dédiée aux substances dans les articles : notification, communication d’information, guides …
Retrouvez toutes les informations sur http://echa.europa.eu/reach/sia_en.asp

Mise à jour de la base de données des substances enregistrées dans le cadre de REACH

(27/04/2011)
La base de données de l’ECHA contenant des informations sur les substances enregistrées a été mise à jour et contient 3764 enregistrements. Au 27 avril, 3242 substances phase-in sont répertoriées.
Retrouvez toutes les informations sur :
http://apps.echa.europa.eu/registered/registered-sub.aspx

Informations pour éviter les essais inutiles sur les animaux – 21 nouvelles substances concernées

(29/04/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • le carbonate de baryum (essais proposés avec du chlorure de barium N° CE 233-788-1) (N° CAS : 513-77-9 et N° EC : 208-167-3),
  • le sulfate de baryum (essais proposés avec du chlorure de baryum N° CE 233-788-1) (N° CAS : 7727-43-7 et N° EC : 231-784-4)
  • l’ hydroxyde de baryum (essais proposés avec du chlorure de baryum N° CE 233-788-1)  (N° CAS : 17194-00-2 et N° EC : 241-234-5)
  • le chlorure de baryum (N° CAS : 10361-37-2 et N° CE 233-788-1)
  • le peroxyde de dilauroyle (N° CAS : 105-74-8 et N° EC : 203-326-3)
  • le mequinol (N° CAS : 150-76-5 et N° EC : 205-769-8)
  • le disulfure de di(morpholine-4-yle) (N° CAS : 103-34-4 et N° EC : 203-103-0)
  • le 1,1-dioxyde de tétrahydrothiophène (N° CAS : 126-33-0 et N° EC : 204-783-1)
  • le butanone-2, peroxyde (N° CAS : 1338-23-4 et N° EC : 215-661-2)
  • le nitrate de 2-éthylhexyle (N° CAS 27247-96-7 et N° EC : 248-363-6)
  • le 4-tert-butylpyrocatéchol (N° CAS : 98-29-3 et N° EC : 202-653-9)
  • le triethoxy(2,4,4-triméthylpentyl)silane (N° CAS : 35435-21-3 et N° EC : 252-558-1)
  • le trioxyde de dibismuth (essais proposés avec le bismuth hydroxyde nitrate oxyde N° EC : 215-136-8) (N° CAS : 1304-76-3 et N° EC : 215-134-7)
  • l’hydroxyde de lithium (essais proposés avec le carbonate de lithium N° EC : 209-062-5) (N° CAS : 1310-65-2 et N° EC : 215-183-4)
  • le carbonate de lithium (N° CAS : 554-13-2 et N° EC : 209-062-5)
  • le trichlorure de n-butyletain (N° CAS : 1118-46-3 et N° EC : 214-263-6)
  • le imidazolidine-2-thione (N° CAS : 96-45-7 et N° EC : 202-506-9)
  • le N-[3-(diméthylamino)propyl]méthacrylamide (N° CAS : 5205-93-6 et N° EC : 226-002-3)
  • le N-phénylmaleimide (N° CAS : 941-69-5 et N° EC : 213-382-0)
  • le undécaoxyde d’hexabore et de dizinc (N° CAS : 12767-90-7 et N° EC : 235-804-2)
  • l’argent (N° CAS : 7440-22-4 et N° EC : 231-131-3)

Les informations sur ses substances sont à soumettre pour le 14 juin 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

L’électronique imprimée passe à la vitesse supérieure

L’électronique imprimée vient d’enregistrer un nouveau progrès avec le brevet américain n° 7 820 097 intitulé « Utilisations électriques du placage catalytique de compositions métalliques de nanomatériaux », délivré par l’Office américain des brevets et des marques déposées (U.S. Patent and Trademark Office) à la société texane NovaCentrix.

Ce brevet couvre en partie l’utilisation de lampes-éclair pour agglomérer par frittage les encres et les matériaux à base de métaux sur des substrats flexibles à faible température, comme le papier et le plastique (PET), et le processus de fabrication en continu et à haute vitesse.

Cette technologie est capitale pour le développement de nouvelles applications de l’électronique flexible et de grande surface, qui permettra d’intégrer des composants électroniques dans des produits courants afin de les rendre interactifs ou « intelligents ». L’électronique imprimée qui ne concurrence par l’électronique traditionnelle au silicium, concerne les capteurs, les substrats souples de haute technologie (textiles), les systèmes d’affichage flexibles, les étiquettes d’identification par radio fréquence (RFID), les batteries, les piles à combustible, le domaine du photovoltaïque, le conditionnement intelligent….

 « L’un des aspects les plus remarquables de cette technologie est le fait de pouvoir désormais utiliser des substrats flexibles peu chers et de disposer d’une vitesse de traitement pouvant atteindre 100 mètres par minute », explique Kurt Schroder, directeur scientifique et principal auteur de ce brevet. « Outre la possibilité de traiter l’argent, l’or et le nickel utilisés dans les encres conductrices, la grande vitesse de ce processus permet d’agglomérer par frittage des particules qui ont tendance à s’oxyder rapidement dans l’air ambiant, comme le cuivre, supprimant ainsi la nécessité de disposer d’un four à réduction ou d’une atmosphère inerte. Ce processus à température ambiante facilite la réalisation des pistes conductrices réellement peu onéreuses de l’électronique imprimée. »

« Notre brevet valide et soutient la position de NovaCentrix comme un innovateur majeur dans le domaine des technologies d’électronique imprimées commercialisées, notamment nos outils PulseForge qui appliquent un traitement photonique », explique Charles Munson, président-directeur général de NovaCentrix.

Les machines PulseForge utilisent en effet un procédé photonique pour chauffer des films de faible épaisseur sur des substrats à faible température, en utilisant une nouvelle technologie de lampes-flash et d’alimentation pour fournir des impulsions lumineuses à large spectre, ajustables en permanence, de plusieurs mégawatts pendant quelques microsecondes. Contrairement aux technologies traditionnelles qui font appel à des fours, la nature transitoire de ce procédé breveté chauffe les films fins à haute température sur des substrats à faible température, comme les polymères, sans entraîner de dommages. En ajustant les caractéristiques des impulsions lumineuses à l’aide d’une interface à écran tactile, les profils de température du film et du substrat peuvent être contrôlés de manière précise et optimisés en vue du séchage, du frittage, du recuit et de la modulation des réactions chimiques dans les films minces. Résultat, l’impression d’une application électronique pouvant dépasser 2 mètres de largeur dure moins d’une seconde alors qu’il faut plusieurs minutes, voire plusieurs heures, avec les systèmes traditionnels.

Le marché de l’électronique imprimée semble promis à un avenir brillant. Selon le cabinet de consultants IDTechEx,  il pourrait atteindre 300 milliards de dollars par an en 2025, soit pratiquement le double du marché actuel de l’industrie du silicium. Et, selon un nouveau rapport de Nanomarkets, le nombre de machines d’impression destinées à la fabrication de produits électroniques imprimés devrait atteindre un volume de 15 000 unités d’ici 2013.

On devrait également voir s’accroître le nombre de petites imprimantes pour la R&D dans les laboratoires industriels et les établissements d’enseignement, 70 % de ces machines étant des imprimantes jet d’encre. Quant à la surface consacrée aux impressions électroniques, elle devrait atteindre les 130 millions de mètres carrés dès 2013, une surface suffisante pour produire des imprimés électroniques pour une valeur de quelques 40 milliards de dollars. 

Modernisation et fiabilisation du réseau Osiris

Il y a 2 ans, les trois universités strasbourgeoises (Louis Pasteur, Robert Schumann et Marc Bloch) se sont regroupées en une université unique, l’Université de Strasbourg, qui accueille plus de 42 000 étudiants dans 120 bâtiments. Cette dernière et 13 autres établissements d’enseignement supérieur et de recherche strasbourgeois sont fédérés à travers le réseau métropolitain Osiris. Les équipements constituant l’infrastructure de ce réseau devenant obsolète il était donc nécessaire de les remplacer par de machines plus fiables et de plus performants. La Direction Informatique de l’Université de Strasbourg a lancé le projet Osiris 3 visant à doter les établissements de l’enseignement supérieur et de la recherche d’infrastructures réseaux et de services d’accès pour accompagner le développement des applications numériques et les usages. Ainsi, les deux principaux objectifs d’Osiris 3 sont le remplacement des équipements constituant le cœur du réseau pour en améliorer les performances et le déploiement d’une architecture permettant la redondance de l’arrivée réseau de la centaine de bâtiments raccordés. Depuis ce projet a intégré le schéma directeur numérique de l’Université.

Le réseau Osiris est une ressource critique et sensible utilisée pour les travaux de recherche (grilles de calculs…), les outils et supports pédagogiques (podcast et transmission vidéo des cours), le partage des connaissances et la téléphonie sur IP. Toutes ces applications doivent reposer sur une infrastructure fiable et performante pour garantir la qualité et la continuité de service comme en témoignent Jérôme Pansanel, administrateur de la grille de calcul de l’Institut pluridisciplinaire Hubert Curien, et Philippe Portelli directeur de la Direction des usages numériques (DUN) à l’Université de Strasbourg : « La grille de calcul de l’Institut pluridisciplinaire Hubert Curien est un gros calculateur (1 500 cœurs de calcul, 600 téraoctets de stockage) qui travaille avec le grand accélérateur de particules du CERN à Genève, le Grand Collisionneur de Hadron ou LHC, dont il traite une partie des données. »

Des usages qui consomment de plus en plus de bande passante

« Le démarrage du LHC au printemps 2010 a considérablement augmenté le trafic de données entre notre salle de machines et le reste du monde » précise Jérôme Pansanel. « Nous observons régulièrement des pics de transfert à 4 ou 5 gigabits par seconde. L’activité de la grille exige une excellente fiabilité du réseau : si les données nécessaires à un calcul sont inaccessibles à cause du réseau, le calcul échoue. À raison de 1 200 calculs sur 24 heures, on peut perdre ainsi 28 800 heures de calcul par jour… La répétition d’accidents de ce type pourrait mettre en danger la pérennité de notre site. Ce serait d’autant plus regrettable que le centre de calcul de l’Institut pluridisciplinaire Hubert Curien est l’un des seuls sites de grille français qui soit au niveau de ses homologues américains et le seul de ce type dans le nord-est de la France. »

« De plus en plus, nous nous dirigeons vers des usages qui consomment de la bande passante, notamment à cause de la multiplication des images, voire des images animées qui transitent sur le réseau. Sa puissance et sa fiabilité sont donc nécessaires au développement de nombreux outils : ainsi, la retransmission simultanée de cours dans des amphithéatres distants,  comme c’est le cas en première année d’études de santé,  n’est possible que via un excellent réseau. Tout comme le développement de la web-TV ». précise Philipe Portelli, directeur de la Direction des usages numériques (DUN) à l’Université de Strasbourg. « Au printemps prochain, la DUN et la Direction Informatique (DI) mettront en œuvre à titre de finalisation un nouveau système de communication instantanée audio et vidéo (de type « Skype »), pour un déploiement prévu pour toute l’université en septembre. Ceci n’aurait pas été envisageable sans un réseau puissant et fiable. »

La simplification de l’architecture a entraîné une réduction des coûts

Suite à un appel d’offre en juillet 2009 et à un mois de tests sur une maquette, NextiraOne a été choisi pour fournir les nouveaux équipements constituant l’architecture réseau définie par la Direction Informatique de l’Université ; la Direction Informatique se chargeant de configurer et déployer un MAN (Metropolitan Area Network) en 10 gb/s (MAN Osiris 3) pour raccorder les différents sites, et mettre en œuvre la distribution dans les 120 bâtiments. Par ailleurs, le contrat comprend l’assistance technique et un contrat de services opérationnels portant sur la gestion des incidents. Ce réseau universitaire a pour particularité d’être le premier « LAN & MAN full  Juniper » en France. Il s’appuie sur :

  • 2 routeurs Universal Edge MX480 3D,  plates-formes à haut niveau de redondance conçues pour l’agrégation d’accès dédié haute densité et les services fournisseur situés en périphérie dans les points de présence de taille moyenne à étendue ;
  • 15 commutateurs Ethernet modulaires EX8208, plates-formes modulaires flexibles assurant les densités de port, l’évolutivité et la haute disponibilité nécessaires aux environnements de centres de données et de campus actuels ;
  • à terme,  sur une centaine de stacks EX4200, des commutateurs Ethernet dotés de la technologie Virtual Chassis, qui associent la disponibilité et la fiabilité des systèmes modulaires à la flexibilité et à l’économie des commutateurs empilables pour offrir une solution évolutive hautes performances destinée aux centres de données et aux réseaux de campus.

La simplification de l’architecture a permis à l’Université de Strasbourg de réduire ses coûts d’exploitation et d’améliorer sensiblement les performances de son réseau. L’évolutivité est également un bénéfice majeur pour l’Université qui envisage, grâce aux nouvelles solutions déployées, d’intégrer de nouveaux usages (vidéo, poste de travail…). Par ailleurs, la convergence des outils de communication est une formidable opportunité aussi bien pour les enseignants que pour les étudiants en matière de partage du savoir et des connaissances. 

Nuages sur le cloud

La réputation du Cloud Computing en a pris un coup la semaine dernière, lorsque de nombreux clients des services d’Amazon Web Services n’ont pu accéder au Cloud EC2 géré par l’Américain durant quelques heures, samedi 23 avril, mettant de nombreux sites web hors-ligne, comme Reddit ou Foursquare. Amazon s’est défendu en rappelant que ce genre d’avaries pouvait arriver de temps en temps, comme n’importe quelle avarie matérielle, ici un problème de serveurs dans un de ses centres de traitement de données (les fameux data centers).

Le hic, c’est que cette avarie système aurait entrainé la perte définitive d’un nombre conséquent de données.

Cela a jeté un froid dans le domaine du Cloud Business car Amazon en est un des pionniers, rappellent certains analystes. « Lorsque ce genre de choses arrivent, c’est toute l’industrie du Cloud qui frémit » explique Rob Enderle, analyste de Enderle Group. Les entreprises méfiantes vis-à-vis du Cloud Computing risquent de rester frileuses à la suite de ce grave incident, préférant conserver leurs solutions systèmes plus traditionnelles.

Ce ratage est bien évidemment une vitrine négative pour ce type de services, mettant en lumière les risques de cet utilitaire. Selon Business Insider, qui avance pour preuve des correspondances mails qu’Amazon aurait entretenues avec de nombreux clients, les restaurations manuelles se seraient soldées par des échecs. Les experts estiment qu’il faudra entre cinq à dix ans pour redorer l’image du service, si les données ne parviennent pas à être récupérées.

Par Rahman Moonzur

 

DEJA PARU :

Cloud Computing : il ne faut plus considérer la sécurité comme une problématique à part

Le cloud computing, nouvel enjeu pour les hébergeurs

La lutte contre le réchauffement climatique commence au niveau des microprocesseurs

Un Cloud pour booster les smartphones

L’impact carbone de l’utilisation de gaz industriels

Démarche pionnière dans le petit monde des gaz industriels, Messer France, qui a publié son propre Bilan Carbone, s’efforce de réduire ses émissions en axant ses investissements sur l’optimisation des consommations électriques de ses unités de production et surtout, sur le choix des modes de transport de ses gaz industriels. La construction d’une unité de production d’azote au cœur des régions Bretagne et Pays de la Loire, bastion de l’industrie agroalimentaire française, ainsi que la mise en place d’un terminal ferroviaire CO2 à Bordeaux, ont été des éléments déterminants pour optimiser son Bilan Carbone.

Si le coût, la fiabilité, les avantages qualitatifs, la simplicité de mise en oeuvre et le service demeurent des arguments prépondérants pour orienter un industriel vers une solution utilisant des gaz industriels, l’impact carbone est un critère, de plus en plus pris en considération, que les ingénieurs application Messer ont intégré dans leur approche technico-économique en réalisant des études au cas par cas avec les données et pour le compte de leurs clients.

Surgélation cryogénique ou mécanique

Outre le calcul de son propre impact carbone, Messer s’est engagé dans une étude globale de l’impact carbone de ses applications utilisant des gaz industriels comparativement à d’autres alternatives. Les premières études ont porté sur la surgélation cryogénique à l’azote ou au CO2,, comparée à la surgélation mécanique. Les émissions carbone de la surgélation mécanique sont principalement liées aux fuites des fluides frigoporteurs halocarbonés (HFC et HCFC), servant à remplir les groupes frigorifiques. La puissance électrique consommée par les compresseurs de machines frigorifiques est un autre élément déterminant. En ce qui concerne le froid cryogénique, c’est la puissance électrique nécessaire à la production de l’azote ou du CO2 et le transport des fluides par camions citernes qui pèsent dans le Bilan Carbone.

En conclusion, dans la mesure où l’application de surgélation est située géographiquement à une distance raisonnable d’un site de production ou de stockage de fluide cryogénique azote ou CO2, le froid mécanique est, en moyenne, deux fois plus impactant que le froid cryogénique. Il est à noter que le transport tient une part significative dans les émissions carbone liées à la surgélation cryogénique. Messer France a l’avantage de disposer d’un réseau de production d’azote et CO2, dispersé sur tout le territoire, qui minimise les impacts liés au transport. Par ailleurs, chaque cas devant être étudié individuellement, les ingénieurs Messer ont développé des bases de calcul en tenant compte des recommandations de l’EIGA (Association européenne des sociétés de gaz industriels).

Neutralisation des effluents alcalins

Une autre application phare de Messer a fait l’objet d’études similaires : la neutralisation des effluents alcalins au CO2 en alternative à l’utilisation d’acides chimiques forts. Trois paramètres principaux influent sur le bilan carbone des deux alternatives : le transport du produit depuis son point de production jusqu’à son lieu d’utilisation, l’énergie nécessaire à sa production et l’énergie nécessaire à son pompage sur site.

Il ressort que les acides forts, particulièrement l’acide chlorhydrique, nécessitent des consommations électriques très importantes comparativement à la production de CO2, sous-produit de l’industrie chimique ou biologique, recyclé et valorisé. Bien entendu, étant recyclé et valorisé, le CO2 fourni par Messer n’est pas comptabilisé dans les bilans carbone des applications qui l’utilisent.

Aussi, même si elle nécessite un peu plus d’énergie sur site pour sa mise  en oeuvre, la neutralisation au CO2 présente un bilan carbone dix fois plus favorable mais, là aussi, des études au cas par cas sont nécessaires.

Maintien au froid des denrées périssables

En ce qui concerne le transport sous température dirigée des denrées périssables,  les ingénieurs applications de Messer France ont aussi pu démontrer que le bilan carbone des techniques de maintien en froid au moyen de la cryogénie (telles que Siber et Cryo2pack de Messer) est moins élevé que celui relatif aux autres techniques conventionnelles (groupes frigorifiques, plaques eutectiques…).

News Environnement / Sécurité / Energie d’avril

Toyota décide de miser sur la résonance

Toyota entame une collaboration avec WiTricity, le spécialiste de la recharge sans fil par résonance. Une technologie qui assure une meilleure portée mais qui reste à peaufiner en terme de rendement. Plusieurs constructeurs ont déjà témoigné leur intérêt pour la recharge sans fil des voitures électriques. Tous utilisent un système d’induction électromagnétique qui présente quelques inconvénients comme une faible portée et un nécessaire alignement de l’émetteur et du récepteur.

Afin de s’affranchir de ces limites, Toyota montre un intérêt pour une technologie plus récente, la recharge par résonance. Cette technologie qui fera son apparition très prochainement sur les téléphones mobiles permet par exemple d’alimenter une ampoule à deux mètre de distance.

Le constructeur japonais vient en effet d’annoncer une collaboration et une entrée au capital de la société WiTricity, spécialiste de cette technologie. Aucune application commerciale sur un modèle de série n’est évoqué. Pour cela, il faudra certainement améliorer le rendement de ce système qui reste inférieur à celui de la recharge par induction classique (90 %). En savoir plus : http://www.cartech.fr/

Logica primé pour sa solution Wind Energy Management System, dédiée à la gestion et au développement de l’énergie éolienne

A l’occasion des récompenses « 2011 Excellence in Renewable Energy » organisées par le réseau Renewable Energy World, en Floride, Logica, l’entreprise du service en business et technologie, annonce avoir reçu le prix de l’Innovation Technologique. Cet évènement vise à récompenser les initiatives innovantes en matière d’énergies renouvelables dans trois catégories : l’innovation technologique, l’innovation politique et l’innovation financière. Très impliqué sur le secteur des énergies renouvelables, Logica a été désigné par le jury comme le lauréat de la catégorie Innovation Technologique pour sa solution Wind Energy Management System (WEMS).

Dédiée à la gestion et au développement de l’énergie éolienne, la solution WEMS permet de centraliser et d’optimiser la gestion opérationnelle et la maintenance de parcs éoliens, quels que soient le type de turbine, le fournisseur du réseau électrique et le protocole de communication. WEMS permet de gérer les niveaux de puissance éolienne tout en respectant les normes énergétiques en vigueur. Le système intègre des fonctionnalités centralisées de contrôle à distance en temps réel, permettant aux opérateurs de démarrer et d’arrêter les turbines sur l’ensemble d’un parc.

Ce processus permet ainsi d’équilibrer la puissance électrique fournie, de prévenir les surproductions ou baisses de production, et de protéger le réseau d’éventuels risques de surcharge. La solution WEMS de Logica est notamment utilisée sur des parcs éoliens situés en France (Normandie), en Belgique, au Portugal, en Espagne, au Texas USA), en Roumanie et en Pologne.

Canadian Solar signe un contrat d’approvisionnement solaire de 97 MW avec la société Allemande GP Joule

Paris le 26 avril 2011- Canadian Solar Inc. (NASDAQ : CSIQ), l’une des plus grandes sociétés spécialisées dans le solaire à l’échelle mondiale, et GP Joule ont annoncé aujourd’hui avoir conclu un contrat d’approvisionnement en panneaux photovoltaïques de 97 MW. Selon les termes du contrat, Canadian Solar fournira avant le 31 décembre 2011 ses modules photovoltaïques de haute performance à GP Joule pour une production totale estimée de 97 MW. Canadian Solar et la société GP Joule collaborent depuis 2009.

GP Joule possède quatre bureaux dans le sud et le nord de l’Allemagne et est présent en Amérique du Nord et en France via plusieurs joint-ventures. Dans le secteur photovoltaïque, la société est spécialisée dans la mise en place de grandes installations solaires au sol.

« Avec Canadian Solar, nous savons que nous avons à nos côtés un partenaire compétent, capable de fournir des modules répondant à des standards de qualités et de performances élevés, et de mener à bien des projets de grande envergure », a déclaré Ove Petersen, Président-Directeur Général de GP Joule. «  Les modules Canadian Solar sont des modèles d’excellence dans de nombreux usages. Ils seront pour la plupart déployés en Allemagne mais aussi dans toute l’Europe. »

« L’Allemagne compte parmi les marchés les plus dynamiques et les plus attractifs pour l’industrie solaire, et a toujours été une référence » explique Shawn Qu, Président-Directeur Général de Canadian Solar. « Ce nouveau contrat permettra à Canadian Solar d’accroître sa visibilité et sa présence en Europe, puisque nous bénéficierons du soutien de GP Joule, un partenaire local de choix capable de gérer avec succès des projets à grande échelle ».

Zoom sur la Russie

La Russie crée un alliage augmentant la longévité des réacteurs

Les chercheurs russes ont créé un nouvel alliage prolongeant la vie des réacteurs nucléaires pour une durée pouvant aller jusqu’à 100 ans, a annoncé à Saint-Pétersbourg Alexeï Orychtchenko, directeur général de l’Institut Prometeï des matériaux de construction, impliqué dans la création de l’alliage en question. « Il y a quelques jours Rosatom (groupe nucléaire public russe) a décidé d’utiliser ce matériau dans la création de réacteurs pour une nouvelle centrale. Le bureau d’études Gidropress, qui fait partie du groupe nucléaire russe Atomenergoprom, a été chargé de modifier les dessins techniques pour ce réacteur », a déclaré M.Orychtchenko lors d’un duplex Moscou-Saint-Pétersbourg.

Le nouvel alliage a été obtenu lors d’une expérience réalisée à l’usine d’Ijora, a précisé le président de l’Institut Prometeï, Igor Gorynine. « Nous avons réussi à produire un grand lingot de 250 tonnes. Nous avons obtenu des résultats étonnants », a indiqué M.Gorynine. La Russie commencera à utiliser le nouveau matériau après la fin des travaux de construction de la centrale nucléaire de la Baltique dans la région de Kaliningrad. D’une puissance totale de 2.300 MW, les deux blocs de la centrale seront lancés respectivement en 2016 et 2018.

Prolonger la durée d’exploitation des réacteurs nucléaires est une mission stratégique qui permettra de réduire le coût de démantèlement des réacteurs vétustes, selon M.Gorynine. « A présent, démanteler un réacteur coûte autant que d’en construire un autre. Il faut donc prolonger leur longévité », a rappelé le président de l’Institut.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66490.htm

ITER : Moscou investira plus de 100 M EUR dans le projet

La Russie fournira du matériel pour un montant dépassant 100 millions d’euros au projet de Réacteur Thermonucléaire Expérimental International (ITER), en construction à Cadarache (France) a annoncé le service de presse de l’Agence russe de l’énergie atomique (Rosatom). « L’accord sur la livraison des systèmes de commutation est le plus cher de ceux qui ont été et seront signés par la Russie. La valeur du matériel fourni dépasse la somme de 100 millions d’euros. La construction de systèmes de commutation destinés à ITER sera terminée d’ici 2017 », a précisé le service de presse.

Le projet ITER, une collaboration scientifique internationale entre l’Union Européenne, la Suisse, la Chine, l’Inde, le Japon, la Corée du Sud, la Russie et les Etats-Unis, a pour objectif de construire et de faire fonctionner un réacteur expérimental de fusion nucléaire avant 2020. Ce projet est la première tentative de générer de l’électricité à grande échelle par une réaction de fusion semblable à celle qui se produit dans le Soleil (fusion de noyaux d’hydrogène) susceptible d’apporter à l’humanité une source d’énergie inépuisable.

L’accord sur la construction du premier réacteur à fusion thermonucléaire expérimental international (ITER) avait été signé en 2006 à Paris. Le chantier sera situé en France, plus précisément à Cadarache, dans le département des Bouches-du-Rhône. A la différence des réacteurs des centrales nucléaires classiques, qui utilisent le principe de la fission nucléaire, le réacteur international expérimental est fondé sur le principe de la synthèse thermonucléaire. Il est conçu sur la base du système TOKAMAK (en russe, caméra toroïdale à bobines magnétiques) conçu par les physiciens de l’Institut Kourtchatov à l’époque soviétique.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66489.htm

Centre franco-russe pour l’efficacité énergétique

Le mardi 5 avril s’est tenu le premier conseil stratégique du Centre franco-russe pour l’efficacité énergétique, en présence de ses deux coprésidents, le Directeur général de l’Agence Russe de l’Energie Timour Ivanov, et le Député de l’Assemblée Nationale française Jean-Jacques Guillet. Etaient également présents des représentants de dix ministères français et russes, de l’Agence française de l’Environnement et de la Maîtrise de l’Energie (ADEME), de l’Association des entreprises françaises pour l’efficacité énergétique en Russie, de l’Union Russe des Industriels et des Entrepreneurs (RSPP) et de grandes entreprises françaises actives dans le domaine de l’efficacité énergétique.

Durant ce conseil stratégique, le premier plan de travail a été validé, un budget a été voté et deux co-directeurs, Marina Lastovskaya et Menno Grouvel, ont été désignés. Les participants ont pu visiter les bureaux du Centre, situés au sein de l’Agence Russe de l’Energie.

Créé lors du XVème séminaire intergouvernemental franco-russe en décembre 2010, le Centre franco-russe pour l’efficacité énergétique est une organisation non commerciale de droit russe. Le Centre émettra des propositions concrètes pour améliorer les politiques publiques d’efficacité énergétique, soutiendra la création de programmes de formation conjoints, identifiera des projets pilotes et favorisera la formation de nouveaux partenariats industriels franco-russes dans ce domaine.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66488.htm

Par S.B

LES BILANS :

Bilan Environnement / Sécurité /Energie du mois de mars

Bilan Environnement / Sécurité /Energie du mois de février

Bilan Environnement / Sécurité /Energie du mois de janvier

Un système SCADA surveille 2 479 éoliennes

La toute dernière réalisation d’Iberdrola Renewables, le deuxième plus grand fournisseur d’énergie en Amérique du Nord, est son Centre de Contrôle National. Dans une pièce qui ressemble au Contrôle de Mission de la NASA, les analystes système surveillent chacune des 2 479 turbines éoliennes réparties dans 35 fermes éoliennes (3 600 MW) sur le territoire des États-Unis. Ils surveillent la performance et le rendement de chaque installation et gardent un oeil sur les orages à proximité pour avertir les techniciens d’un éventuel danger sur les sites.

Un élément essentiel de cette opération est le système SCADA (Supervisory Control And Data Acquisition). Chaque turbine éolienne dispose d’un boîtier de contrôle contenant un automate programmable, un convertisseur de puissance, des cartes de commande et une unité d’E/S. Des capteurs de vitesse et de direction du vent, de vitesse de rotation d’axe, et de nombreux autres paramètres, collectent quelques 300 à 350 données et les transmettent à l’automate programmable. En détectant la direction du vent, le système de contrôle est capable de commander le système d’orientation permettant d’aiguiller toute la turbine dans la direction optimum pour une production d’électricité maximum.

Toutes les turbines sont reliées à un réseau local, le boîtier de contrôle de chaque turbine étant relié par liaison Ethernet à la base de la tour, elle-même connectée au réseau local par une liaison en fibre optique redondante. Le réseau local est relié à une station de contrôle distante, qui gère et collecte les données, ajuste les paramètres des turbines, génère des alarmes intelligentes et permet des fonctions de dépannage et de reporting par l’intermédiaire du centre de contrôle et de traitement des données, situé à Portland (Oregon, États-Unis).

Le système SCADA PcVue d’ARC Informatique, qui sert de centre nerveux pour les fermes éoliennes, relie à la salle de contrôle centrale les différentes turbines, les sous-stations, les stations météorologiques, le radar de détection d’oiseaux et de chauves-souris, et d’autres systèmes de surveillance servant à préserver la faune. Il permet à l’opérateur de superviser le comportement de l’ensemble des fermes éoliennes. En enregistrant l’activité à intervalles de temps réguliers, PcVue permet à l’opérateur de déterminer quels ajustements sont nécessaires, ou quelles actions correctives doivent, le cas échéant, être prises.

Iberdrola Renewables exploite différents types de turbine, chaque fournisseur de turbine fournissant son propre système de commande et d’interface opérateur. Le principal avantage du système de PcVue est de n’être lié à aucun fournisseur de d’automate programmable, ce qui permet de l’utiliser avec n’importe quel type de turbine. Iberdrola Renewables utilise OPC, et aussi d’autres protocoles de communication, pour extraire les 700 000 à 850 000 données E/S des différents automates programmables. Il  s’appuie sur le client OPC d’accès aux données, et sur le client OPC DA XML de PcVue pour l’échange de données en temps réel avec les 24 serveurs de communications et le serveur OPC DA pour faciliter l’échange de données avec les applications de tierce partie. Toutes les données acquises sont  renvoyées vers le Centre de Contrôle National.

« PcVue fournit une vue utilisateur qui permet une visualisation facile et une gestion globale des innombrables systèmes en place, allant des automates programmables, aux interfaces homme-machine et aux systèmes de contrôle équipant les turbines », déclare Harm Toren, directeur des  services opérations éoliennes chez Iberdrola. « Étant donné que nous surveillons le trafic aérien, les migrations et la météo, en plus de contrôler et de gérer nos turbines, nous avons eu besoin d’un système qui fournisse une interface graphique simple et facile à lire, pour pouvoir réagir rapidement en cas de besoin. »

 

Hôpitaux, les parangons en matière de système d’information et de virtualisation ?

Voici quelques années que les centres hospitaliers de toute taille ont entamé une mue de leur système d’information dans le cadre des différents plans santé. La virtualisation, par exemple, y est devenue le quotidien de beaucoup d’équipes informatiques qui ont réussi, à la fois, à moderniser leurs structures, réduire leurs coûts et apporter une nouvelle qualité de service.
 
Au niveau des moyens financiers, sans être exceptionnel, le bilan est plutôt positif. Pour la période 2008-2010, IDC a évalué  à + 5,9 % la croissance de la dépense informatique des établissements de soins privés et à + 4,4 % celle des établissements publics, à comparer avec la baisse de – 1,3 % pour l’ensemble de la dépense informatique professionnelle. Les budgets sont d’autant plus présents pour initier leur structuration que, dans le cadre d’ « Hôpital 2012 », les dépenses concernant le système d’information sont jugées prioritaires.
 
L’informatisation des centres hospitaliers concerne tous les secteurs. Au-delà de la partie concernant le dossier patient, un sujet qui s’impose au sein de nos hôpitaux est celui de la virtualisation. Ainsi, les DSI ont eu à identifier des solutions pour le renouvellement de leur poste de travail qui leur permettait de prendre en compte les exigences du secteur, d’être compatible avec le budget et de pouvoir autoriser une gestion facile. Un exemple particulièrement intéressant est celui du service des urgences. Il n’est pas nécessaire d’insister sur les exigences en terme de disponibilité de l’infrastructure. Tout doit fonctionner en 24/7/365 avec un niveau de panne le plus faible possible.
 
La seconde exigence commune à d’autres métiers est la sécurité, d’autant plus difficile à appréhender qu’il s’agit d’un service où le personnel tourne régulièrement. Troisième exigence : la mobilité. L’utilisateur ne se voit pas attribuer un poste spécifique. Il doit se connecter sur chaque poste très rapidement (quelques secondes) et pas simplement pour ouvrir une session mais pour retrouver ses applications métiers, ce que n’autorise pas un mode classique basé sur un PC avec ouverture et fermeture de session. La réponse, aujourd’hui, la plus répandue dans le secteur hospitalier, est basée sur la virtualisation d’applications et de postes de travail.

 

Se connecter instantanément à ses dossiers depuis n’importe quel poste

Chaque utilisateur a son compte d’accès et dispose d’un badge d’authentification avec ou sans contact. Il se connecte à un client léger dont l’intérêt est triple : coût faible à l’achat, maintenance et durée de vie optimale, et consommation électrique très largement inférieure au PC classique. Ce poste de travail lui donne accès à une session propre où il retrouve son application métier. Cette dernière se trouve hébergée sur des serveurs sécurisés et redondants garantissant une disponibilité particulièrement élevée.
 
En cas de problème sur le client léger, il est changé sans avoir de configuration, d’installation à réaliser. Le même utilisateur pourra se connecter ainsi indifféremment à tous les postes avec, ce qui est « bluffant », quand on le voit pour la première fois, un temps de réponse quasi instantané. La session étant conservée en l’état sur un serveur, son affichage prend quelques secondes pour permettre un travail immédiat. Essentiel dans des contextes où il faut rapidement consigner, noter, renseigner des données sur un patient.
 
Connaissez vous beaucoup d’entreprises où les collaborateurs ont un badge sans contact qui les authentifie automatiquement lorsqu’ils s’approchent d’un poste de travail, leur permet de reprendre le travail en cours puis les déconnecte automatiquement pour mieux reprendre le travail toujours en cours sur un nouveau poste ? Le secteur hospitalier est aujourd’hui à la pointe des technologies dans le domaine de la virtualisation de postes de travail et d’applications et de tout ce qui gravite autour. 
 
Un des autres objectifs majeurs d’ « Hôpital 2012 » est la mutualisation des moyens autour du schéma régional d’organisation sanitaire, ce qui crée les conditions pour organiser des infrastructures de type data-centers au sein de centres régionaux. Le data-center que nous évoquions précédemment, peut se trouver au sein d’une structure partagée par plusieurs établissements. Les applications et postes de travail sont virtualisés de la même façon et proposés à la carte à l’établissement utilisateur, selon un principe Saas (Software As A Service). Cela fait de nos hôpitaux les pionniers du Cloud computing.
 
par Rémi Gamel, Directeur Commercial chez Systancia 

Gestion de contenu d’entreprise : nouveaux besoins et approches redessinent le marché

Fin 2008, Markess International a interrogé une centaine de décideurs au sein d’entreprises privées et d’administrations publiques afin de mettre en évidence leurs pratiques en matière de gestion de contenu d’entreprise, ou ECM ( Enterprise Content Management), et les apports du recours à des solutions adaptées. Deux ans plus tard, alors que la proportion d’informations non structurées ne cesse de croître, les décideurs indiquent avoir adapté leurs approches en matière de gestion de contenu d’entreprise.

En effet, l’essor de la dématérialisation mais aussi les interactions et les collaborations via Internet et le Web (échanges électroniques au sein d’écosystèmes, réseaux sociaux d’entreprise, conversations en ligne…) favorisent l’émergence de nouveaux enjeux et, par conséquent, de nouveaux besoins, dans le domaine de la gestion de contenu.

Quatre enjeux clés

Dans l’étude menée au second trimestre 2010, plus d’un décideur sur deux interrogés affirme que les enjeux auxquels doit faire face son organisation en matière de gestion des contenus électroniques non structurés s’articulent autour de 4 axes majeurs :

  • une recherche de contenus facilitée et accélérée, devant prendre en compte la multiplicité des formats de contenus dispersés au sein d’un grand nombre d’applications et le délai d’obtention d’information toujours plus court ;
  • une meilleure accessibilité aux contenus, d’une part en donnant un accès aux collaborateurs en situation de mobilité (commerciaux en clientèle, collaborateurs en télétravail, managers nomades…) et, d’autre part, en fonction de droits d’accès, en ouvrant le contenu à d’autres acteurs de l’écosystème (fournisseurs, clients, partenaires externes…) ;
  • le développement et l’amélioration de la collaboration autour de contenus dans un contexte où les modes de travail collaboratifs et les outils qui les supportent sont de plus en plus présents dans les entreprises. La gestion collaborative des contenus doit notamment permettre le partage des connaissances ;
  • la conservation dans le temps des contenus, avec la nécessaire mise en place d’une politique d’archivage électronique, à valeur probatoire ou non, selon le type de contenus à conserver.

Des approches de gestion de contenu à optimiser

Pourtant, les pratiques des entreprises en matière de gestion de contenu semblent encore loin de répondre à ces enjeux. Plus des trois quarts des décideurs interviewés estiment que les enjeux majeurs ne sont que partiellement couverts par les solutions de gestion de contenu actuellement déployées. La faute ne revient pas tant aux outils logiciels eux-mêmes qu’aux approches organisationnelles, ainsi que le laissent entendre les points sensibles identifiés : remise en question des processus organisationnels existants, implication insuffisante des utilisateurs, sous-évaluation des conséquences de tels projets sur les méthodes de travail, organisation structurée en silos…

Deux éléments-clés ressortent ainsi du succès des projets de gestion de contenu : l’aspect humain et le contexte métier du projet, sans lequel la gestion de contenu n’a pas de sens. Preuve en est la très forte implication des directions métiers dans ces projets, aux côtés de la direction informatique et de la direction générale.

Aussi, de nombreux projets de gestion de contenu sont en cours de déploiement ou en réflexion à plus ou moins longue échéance dans les entreprises et administrations publiques afin de passer d’une simple gestion documentaire à une gestion plus globale des contenus intégrant les composants précédemment évoquées.

D’une gestion documentaire à une gestion étendue de l’information

Les attentes exprimées par les décideurs permettent d’identifier certains axes vers lesquels la gestion de contenu devrait idéalement évoluer :

  • une gestion de contenus à l’image de la transversalité des processus métiers auxquels ils sont associés : le fonctionnement en silo des solutions de gestion de contenus fréquemment dédiées à un métier de l’entreprise ne correspond plus à la réalité des besoins et des modes de fonctionnement des entreprises. Les contenus sont de moins en moins restreints au sein d’un métier, mais sont associés à des processus impliquant des collaborateurs au sein de plusieurs directions ou départements, voire de personnes externes à l’entreprise, contribuant également à la vie des contenus ;
  • une gestion complète des contenus, depuis leur création jusqu’à leur conservation, évitant ainsi toute rupture dans le cycle de vie des contenus et les inconvénients associés ;
  • une gestion plus globale des contenus, prenant en compte tant les contenus non structurés que ceux gérés par les ERPs, outils décisionnels, bases de données et autres systèmes de contenus structurés, plus propice à la recherche, à l’accès aux contenus, et à leur enrichissement.

Un socle applicatif se dessine autour d’une architecture étendue de gestion de l’information, qui pourrait être constituée d’une plate-forme unique mais reposerait plus vraisemblablement sur des solutions de gestion de contenu spécifiques (telles que des solutions de gestion de contenu Web ou WCM, de gestion des connaissances KM ou Knowledge Management, de GED…) interopérant les unes avec les autres grâce aux récentes avancées en termes de normes et de standards. À ce socle, seraient bien entendu associées des fonctionnalités collaboratives, de recherche avancée, de traçabilité, de workflow et gestion des processus métiers.

Ces besoins, tant en solutions logicielles qu’en prestations de services (notamment en conseil amont, technique, AMOA et intégration) devraient contribuer à la croissance d’un marché estimé par Markess International à plus de 700 millions d’euros en 2010 en France et sur lequel opère un grand nombre d’acteurs avec des offres en pleine adaptation en réponse aux nouveaux enjeux.
 

Les news Informatique / Electronique / Télécoms d’avril

Scanbucks réinvente la fidélisation

C’est l’histoire de deux jeunes Geeks et globe-trotters, qui se sont inspirés à travers leurs voyages de différents modèles économiques sur Smartphones, et plus particulièrement de modèles d’ores et déjà éprouvés outre-Atlantique. Véritables pionniers, Eliott Reilhac & Pierre Maréchal se lancent dans l’aventure en septembre 2009 en fondant la société Distribeo, dès leurs diplômes obtenus. Ils créent ainsi la première solution d’aide à l’achat de vins sur mobile (présentation, prix, conseils) accessible dans les magasins Franprix et Casinos.

Fort de ce premier succès et partant du constat que faire ses courses en grande surface est plutôt laborieux, ils décident de lancer un service mobile intitulé Scanbucks, qui ne connait aucun équivalent en Europe.

Cette nouvelle applications mobile téléchargeable gratuitement sur l’App Store d’Apple via un iPhone 3Gs ou 4G et bientôt sur l’ensemble des Smartphones Androïd, offre aux consommateurs la possibilité de cumuler des points, appelés scanbucks, et de les convertir à leur guise, en cadeaux ou en dotations caritatives. Critères importants : la cumulation de points se fait sans aucune obligation d’achat des produits partenaires et fonctionne sans inscription.

Après avoir téléchargé l’application, les consommateurs sont géo-localisés et scannent le code-barres des produits référencés sur le « tableau de chasse » du supermarché via leur Smartphone. Scanner les produits leurs permettent de cumuler des points dans plus de 10 000 points de vente en France et d’avoir accès à des jeux bonus. En terme de valeur, un parcours de course représente aujourd’hui 23 scans et 177 scanbucks, ce qui correspond par exemple à une chanson téléchargeable gratuitement sur Amazon.

Depuis son lancement début mars 2011, l’application Scanbucks suscite un véritable engouement auprès des consommateurs et compte aujourd’hui 85 000 téléchargements et 200 000 scans réalisés en France.

Avec Scanbucks, les grandes surfaces deviennent des terrains de jeux où le consommateur est invité à participer à une véritable chasse aux trésors. L’idée première de cette innovation  est de dépoussiérer les habitudes de consommation et d’imaginer une application mobile rendant les courses dans les grandes surfaces amusantes et attractives. Au-delà de l’émergence d’une nouvelle tendance de consommation, l’application vise à fidéliser, à faire découvrir de nouveaux produits, à accroître la visibilité d’une marque et finalement à augmenter les ventes mais toujours de manière ludique.

D+S GmbH choisit Atos Origin pour l’infogérance de ses systèmes informatiques

D+S communication center management GmbH (D+S CCM), fournisseur majeur de solutions pour la gestion des contacts client, a décidé de nouer un partenariat d’infogérance informatique avec Atos Origin. Selon les termes de cet accord d’une durée de 10 ans, 50 personnes seront transférées de D+S solutions GmbH vers la société internationale de services informatiques Atos Origin.
 
Le périmètre couvert par cet accord d’infogérance comprend les opérations des data centers et des infrastructures, ainsi que les services réseau et  bureautique. Atos Origin sera également responsable de la gestion des applications. « En confiant l’infogérance de la totalité de nos services informatiques à Atos Origin, nous poursuivons trois objectifs, » a commenté Mario Bethune-Steck, PDG de D+S ccm. « Nous souhaitons anticiper et préparer nos services informatiques pour le futur, tout en augmentant nos performances et notre flexibilité. Dans le même temps, nous devons nous assurer que nous répondons aux exigences rigoureuses de conformité au sein de notre secteur. » En externalisant l’intégralité de ses opérations informatiques, D+S fait preuve d’innovation dans le secteur des centres d’appel.
 
Atos Origin et D+S ont conclu cet accord d’infogérance après seulement quatre mois de négociations. « Le secteur des communications est un secteur en rapide évolution. Au cours de la phase de négociation, nous souhaitions montrer notre capacité à être un prestataire de services flexible, rapide et fiable pour D+S dans la durée. » a commenté Winfried Holz, PDG d’Atos Origin Allemagne & CEMA. « Nous pouvons également fournir l’expérience requise en matière de gestion de la conformité. »
 
À propos de D+S GmbH
D+S communication center management GmbH est un fournisseur majeur de services de centres de communication en Allemagne et gère des centres de services, en se concentrant d’un point de vue technologique sur le dialogue client multicanal et l’exécution des processus de bout en bout. Plus de 4.500 conseillers clientèle spécifiquement qualifiés mènent un dialogue multimédia avec plusieurs millions de clients privés pour le compte de grandes sociétés de télécommunications, de fournisseurs de services Internet, de services publics et de services financiers. D+S communication center management GmbH (D+S CCM) est une filiale 100 % de D+S europe AG, le plus grand fournisseur allemand de solutions pour le commerce électronique de bout en bout et de gestion des contacts client.

Creaform lance son nouveau module logiciel de mesure dynamique VXtrack dans le cadre de CONTROL 2011 

Creaform, chef de file en technologies de mesure optique portables 3D et en services d’ingénierie 3D, lance son module logiciel de mesure dynamique VXtrack dans le cadre de la 25e édition du salon commercial sur l’assurance qualité CONTROL, qui se tient en ce moment à Stuttgart, en Allemagne jusqu’au 6 mai (hall 5, stand 5108).

Lorsqu’on associe le module VXtrack au capteur optique à double caméra C-Track, il est possible de mesurer des positions et des orientations dans l’espace en simultané, en continu et avec grande précision. Combiné à la machine de mesure des coordonnées portable sans bras HandyPROBE, il s’agit d’une solution de mesure 3D portable complète qui sert aussi bien à l’inspection de pièces par palpage qu’à la mesure dynamique.

Ses applications sont nombreuses et incluent l’étalonnage et le guidage de robot, le suivi de processus d’assemblage complexes, la compensation en temps réel d’erreurs de machines d’usinage et le suivi de déformations pendant des phases de test. VXtrack s’avère utile dans diverses industries, dont l’aérospatiale, l’automobile, la robotique, la biomécanique et les essais non destructifs.

La technologie TRUaccuracy garantit la meilleure précision du laboratoire à l’usine et la mesure simultanée d’un ensemble des réflecteurs permet une meilleure précision des 6 degrés de liberté.

VXtrack offre une cadence de mesure allant jusqu’à 24 000 points 3D/seconde avec suréchantillonnage, un volume de mesure extensible, l’affichage des courbes en temps réel, un API pour interfaçage avec des applications tierces ainsi qu’une fonction de synchronisation de l’acquisition par un signal externe de déclenchement

Zoom sur le Japon

Un robot travaillant en milieu radioactif

L’IRS (Institut International des Systèmes de Secours), une organisation à but non-lucratif basée au Japon et rassemblant des universités et des entreprises, a dévoilé le 6 avril un nouveau robot pilotable à distance capable de réaliser des tâches dans des milieux à hautes radiations.

Ce robot nommé Quince, développé pendant 5 ans grâce à un projet de recherche lancé par le METI (Ministère de l’Industrie) en 2006, n’était à la base qu’un robot de recherche devant se déplacer dans les bâtiments s’étant effondrés à la suite d’un tremblement de terre. Cependant, la situation à la centrale de Fukushima 1 a amené l’équipe de développement du robot à modifier celui-ci pour le rendre résistants aux radiations. Pour cela, des experts en énergie nucléaire et en exploration spatiale ont donné leurs conseils.

Le robot est capable de mesurer des niveaux de radiations, de prendre des vidéos ainsi que d’effectuer des petits travaux simples à l’aide d’un bras. L’opérateur du robot peut contrôler la machine grâce aux images prises par l’intermédiaire d’une caméra montée sur celui-ci. L’utilisation de ce robot est très simple, une personne novice pouvant apprendre à s’en servir en seulement quelques jours, selon les développeurs. L’opérateur doit se trouver à une distance maximale de 2 km du robot pour pouvoir le manipuler.

23 robots de ce type seront mis à disposition par l’institut pour effectuer des travaux à la centrale de Fukushima 1, s’ajoutant aux robots envoyés par les Etats-Unis et la France pour assister aux opérations sur les zones trop fortement radioactives pour l’organisme.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66460.htm

 Un nouveau dispositif électronique de prévention des catastrophes à venir en 2013

Le Ministère Japonais des Communications a annoncé vouloir lancer à l’automne 2013 un nouveau système permettant de prévenir, via des téléphones portables ou des systèmes de navigation automobile, les habitants de l’arrivée imminente d’une catastrophe.

D’après des estimations, seul un faible pourcentage de résidents des zones ayant reçu un ordre d’évacuation lors du séisme du 11 mars 2011 a réussi à se réfugier dans un endroit sûr. Le ministère a donc décidé que ce type d’information sur une catastrophe imminente devait atteindre les populations beaucoup plus rapidement. Pour cela, tous les moyens de communications disponibles doivent être utilisés, et non plus les seules télévisions et radios comme c’est le cas actuellement.

Les informations seront envoyées grâce à un nouveau service utilisant une fréquence radio libérée lors du passage complet de la télévision analogique à la télévision numérique, prévu pour juillet 2011. Ce nouveau service permettra d’envoyer des messages textes, des photographies ainsi que des messages vocaux. Leur réception sera assurée par des puces dédiées incluses dans les téléphones portables, les systèmes de navigation automobile ou encore les cadres photo numériques. Dans tous les cas, la priorité sera donnée aux informations sur d’éventuelles catastrophes.

Pour s’occuper de ce nouveau service, une entreprise sera probablement créée. La direction sera prise par un conglomérat d’entités et d’entreprises telles que la NHK ou Tokyo FM Broadcasting Company.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66459.htm

 

Une technique de traçabilité d’un fruit ou d’un légume par une simple photo

http://www.bulletins-electroniques.com/actualites/66298.htm
NEC Corporation a développé une nouvelle technologie permettant, en utilisant les particularités de la surface d’un fruit ou d’un légume, de l’identifier parmi d’autres (de la même variété) et de le tracer.

Pour cette nouvelle technologie, NEC a utilisé deux fonctions déjà développées par ailleurs : celle de lecture des empreintes digitales et celle de reconnaissance faciale. Elles sont reprises à deux fins distinctes : la première permet d’extraire les caractéristiques d’un objet et de les comparer au contenu d’une base de données. La seconde est capable de faire abstraction de l’orientation de l’objet pour l’identifier (il est possible de corriger une inclinaison d’environ 20 degrés).

La reconnaissance d’un fruit ou d’un légume se fait selon un schéma précis. Tout d’abord, l’utilisateur prend une photo de l’élément à identifier. Les caractéristiques de celui-ci (points, angles, lignes, motifs…) sont extraites et enregistrées en tant que données. Puis intervient la phase d’identification elle-même : lorsqu’une seconde photo de cet objet est prise, l’orientation est ajustée et les mêmes caractéristiques sont extraites. Celles-ci sont ensuite comparées avec celles obtenues lors du premier passage, et si elles sont jugées ressemblantes, les objets sont dits identiques.

Actuellement, les fruits et légumes sont identifiés grâce à l’utilisation de puces RFID ou de code-barres, mais ces méthodes ne relevant que d’une simple apposition au produit, il existe une possibilité d’erreur voire de tromperie. L’utilisation d’une méthode d’identification basée sur des informations purement biologiques rend la falsification nettement plus difficile, et si coûteuse qu’elle n’en vaut pas le coup, selon NEC. De plus, un téléphone portable ou un appareil photo suffit à prendre une photo, rendant alors le coût de l’identification bien plus faible que dans le cas de l’utilisation de lecteurs de codes-barres par exemple.

NEC a testé cette technologie avec 1 800 melons (les melons ayant des motifs clairs et larges et leur aspect ne changeant que peu, même après leur transport). Les expériences indiquent que la possibilité d’avoir un melon avec des caractéristiques identiques à un autre melon est de 0,0001% et que celle de se tromper lors de l’identification d’un melon n’est que de 0,4 %.

NEC compte désormais effectuer des tests avec d’autres fruits et légumes ainsi qu’avec d’autres produits de l’élevage et de la pêche. La société envisage par ailleurs de créer un service de traçabilité qui stockerait dans le nuage des images prises lors de la production de fruits et légumes et permettrait aux consommateurs de vérifier directement en magasin la provenance de leur achat. La commercialisation du système est prévue dans quelques années.

En savoir plus : http://www.bulletins-electroniques.com/actualites/66298.htm

Par S.B

 

LES BILANS

Bilan Informatique / Electronique / Télécoms de mars

Bilan Informatique / Electronique / Télécoms de février

Bilan Informatique / Electronique / Télécoms de janvier

L’indispensable intégration organisationnelle du test dans l’entreprise

 « Nous avons créé un système de test de MEMS qui réduit les coûts d’équipement d’un facteur 11, l’encombrement d’un facteur 15, le poids d’un facteur 66 et la consommation électrique d’un facteur 16. Ce même système est également utilisé dans d’autres phases que la production, notamment pour la conception, la caractérisation et la métrologie. Cela nous permet de réduire notre temps de mise sur le marché et d’améliorer la qualité de nos produits », déclare Woody Beckford, Division Fellow, Analog Devices Inc. dans le rapport « Perspectives du test automatique » que National Instruments vient de publier. Cette démarche n’est pas la plus courante. Trop souvent,  les tests sont améliorés indépendamment en phase de conception ou en production, en traçant une frontière entre ces groupes. Si de petites équipes de test composées de deux ou trois ingénieurs peuvent être bien intégrées en raison de leur petite taille, les départements de test de plus grande envergure vont essentiellement s’en tenir à la stratégie consistant à améliorer les équipes séparément.

Dans le passé, les équipes de validation, processus qui consiste à tester un produit au cours de sa conception afin de garantir sa conformité aux spécifications, et de test en production, avaient peu d’opportunités de travailler ensemble. Cependant, les responsables de test qui cherchent à réduire les temps de mise sur le marché, ainsi que les coûts de test, constatent qu’améliorer les équipes de manière indépendante s’avère peu rentable.

Des changements d’ordres organisationnel et technique

Deux grands changements ont incité les entreprises à améliorer l’intégration des équipes de test au sein de leurs organisations. Ce changement d’attitude est illustré par le résultat d’une enquête récente qui a révélé que le principal objectif de 45 % des responsables de test était, pour les une ou deux années à venir, d’accroître la réutilisation entre la validation et la production.

Le premier changement est organisationnel. La distinction entre les équipes de validation et de test en production s’estompe. Pour respecter les plannings de plus en plus serrés, les équipes de test en production sont contraintes de se joindre au processus de développement des produits. De même, les équipes de validation passent de plus en plus de temps à mettre au point les conceptions avec les systèmes de test en production sur le site de fabrication même. En formalisant les relations ad hoc entre les deux équipes, les entreprises réduisent le temps de mise sur le marché en accélérant le développement des tests et en améliorant la qualité.

Le second changement est d’ordre technique. Les outils de validation et de test en production étaient jusqu’alors fort différents. Cependant, le recours accru à l’automatisation au sein des deux groupes a prouvé qu’ils pouvaient partager des logiciels et des instruments communs. Les entreprises peuvent réduire les coûts en utilisant des plates-formes communes aux deux groupes, réduisant ainsi le nombre de pièces de rechange nécessaires pour les instruments, renforçant leurs formations et tirant parti des achats en volume.

Bien que de nombreuses équipes cherchent à intégrer la validation et le test en production, rares sont celles qui savent par où commencer. Les entreprises les plus performantes ont découvert qu’il n’existe pas de solution miracle pour assurer le succès de l’intégration. Améliorer l’intégration de ces deux phases nécessite une stratégie prenant en compte les facteurs humains, les processus et la technologie.

Le soutien de la directeur générale, un facteur de succès

L’une des principales causes d’échec lors de l’intégration de la validation et du test en production est l’absence de soutien de la direction générale. Ce fait est illustré dans des rapports sur l’implémentation de logiciels d’entreprise, qui étudient un changement d’organisation d’une ampleur similaire à l’intégration organisationnelle du test. Ces publications concluent que le soutien de la direction est l’un des trois facteurs de succès les plus critiques dans de nombreux cas. Le meilleur moyen d’obtenir le soutien de la direction consiste à rattacher le projet d’intégration organisationnelle du test à un objectif de l’entreprise. Démontrer comment le projet d’intégration peut aider à atteindre l’un de ces objectifs permet de garantir le soutien de la direction. Celui-ci simplifie ensuite les ressources et le capital politique nécessaires à la concrétisation du projet.

Une fois le soutien de la direction assuré, les responsables de test peuvent s’atteler à l’amélioration des processus qui jusqu’alors consistaient à « balancer par dessus le mur » les produits, entre la conception et le test. Comprendre et influencer le processus d’introduction de nouveaux produits est l’une des stratégies les plus efficaces pour améliorer l’intégration de la validation et du test en production. Il est crucial pour les ingénieurs, en phase de validation comme en production, de comprendre qui prend ces décisions et quand. Une fois la chronologie et les parties prenantes bien identifiées, les ingénieurs doivent prendre part aux discussions lors de la prise des décisions majeures.

Par le passé, les équipes avaient peu d’occasions de réutiliser la technologie du fait des différences entre l’instrumentation utilisée en validation et dans le test en production. Toutefois, l’utilisation croissante de l’automatisation dans la validation a montré aux équipes de conception que l’instrumentation et les logiciels utilisés, autrefois majoritairement en production, sont susceptibles de satisfaire les exigences de la validation. La réutilisation de la technologie, par le biais d’outils communs à différents groupes, peut réduire les coûts des équipements, de développement et de mise au point, mais le processus peut s’avérer ambitieux.

Construire des relations entre les équipes de validation et de test en production

Il est préférable de décider d’une plate-forme de test commune aux phases de validation et de production en plusieurs étapes. Bien que concevoir un système de test standard monolithique puisse sembler judicieux à première vue, cela peut finalement s’avérer onéreux, difficile à mettre en œuvre, et manquer de souplesse. Une tendance courante consiste à utiliser une architecture commune qui standardise autour des couches architecturales (comme le séquenceur de tests, l’environnement de développement d’applications ou l’instrumentation). Ce qui présente plus d’intérêt.

Enfin, il est important de se souvenir que l’intégration de la validation et du test en production comporte un facteur humain décisif qu’il faut prendre en compte. Même si les ingénieurs se perçoivent comme des personnes fondamentalement rationnelles, leur jugement dépend souvent de la confiance octroyée à un individu lorsqu’ils doivent réutiliser des outils, notamment des logiciels, provenant d’autres ingénieurs. Mark Keith, test software chief engineer chez Honeywell, formule clairement ce problème quand il dit : « les ingénieurs n’utilisent pas du code développé par des personnes auxquelles ils ne font pas confiance. » C’est pourquoi il est indispensable de construire des relations personnelles entre les équipes de validation et de test en production pour favoriser leur intégration.

Les entreprises les plus performantes ont amélioré les relations entre leurs équipes de validation et de test en production différemment en fonction du degré de changement auquel chacune d’elles pouvait aspirer. Si les équipes de validation et de test en production rendent compte au directeur qui met en œuvre le changement, une tendance consiste à intégrer le test en production aux groupes de conception et de validation. Un changement aussi radical échappe au contrôle des responsables dans d’autres types d’organisations. Des changements de moindre importance, comme instaurer un programme de rotation, se sont également révélés efficaces.

Tout comme n’importe quel autre problème complexe, l’amélioration de l’intégration organisationnelle du test nécessite une compréhension des changements nécessaires au niveau humain, ainsi qu’au niveau des processus et des technologies. Il est rare qu’une entreprise n’ait pas à consacrer d’efforts à l’un ou l’autre de ces domaines. Toutefois, la plupart des entreprises ont besoin de s’améliorer dans certains domaines plus que dans d’autres. En fin de compte conclut National Instruments, il est crucial pour la réussite du projet d’avoir une vue d’ensemble de l’intégration organisationnelle du test.