Topnet gère à distance les terminaux ADSL de ses clients

Avec ses 200 000 abonnées ADSL, Topnet qui est le premier fournisseur tunisien de services Internet  (48% de part de marché), souhaitait gérer le déploiement de ses services et améliorer le support à ses clients pour la configuration de leurs réseaux domestiques, en plein développement. « Nous avons évalué différentes solutions logicielles proposées sur le marché. Les solutions client et serveur proposées par Sagemcom étaient celles qui répondaient le mieux à nos besoins d’automatisation, de maintenance et de support de nos terminaux. Elles constituent également un outil puissant grâce auquel nos clients pourront mieux comprendre et autogérer leur réseau domestique » explique Mehdi Khemiri, PDG de Topnet.

La solution logicielle clé en main de Sagemcom comprend le outil client Sagemcom NetGuru, et la plateforme de gestion à distance des terminaux, Sagemcom Subscriber Manager.
Sagemcom NetGuru permet à l’utilisateur de gérer seul son réseau domestique réduisant ainsi le nombre de demandes d’aide transmises au support technique, ainsi que le taux de désabonnement. Topnet disposera ainsi des moyens nécessaires pour proposer un service haut débit beaucoup plus confortable aux abonnés: simplification de la configuration, de la gestion et du dépannage des réseaux domestiques, améliorant significativement le niveau de satisfaction des utilisateurs.

Serveur d’auto-configuration (ACS) TR-069 ou « CPE WAN Management Protocol », normalisé et évolutif, Sagemcom Subscriber Manager garantit une forte disponibilité et redondance du système. Avec cette solution, Topnet pourra gérer à distance aussi bien les terminaux existants que les nouveaux terminaux qui seront déployés. Cela garantira un déploiement en douceur sans avoir à intervenir sur le terrain. Chaque terminal sera mis à jour avec les firmwares les plus récents et pourra recevoir facilement toutes les modifications de configuration. Sagemcom Subscriber Manager pourra aussi diagnostiquer à distance les problèmes concernant les terminaux et le réseau domestique des clients. Il possède une interface « North Bound » dont Topnet pourra tirer profit en intégrant son système CRM (customer relationship management ou gestion de la relation client)  actuel et permettre à son service support d’adopter rapidement ce nouveau système de gestion en vue de servir plus efficacement une clientèle toujours plus nombreuse. 

 « Nos solutions logicielles permettent de résoudre les problèmes de déploiement du haut débit sur le terrain, contribuent à réduire le taux de désabonnement des clients et améliorent les conditions d’utilisation du réseau des utilisateurs à domicile », indique de son côté Ahmed Selmani, Directeur général de la filiale Terminaux haut débit de Sagemcom.
 

Une entreprise catalane développe un moteur d’avion plus sûr et plus écologique

Ce moteur innovant baptisé Feenox remplit les nouvelles exigences environnementales qui entreront en vigueur en 2020. Parmi ses caractéristiques innovantes et particulièrement intéressantes, on peut noter :

  • la réduction jusqu’à 80% des émissions de Nox ( Nox est un terme générique désignant un groupe de gaz très réactifs qui contiennent de l’azote et de l’oxygène en proportion diverses. La principale source de ces gaz contaminants et à effet de serre est la combustion) en comparaison des moteurs actuels ;
  • la réduction de 30% de la consommation de combustible ;
  • la réduction de 50% du bruit perçu ;
  • Et surtout, une nouvelle technologie qui évite que l’air nécessaire à la propulsion de l’avion, passe par les compresseurs, la chambre de combustion et les turbines, comme c’est le cas actuellement. D’où l’abolition du risque qu’un élément volatil, qu’il est la taille d’une cendre ou d’un oiseau, puisse endommager les moteurs.

Suite à cinq années de recherche et développement, Aero Engineering prépare la construction d’un prototype du moteur Feenox, en coopération avec des entreprise aéronautiques du Pays Basque ainsi que du secteur automobile de Catalogne.

Le moteur Feenox a été présenté récemment à l’Exposition Universelle de Shanghai et l’entreprise a déjà ouvert son carnet de commande. Aero Engineering prévoit la réalisation des premiers essais en vol pour 2013 et un début de commercialisation pour 2016.

Sources :

http://redirectix.bulletins-electroniques.com/7YvJa
http://redirectix.bulletins-electroniques.com/LLmnO
http://www.tiramillas.net/2010/04/26/tecnologia/1272293503.html

Chez Volkswagen, le plasma froid simplifie le collage

Dans le cadre de la fabrication de la Golf, Volkswagen a développé un joint de porte adhésivé pour éviter les bruits du vent que ne pouvait annuler le joint de gouttière monté sur le pavillon. Il s’agit d’une bande de caoutchouc EPDM (éthylène-propylène-diène monomère) collée sur le bord de la porte qui doit être fixée aux extrémités par des points de colle MS polymère car les forces aérodynamiques risquaient de décoller le joint.

Pour préparer les zones où le caoutchouc doit être collé, Volkswagen ne voulait plus employer de primaire appliqué manuellement sur les lignes de production. Pour éviter ces opérations, l’entreprise a décidé de  faire appel à la technologie intégrée de traitement de surfaces par plasma à pression atmosphérique Plasma Openair de Plasmatreat.

Avec ce procédé écologique qui ne nécessite que de l’électricité et de l’air comprimé et ne rejette pas de composés polluants organiques volatiles, un gaz ionisé à forte énergie est projeté sur la matière qui va modifier le support pour le rendre favorable à l’adhésion par deux propriétés spécifiques : la mouillabilité et l’adhérence.

Une augmentation de la mouillabilité sur plastiques

La première fonction du plasma est d’augmenter fortement l’énergie de surface, par un effet de nettoyage des composés organiques et d’activation de surface. Les liaisons chimiques créées sur le matériau doivent correspondre à celles que requiert le produit à appliquer. Sa deuxième fonction est de créer les groupes réactifs que requiert la chimie du produit à faire adhérer.

En plus de l’augmentation de la mouillabilité sur plastiques, verre, métal, le plasma homogène et sans potentiel électrique augmente les forces d’adhérence. Contrairement à d’autres technologies, les surfaces délicates peuvent être traitées sans aucune détérioration comme les dépôts métalliques de DVD, les condensateurs ou les circuits électriques

« La méthode Plasma Openair opérée directement avant que l’adhésif soit appliqué nous a permis de traiter les extrémités des joints. Elle remplace ainsi plusieurs opérations du process. Ce prétraitement s’est avéré très efficace et a rendu superflu non seulement le pré-nettoyage des surfaces à coller, mais également l’application, avant le collage, des couches de primaire contenant des solvants » précise Michael Stege, responsable spécialisé dans les colles et mastics en Ingénierie de procédés chez Volkswagen AG. « Grâce à cette méthode, nous avons obtenu des résultats particulièrement satisfaisants : pas de contrôle de date de péremption du primaire, pas d’émission de solvants et pas de contraintes logistiques pour l’approvisionnement. La technologie Openair Plasma est un procédé de traitement avant collage, sûr et éprouvé, mais aussi parfaitement écologique dans la droite ligne d’un développement durable » poursuit-il.

Au-delà de l’écologie, le Développement durable

Trop souvent, le développement durable est encore uniquement synonyme de « protection d’environnement ». Corinne Coullet-Demaizière, auteur de « Au-delà de l’écologie », remet les pendules à l’heure en offrant une réflexion plus juste, plus large, plus accessible et plus vivante de la notion de développement durable. « Nous sommes engagés dans une problématique si complexe qu’il serait dangereux, sur le long terme, de négliger une approche globale et d’oublier de considérer l’homme et ses aspirations d’aujourd’hui », prévient l’auteur.

Dans cet ouvrage qui  souligne l’importance d’une recherche de performances à la fois économiques, sociales, environnementales et sociétales, Christian Brodhag, ingénieur civil des Mines, Alain de Vulpian anthroposociologue, Élisabeth Wael broeck-Rocha, docteur es sciences économiques ou encore Anne Barraquier, professeur en management, apportent leurs expertises dans le domaine du développement durable.

Par ailleurs, des témoignages d’entreprises de toutes tailles et autres organisations publiques qui ont choisi la voie du développement durable au vrai sens du terme, dans son approche globale, viennent rythmer le propos de l’auteur, chiffres et résultats à la clef : SCLÉ SFE, SDIS 79, TNT Express France, Valrhona…

S’approprier la notion de développement durable

Riche en informations concrètes, en références, et bonnes adresses, cet ouvrage s’adresse aux premiers concernés, hommes et femmes qui vivent, travaillent, consomment… Il constitue un appui précieux à la sensibilisation au développement durable en entreprise, dans les services publics ou dans le cadre d’un enseignement. Enfin, ce livre permet de s’approprier la notion de développement durable, de déterminer les leviers à mettre en œuvre et de trouver les meilleures pistes d’action.

Au sommaire, quatre grandes parties : Des raisons de s’alarmer  ( Développement durable : un nouvel équilibre à trouver, Une société en pleine évolution, Entreprise : redonner confiance), Une approche résolument globale ( Développement durable : un tout indissociable, Les conditions de la réussite : une vision d’emblée à longue échéance, Des obstacles à surmonter : accélérer le mouvement, Une émergence laborieuse), Le Développement durable en action (Développement durable et grandes entreprises : les moyens, Développement durable et PME-PMI : quand l’intention est là, Développement durable et service public : ouvrir la voie), Des pistes pour réussir sur le long terme (Sensibiliser les hommes : enseigner le Développement durable, Mesurer et harmoniser les progrès : de nouveaux indicateurs, Une politique nationale),

Un nouveau Master : « Électrification et Propulsion Automobile »

Face à l’enjeu écologique et sociétal de réduction des émissions de gaz à effet de serre issues des transports, les constructeurs automobiles se sont engagés sur la voie du véhicule décarboné. A ce titre, l’électrification progressive de la propulsion automobile représente une réponse pertinente. Elle fait actuellement l’objet de recherches et développements intensifs et va nécessiter de nouvelles compétences encore peu couvertes par les formations étudiantes existantes. D’où l’habilitation du nouveau Master « Véhicules et Transport Durable » comportant la spécialité « Électrification et Propulsion Automobile (EPA) », créé par l’ENS de Cachan, Centrale Paris, SUPELEC et l’IFP School.

Cette nouvelle formation, qui va accueillera à la rentrée universitaire 2010 ses premiers étudiants issus de Master universitaire M1 ou de 2e et 3è année d’école d’ingénieur dans le cadre d’un Master M2, est originale à plusieurs titres. Elle s’appuiera sur des établissements d’excellence de la région parisienne, ce qui permettra une mise en commun unique d’expertises et de compétences complémentaires et transdisciplinaires. Elle bénéficiera par ailleurs d’un fort adossement aux laboratoires de recherche du secteur et d’un solide ancrage industriel.

Répondre à la mutation technologique

La finalité de cette nouvelle spécialité « Electrification et Propulsion Automobile » est de répondre à la mutation technologique engagée en traitant du système constitué du groupe moto-propulseur et de son électrification. L’originalité de la formation réside d’abord dans la pluridisciplinarité et dans l’aspect système du domaine scientifique traité. Cette particularité découle directement des applications visées qui sont, par essence, des systèmes riches et complexes où plusieurs phénomènes physiques sont forcément couplés.

Cette spécialité répond donc à un besoin de formation pluridisciplinaire associant les compétences suivantes : compétence électrique (énergie électrique, électronique et traitement de l’information), compétence mécanique (dynamique du véhicule, transmission de puissance), compétence en transferts thermiques et en moteur à combustion interne (combustion, carburant, thermodynamique, cinétique chimique, post traitement des émissions de gaz), compétence en contrôle et intégration des système (automatique, techniques d’optimisation). L’association des compétences permet d’appréhender le groupe moto-propulseur totalement ou partiellement électrifié et le véhicule dans sa globalité.

A l’issue du Master les étudiants pourront poursuivre des travaux de recherches dans le cadre de thèses de doctorat ou occuper des fonctions d’ingénieur au sein des équipes de R&D de l’industrie et des laboratoires spécialisés dans le domaine de l’électrification de la propulsion automobile.

Ce Master a reçu le soutien de nombreux industriels (constructeurs automobiles et équipementiers), d’écoles d’ingénieurs et de laboratoires de recherche, tous acteurs de la transition énergétique dans le domaine des transports.

Marc Chabreuil

Premier sac bio-compostable pour le Pet Food

D’abord axé sur les emballages en papier, le secteur du Pet Food a progressivement complété son offre avec des sacs hybrides (papier et plastique) et s’oriente depuis six ans avec des sacs tout plastique pour certains produits. Actuellement, les sacs préformés plastiques pour le Pet Food sont essentiellement composés de deux matériaux: le polyester et le polyéthylène. Dans un souci de préservation de l’environnement, Gascogne Sack pour qui,  sur le site de Mimizan, le Pet Food est deuxième secteur en termes de volume de production, avec 55 millions de sacs, a souhaité remplacer ces deux matériaux par des ressources végétales et fabriquer des sacs aux caractéristiques similaires au plastique.Gascogne Sack a développé pour la première fois des sacs entièrement constitués de matériaux bio et compostables -la gamme « GreenLandes » – enrichissant ainsi son offre de sacs square en cohérence avec sa stratégie de développement de produits éco-novateurs. « Nous sommes les premiers aujourd’hui à proposer ce type de produits sur le marché du sac préformé plastique», déclare Gilles Pelard, Directeur Commercial Gascogne Sack.

Améliorer le bilan carbone

Le polyester a été remplacé par une cellulose végétale et le polyéthylène par des ressources végétales, issues de dérivés de types maïs et pomme de terre. « Nos recherches ont essentiellement porté sur le complexage des matériaux, l’assemblage des différentes essences végétales remplaçant le polyester et le polyéthylène », poursuit-il. Le service R&D de Mimizan en collaboration avec deux à trois fournisseurs privilégiés ont planché plus d’une dizaine de mois pour mettre au point et tester cette nouvelle gamme de sacs qui fait actuellement l’objet d’un dépôt de brevet d’invention auprès de l’INPIPermettant l’ensachage de produits de 1 à 12 kg, (contre 1 à 20 kg pour les sacs issus du pétrole) et présentant une résistance similaire aux produits en plastique, le sac « GreenLandes » est fabriqué avec des matériaux bio-compostables, qui répondent à la norme NF EN 13432 (exigences relatives aux emballages valorisables par compostage et biodégration). Comme tous ses sacs square et single-layer, ils sont imprimés avec une encre à l’eau et contrecollés avec des colles sans solvant. De quoi encore améliorer le dernier Bilan Carbone qui, réalisé en 2009,  a permis de mesurer l’impact de l’entreprise sur l’environnement et de calculer l’empreinte carbone de ses grandes familles de sacs, de la matière première jusqu’au produit fini.

Berendsen optimise son processus de distribution

Afin de stimuler sa croissance, Berendsen, l’une des principales sociétés européennes de services dans l’industrie textile, présente dans 13 pays, a choisi d’optimiser sa distribution. Selon Ralf Richters, chef de projet chez Berendsen : « une planification efficace des opérations de distribution est la clef du succès de notre service centré sur les besoins du client. »Les services polyvalents de Berendsen comprennent le remplacement régulier et périodique des vêtements et articles textiles souillés par des propres. Chaque semaine, les quelque 75 camions de Berendsen approvisionnent des milliers d’adresses au départ de 8 sites. Comme l’ajoute Ralf Richters, « le processus de distribution est compliqué par l’augmentation de notre clientèle et la multiplicité des options de service. »Berendsen qui vise la première place dans son domaine, cherche continuellement à améliorer ses prestations de services. Ralf Richters explique encore : « La distribution est une composante essentielle de nos services, non seulement parce que nos clients la considèrent comme un des aspects les plus facilement mesurables et identifiables du service que nous fournissons, mais aussi en raison des coûts qui lui sont associés. Nos clients demandent et obtiennent des options de services de plus en plus diversifiées. Pour être en mesure de satisfaire nos clients, il est nécessaire d’améliorer le processus de planification, c’est pourquoi nous avons cherché une entreprise pour nous y aider. Après une étude approfondie, nous avons conclu qu’ORTEC était celle qui répondait le mieux à nos besoins. »Grâce au logiciel ORTEC Tactical Route Planning (module de Planification Tactique des Tournées), Berendsen pourra déterminer des zones de service optimales. A l’intérieur de ces zones, on répartira les jours et les semaines de distribution, en fonction des heures de conduite et du temps à passer chez le client. Selon Ralf Richters : « programmer la livraison de nouveaux clients sera bien plus facile. Grâce à ce logiciel, nous pourrons même envisager différentes alternatives et scénarios pour faciliter la prise de décisions. »Les itinéraires de service peuvent varier d’une semaine à l’autre, en fonction des différentes fréquences de livraison prévues chez les clients. C’est pourquoi l’application ORTEC TRP sera associée au module ORTEC MR (Map & Route) pour le calcul d’itinéraires. Ralf Richters explique : « cette solution permettra aux responsables de nos équipes de distribution d’avoir une meilleure visibilité sur les tournées de livraisons quotidiennes. De plus, ORTEC Map & Route peut calculer l’ordre de livraison optimal dans le cadre d’un plan de route précis. »Outre une meilleure planification, la coopération entre Berendsen et ORTEC contribuera également au respect de l’environnement. En effet, planifier des tournées plus intelligemment diminuera le kilométrage parcouru. Cette nouvelle méthode de planification jouera également un rôle non négligeable dans la réduction souhaitable des émissions de CO2.Par Marc Chabreuil

« Nanomat training » formera les futurs experts en nanomatériaux

Un des défis majeur de ce siècle est de gérer la transition vers une société durable et économe en énergie. Cela implique un changement technologique considérable, basé, en partie, sur la recherche massive sur les nouveaux matériaux dans laquelle les nanosciences, au coeur de nombreuses recherches dans des domaines aussi divers que la biologie, la chimie ou la physique, jouent un rôle crucial. L’objectif du programme « Nanomat training » qui démarre à la rentrée 2010, est de préparer la prochaine génération de chercheurs à ce défi et d’améliorer leurs perspectives de carrière au plus haut niveau en Europe.Lancé à l’initiative de trois chercheurs – Nadine Witkowski et  Massimiliano Marangolo de l’Institut des Nanosciences de Paris (UPMC/CNRS), enseignants chercheurs à l’UPMC et responsables du Master International Nanomat, ainsi que Matteo d’Astuto de l’Institut de Minéralogie et de Physique des Milieux Condensés (IMPMC) – le programme « Nanomat training » est le prolongement du master déjà existant à l’Université Pierre et Marie Curie (UPMC): « Nanomat : sciences et matériaux ». Dès septembre 2010, « Nanomat training »  va proposer à tous les doctorants, de mener des thèses en co-tutelle sur les nanomatériaux, en partenariat avec un consortium européen de trois universités: l’UPMC-Université Pierre et Marie Curie, l’université suédoise d’Uppsala et l’université italienne Roma Tre. D’autres partenaires, comme le synchrotron SOLEIL, à Saint Aubain, et MaxLab à Lund, en Suède, apporteront leur soutien au programme.

Objectif : inciter la recherche tous azimuts
Ce programme sera ouvert à tous les doctorants, en particulier dans le réseau des différents partenaires. L’objectif est d’offrir aux doctorants une large vision sur les différents types de nanomatériaux ainsi que sur leurs propriétés allant de l’électronique ou de l’optique, à la catalyse. Cette formation proposera des cours théoriques et expérimentaux, chaque partenaire, universitaire et industriel, fournissant des expertises spécifiques et complémentaires dans des domaines de recherche pertinents. Elle s’appuiera également sur les écoles doctorales déjà bien établies. Des enseignements sur l’intégration des connaissances scientifiques, industrielles et financières sont prévus pour les jeunes chercheurs. Un module spécial abordera les risques et problèmes de santé ainsi que l’analyse du cycle de vie des nanomatériaux.Une nouvelle école sera créée spécialement pour « Nanomat training » : les « Nanoscopies » dans laquelle l’UPMC-Université Pierre et Marie Curie et le synchrotron SOLEIL coopèrent pour donner aux docteurs un aperçu général des techniques expérimentales d’imagerie et de spectroscopies à l’échelle nanométrique.Les doctorants bénéficieront d’un programme avancé d’innovation dans un environnement multiculturel qui va améliorer leurs perspectives de carrière au plus haut niveau en Europe. Le contrôle des matériaux complexes à des niveaux nano ou mésoscopique sera au centre de la scène scientifique et technologique dans les 5 à 10 ans à venir. C’est donc le moment idéal pour les jeunes chercheurs formés dans ce programme international. En parallèle, la communauté européenne bénéficiera d’un groupe de jeunes chercheurs, experts dans de nouveaux défis scientifiques comme la technologie du graphène qui représente une révolution potentielle pour des produits électroniques.Par Marc Chabreuil

Des niveaux de performance record pour un simulateur de F1

La Scuderia Ferrari vient de se doter d’un  nouveau simulateur dynamique de conduite F1 qui  est équipé d’une solution de commande de mouvement étudiée sur mesure qui  regroupe la partie mécanique pour la cinématique, un système de commande d’application des charges, un ensemble complet de logiciels, un habitacle et un terminal opérateur spécialisé. La possibilité de fonctionner dans des bandes de fréquences supérieures à celles des systèmes classiques était une exigence capitale du cahier des charges.Ferrari s’est adressé à Moog Industrial Group pour lui fournir un système intégré de commande flexible des mouvements et d’essais, conçu en fonction d’un cahier des charges précis et très exigeant. A l’issue de 2 ans de développement, les difficultés techniques ont pu être surmontées grâce à un échange bilatéral des expertises.  En particulier, les exigences de temps de réponse faibles et de bandes de fréquences élevées imposées au simulateur se sont traduites par des progrès dans le domaine de l’utilisation des composites renforcés de fibre de carbone pour la réalisation d’une structure à la fois allégée et plus rigide. D’après Marco Fainello, directeur du Car Performance Department de la Scuderia Ferrari, « ce simulateur de conduite dynamique répond intégralement à nos spécifications et à nos attentes, c’est-à-dire un système capable à la fois de tester la conception des voitures et d’entraîner les pilotes. Les deux années que nous avons passées à collaborer avec Moog pour mettre ce système au point nous permettent aujourd’hui de tirer le maximum de bénéfices de la commande de mouvement à hautes performances pour la simulation. Nous utilisons ce simulateur pour tester les modèles de voiture actuels et futurs et pour entraîner de nouveaux pilotes sur plusieurs circuits F1. Dans les deux cas, nous pouvons réduire le temps passé sur circuit réel et nous pouvons planifier les entraînements plus efficacement sans avoir à nous soucier des prévisions météorologiques. »Le simulateur, qui reproduit les conditions réelles sur circuit, permet de tester divers aspects de la voiture, comme le réglage des ailerons ou des freins qui influent sur la performance. Grâce à la haute fidélité du simulateur, le pilote ressent les différences qui résultent d’une modification apportée à une pièce ou à un composant de la voiture, sans les fortes accélérations qu’il aurait à subir sur un circuit réel.  En outre, l’entraînement des pilotes n’est plus soumis aux contraintes des circuits, d’où un gain de temps et d’argent tout en respectant les nouvelles réglementations.Pour Ferrari, le simulateur devait pouvoir fonctionner à des fréquences mécaniques suffisamment élevées pour permettre au pilote de ressentir le comportement de la voiture avec le plus de précision possible. Il devait aussi être capable de reproduire des vitesses et des accélérations beaucoup plus élevées que les systèmes classiques. Ces exigences, qui étaient parmi les plus sévères du projet, ont amené Moog à concevoir de nouveaux vérins pour obtenir la résistance mécanique et la rigidité nécessaires sans sacrifier la légèreté, exigences très importantes aussi pour l’habitacle.Les fréquences élevées et les temps de réponse réduits rendent le freinage et la direction plus réactifs et assurent la haute fidélité dont le pilote a besoin pour ressentir et évaluer le comportement de la voiture. Le pilote est assis devant un écran qui lui donne un champ de vision de plus de 180°. Le système est commandé par 10 ordinateurs multiprocesseurs dotés d’un total de 60 Go de RAM et qui produisent de l’ordre de 5 Go de données par jour. Il est aussi équipé d’un système de sonorisation  de 3.500 W en Dolby Surround 7.1.

Un robot, mais tailleur de pierres naturelles

Il y a encore quelques années, seuls les cuisiniers professionnels disposaient de plaques de travail en matériaux nobles tels que le granit ou le marbre. Aujourd’hui, même les cuisiniers amateurs peuvent valoriser leurs cuisines avec des pierres coûteuses. Pour obtenir de telles plaques de travail, le tailleur de pierres doit « travailler » la matière première. Un travail très dur qui exige beaucoup d’efforts, de temps et de savoir-faire avec des conséquences économiques non négligeables alors que la pression des coûts et la concurrence sont décisives, même dans l’industrie de la pierre naturelle. C’est là que la robotique associée aux techniques de sciage, de découpe par jet d’eau et de vision par caméra s’avère financièrement intéressante, d’autant plus que les robots garantissent 100 % de qualité grâce à leur flexibilité et la précision constante de leur travail.Un tel centre de découpe robotisé a été développé par la société USG Robotics autour d’un robot 6 axes Kuka en version Foundry (l’industrie de la pierre naturelle emploie généralement des robots de la série 2000 dotés d’un grand nombre d’entraînements et de motoréducteurs puissants ainsi que des degrés de portée et de capacité de charge de 150 à 360 kg). Il est utilisé avec succès, notamment aux Etats-Unis, par la société Marble Tech Inc. qui, uniquement grâce à l’utilisation de ce système, a augmenté sa capacité de production de 20 % par rapport à un système conventionnel.

Un robot tout en un
Deux tables de découpe permettent d’obtenir des temps de chargement et de déchargement plus courts. Ainsi, le robot peut travailler en continu sur les plaques de granit brut. Le système de caméras sert à l’identification automatique de leurs positions. La plaque à usiner est scannée et les données, ainsi que la position exacte de la plaque, sont transmises au robot. Afin de limiter les chutes, le logiciel RoboCut détermine le plus grand nombre possible de plaques de travail qui peuvent être découpées sur la plaque brute. Le robot peut commencer immédiatement à usiner la plaque de granit. Lors de la première étape, les bords droits sont sciés à l’aide d’une scie circulaire de 400 mm avec une vitesse de découpe de 4,6 m/ min. Lors de la deuxième étape, la technique de jet d’eau est utilisée pour les coupes des éviers et lavabos, les perçages ou les rayons. Avec une pression de 4.000 bar, le jet d’eau atteint des vitesses de découpe de 440 mm / min. Le robot ne doit pas changer d’outil pendant tout le processus de découpe et aucune découpe supplémentaire effectuée par d’autres machines n’est nécessaire. « Un robot nécessite néanmoins un opérateur qui a des connaissances du travail de la pierre naturelle. Il surveille le processus de découpe de la pierre et contrôle tout d’abord les données enregistrées du client, puis la plaque de travail finie. Le travail en équipe du travailleur spécialisé et du robot permet d’obtenir le produit », explique Stefan Ender, Industrial Business Development (IBD) Manager Stone Industry chez Kuka Roboter GmbH qui fabriques des robots capables de manipuler des charges allant jusqu’à 1.300 kg. « Le plus important pour l’utilisation d’un robot est la connaissance de l’application. Pour cela, le client doit prendre tout le temps qui y sera nécessaire. C’est la raison pour laquelle tout commence par une formation », conclut-il.Par Marc Chabreuil

Quand les probabilités font progresser l’analyse sémantique des textes

« Au commencement était le Verbe… et le Verbe s’est fait chair. » Et les hommes ont assemblé des mots pour s’exprimer. Le langage est une fonction qui nous semble tellement élémentaire qu’elle a été l’un des premiers grands chantiers de l’Intelligence Artificielle. En effet, dès la fin des années cinquante, l’expérience de Georgetown, menée notamment par IBM, a suscité un espoir démesuré : « within three or five years, machine translation would be a solved problem ». Cet espoir fut à la hauteur de la désillusion provoquée par les faibles résultats constatés.

Cinquante ans plus tard, où en sommes-nous ?

Depuis ses débuts, la description formelle des langues en vue de leur utilisation dans des systèmes automatisés a montré ses limites. L’utilisation exclusive de grammaires formelles est en effet incapable de saisir la complexité et les nuances d’une langue. La principale difficulté réside en un seul mot : ambiguïté. Les rustines techniques ne manquent pas pour tenter de contourner le problème et les années soixante-dix et quatre-vingt ont été particulièrement riches dans la mise en place de systèmes de règles sémantiques, supposées permettre une plus grande précision dans l’analyse de la langue. Ces systèmes n’ont pourtant apporté que des améliorations marginales dans le traitement automatisé de la langue.

L’arme fatale

En fait, la « balle d’argent » semble avoir été tirée par un curieux fusil que le monde de l’informatique et de l’Intelligence Artificielle semblait avoir jusque-là négligé : la théorie des probabilités. Avec l’introduction de modèles de langue probabilistes, Google, pour sa première participation en 2008, a classé son système de traduction automatique à la première place de toutes les tâches de la campagne Open Machine Translation du NIST : il s’agissait de réaliser des traductions de l’arabe vers l’anglais, du chinois vers l’anglais, de l’ourdou vers l’anglais, de l’anglais vers le chinois. En à peine dix ans, les techniques probabilistes ont propulsé les capacités des systèmes de traduction automatiques à des hauteurs que quarante ans de systèmes formels n’avaient fait qu’entrevoir.

Le LDA pour les nuls

Ces résultats ont encouragé les chercheurs à appliquer l’approche probabiliste à d’autres tâches au sein du traitement automatisé du langage. Et l’un des concepts les plus prometteurs dans ce domaine est le LDA, ou Latent Dirichlet Allocation. Nous nous plaçons cette fois-ci dans le cadre d’un grand nombre de documents, ce qu’on appelle un corpus.Chaque document est vu comme un « sac de mots ». Le paragraphe précédent peut par exemple être vu comme un document dans lequel le mot « automatisé » apparaît 1 fois, et le mot « systèmes », 2 fois. On voit qu’il est assez trivial de considérer un document comme une distribution de probabilité sur l’ensemble des mots du corpus. Si j’ai le document « a b a c », je peux considérer ce document comme une distribution des mots « a », « b », « c » et « d » avec les probabilités 2/4, 1/4, 1/4 et 0.Cette approche est la base des algorithmes de pertinence des moteurs de recherche en texte intégral. Mais l’idée de LDA est qu’au lieu de considérer un document comme une distribution sur des mots, on le considère comme une distribution de probabilités sur des topics (sujets), eux-mêmes vus comme des distributions sur les mots. Vu ainsi, un document est alors un « sac de sujets » dont chacun est lui-même un « sac de mots ».

L’originalité du LDA réside dans le fait qu’il s’agit d’un modèle génératif. Etant donné un certain nombre de paramètres, on est capable de générer une distribution particulière (que ce soit pour la distribution de topics dans un document, ou pour la distribution de termes dans un topic). Cet aspect génératif est important car il permet d’effectuer très rapidement l’analyse d’un nouveau document à partir d’un modèle existant, sans avoir à recalculer les paramètres du modèle.

Par Jérôme Mainka, Directeur de la Recherche chez Antidot

Le papier électronique arrive à maturité

Techniques de l’ingénieur : Quels sont les caractéristiques du papier électronique ?
Hervé Bienvault : Le papier électronique permet de se rapprocher de l’expérience de la lecture sur papier. Avec un fond de plus en plus blanc, il est surtout non rétro-éclairé, ce qui évite la fatigue visuelle dans la durée. Il va permettre de remplacer beaucoup de papiers qui nous entourent : PLV, affichettes, affichages urbains, journaux, livres… On passera bientôt du noir et blanc à la couleur.

Qu’est-ce qui freine son développement ?
Plusieurs entreprises ont mis en vente le papier électronique depuis 3 ou 4 ans, sans succès car il était trop cher. Les dispositifs A4 seront bientôt disponibles, pour un prix raisonnable. Ce sera décisif pour son développement. Aujourd’hui il faut compter 150 à 200 euros pour un lecteur de premier prix, 250 euros pour le Wi-Fi, 300 euros pour la 3G. Les prix vont baisser, probablement jusqu’à atteindre une fourchette située entre 100 et 200 euros d’ici à un an, voire moins. Le Kindle DX est presque un A4. Il coûtait 500 euros il y a un ou deux ans, il coûte moins de 300 euros aujourd’hui. Le reader peut être soit connecté à un ordinateur, ou au Wi-Fi ou à la 3G comme le Kindle. D’autres modèles vont sortir à l’automne, dont un produit par Orange. Samsung est en train de proposer des petits lecteurs sur lesquels on peut écrire. Mais avec des tarifs de l’ordre de 4 à 500 euros, le papier électronique entre en concurrence avec les tablettes électroniques.

Quelle est la différence entre papier électronique et eBook ?
Le terme eBook désigne le fichier et non le dispositif de lecture. Appelé reader en anglais, on le nomme liseuse, lecteur ou encore livrel en France.

Quelles sont les technologies existantes ?
La technologie eInk est développée par la société taïwanaise PVI, qui a déposé un brevet. Il s’agit de microbilles d’encre qui naviguent dans un support plastique (lire l’encadré). Contrairement à l’iPad, il n’est pas rétro-éclairé. Qualcomm a mis au point des écrans en couleur appelés Mirasol. Constitués de petits miroirs, ils utilisent le même phénomène que celui qui confère aux ailes des papillons leurs couleurs. Un autre acteur basé aux Pays-Bas, Liquavista, vient de présenter un prototype très intéressant [NDRL : avec la technique de l’électromouillage].  

Quelle est l’autonomie du papier électronique ?
Ces dispositifs consomment de l’énergie uniquement lorsque l’écran change de page. Ce sont des écrans bistables. L’autonomie atteint donc plusieurs semaines.

Comment se positionne la tablette par rapport au reader ?
Chacun offre des fonctionnalités propres. La tablette me semble surtout intéressante pour le Web. Le papier électronique s’avère pour l’instant assez décevant en termes de vidéo. Mais les technologies progressent, notamment sous l’impulsion de Fuji ou Epson et d’autres géants de l’électronique.

Pour l’édition, quelles seront les conséquences de la numérisation ?
Nous allons rencontrer le même problème que pour la musique. Les liseuses étaient jusqu’à présents réservés aux geeks, elles vont se démocratiser. Il faudra proposer des offres légales intéressantes, mais le piratage risque de toute façon de se développer. Le phénomène sera plus lent que pour la musique et il ne s’agit pas d’un remplacement. Le livre garde ses propriétés : conservation dans une bibliothèque, prix peu élevés, échanges, prêts, etc. C’est surtout le livre de poche qui risque d’être concurrencé.

Comment la France se situe-t-elle par rapport aux autres pays ?
Nous sommes en retard au niveau de l’offre. 50.000 titres sont disponibles, contre 4 à 500.000 eBooks en langue anglaise. Nous sommes en retard sur les prix, avec des différences de l’ordre de 15 à 20 % par rapport au papier, contre 40 à 50 % aux Etats-Unis. Nous sommes en retard sur le plan légal, notamment sur des sujets comme le prix ou la TVA. Enfin, nous n’avons pas d’entreprise moteur comme Amazon et les éditeurs sont lents à réagir. Cependant, certains acteurs français s’affirment. Nemoptic est bien positionnée en recherche. Bookeen est un des pionniers dans le domaine avec des lecteurs innovants, dont le Cybook Opus depuis un an.Propos recueillis par Corentine GasquetParcours Hervé Bienvault a découvert le papier électronique du Sony Librié fin 2004, et il a tout de suite eu le sentiment qu’une révolution dans le domaine de l’imprimé était en marche. Depuis il utilise un Iliad, un Sony reader et un Cybook Opus. Il lit le journal e-paper des Echos depuis juin 2007. Il a débuté sa carrière comme technicien de fabrication chez Albin Michel et Bordas, avant d’occuper différents postes de chef de fabrication de 1993 à 2002 (Albin Michel, Citadelles et Mazenod, Flammarion). Il a ensuite été directeur de fabrication chez Sogedif – Editis (2003 – 2006). Il a créé et développé Abicia Sarl, start-up édition numérique. Il est aujourd’hui consultant indépendant.Hervé Bienvault est intervenu lors d’une conférence du CFPJ Lab. En savoir plus : www.cfpj.com/cfpj-labL’encre et le papier électroniquesDéveloppé à partir de 1997 dans les laboratoires du MIT, le papier électronique est constitué de deux feuilles de plastiques transparentes avec de l’encre électronique comprise entre les deux. L’encre est composée de capsules remplies de microbilles noires chargés négativement ou blanches chargées positivement. Un champ électronique positif sur la surface de la feuille fait migrer les microbilles noires vers la surface, elles deviennent visibles. Et inversement pour les blanches. On peut également produire des effets de gris en faisant migrer simultanément les noires et les blanches. En savoir plus

Bientôt des prises labellisées pour véhicules électriques

A un horizon de 10 ou 15 ans, soit entre 2020 et 2025, le parc mondial de véhicules 100 % électriques devrait être compris entre 3,5 à 7 millions d’unités. Cette estimation correspondant à des ventes annuelles allant de 350.000 à 1.000.000 d’unités soit, d’ici une dizaine d’année,  jusqu’à 10 % du marché automobile mondial.

En France, la loi Grenelle 2 prévoit de confier la compétence sur le déploiement d’infrastructures de recharges publiques pour les voitures électriques aux communes ainsi qu’à leurs groupements. Douze collectivités territoriales pilotes s’engagent dès 2010. De leurs côtés, les 2 constructeurs français s’engagent à pouvoir commercialiser 60.000 véhicules électriques sur 2011 et 2012, en privilégiant ces agglomérations. Dans les autre pays européens, des projets similaires sont lancés. Mais pour que tous ces plans se déroulent parfaitement, reste à ce que l’ensemble des acteurs concernés par les infrastructures (gouvernements, Europe, normalisateurs, constructeurs …) se mettent d’accord sur une norme commune de recharge et notamment de connexion.

Selon le ministre espagnol de l’Industrie, Miguel Sebastian, créer un standard européen est indispensable : « Nous voulons que le citoyen européen qui aille d’un pays à un autre puisse utiliser les mêmes prises, que le véhicule soit simple (…), cela va être un élément clé. » Ainsi, l’accent est mis sur la standardisation des systèmes de recharges, dont il existe actuellement 92 modèles, et dans la baisse du coût des batteries, dont les prix tournent autour de 6.000 à 16.000 euros.

Si le véhicule électrique s’impose comme la solution « développement durable » de l’automobile, les infrastructures pour le rendre accessible et pratique sont encore en construction. D’où la récente alliance de  trois acteurs industriels européens majeurs – Legrand, Schneider Electric (membre des syndicats Gimelec et Domergie) et Scame-  qui ont crée le consortium EV Plug Alliance dont l’objectif est de promouvoir un branchement électrique haute sécurité pour l’infrastructure de charge du véhicule électrique.

Le Gimelec considère que la prise dédiée à la recharge du véhicule électrique doit respecter le plus haut niveau d’exigence en matière de protection des consommateurs et ne pas dégrader l’acquis normatif sur le plan de la sécurité des installations électriques. Le choix de la prise doit tenir compte de l’augmentation des puissances mises en jeu et du fait que la majorité des points de recharge seront dans l’habitat ou sur les lieux de travail, donc accessibles à des publics non professionnels voire vulnérables (enfants), en un très grand nombre de points. Le choix des prises et connecteurs satisfaisant ce niveau d’exigence est l’objet de débats selon les réglementations en vigueur dans les différents pays européens.
 
Sans promouvoir une technologie au détriment d’une autre, EV Plug Alliance favorise l’adoption d’une solution unique de connexion entre le véhicule électrique et l’infrastructure de recharge qui soit interopérable dans tous les pays européens. En effet, la solution de convergence européenne proposée consiste à normaliser un cordon électrique détachable avec deux prises distinctes à ses extrémités (à l’instar de la solution adoptée par le standard USB en informatique), issues du standard de prises en cours de finalisation par la CEI. Celui-ci définit 3 types de prises possibles pour recharge de véhicules électriques, dont le type 2, proposé par la société Mennekes et le type 3 proposé par l’EV Plug Alliance. Ce dernier propose :

  • côté véhicule, une prise type 2 supportant une puissance de 3 à 43 kW.
  • côté infrastructure de recharge (bâtiments, parkings ou résidentiel), jusqu’à 24 kW, une prise type 3, à empreinte unique monophasée / triphasée, 16 à 32 A, avec des obturateurs.

Deux standards qui offrent le plus haut niveau de sécurité, en empêchant tout contact accidentel avec des parties sous tension.

Au delà de 24 kW, hors des bâtiments et du résidentiel, le cordon sera attaché de façon permanente à la borne et uniquement manipulé par des utilisateurs informés. La prise qui se raccorde au véhicule est alors de type 2.

Cette solution concilie les intérêts de toutes les parties prenantes, utilisateurs et industriels, et fait le meilleur usage des technologies proposées par les différentes sociétés européennes. Toutes les voitures pourront donc se brancher sans difficulté à toutes les prises, avec un seul cordon détachable, ou par l’utilisation du cordon fixe pour la recharge rapide dans des lieux spécifiques de recharge.

L’EV Plug Alliance qui annonce les premiers produits labellisés pour la fin du premier semestre 2010, apparait comme une réponse à l’association japonaise « Chamdeo » qui réunit, ente autres, quatre grands constructeurs automobiles – Toyota, Nissan, Mitsubishi Motors et Fuji Heavy Industries (Subaru)-  et la société Tokyo Electric Power (Tepco) pour standardiser les bornes de recharges électriques, le Japon voulant s’affirme comme un acteur principal du marché de l’automobile électrique.

Par Marc Chabreuil

Un outil de gestion commun au pour les coopératives agricoles en Bretagne

Situé dans l’Ouest de la France, Caliance est un groupement de coopératives agricoles rassemblant quelques 12 000 producteurs pour un volume de production annuel compris entre 1,3 et 1,5 millions de tonnes. Il couvre la collecte et la commercialisation des récoltes (pôle céréale), mais également l’achat et la mise au marché des fournitures agricoles (pôle Agri-fourniture). Michel Le Friant,  responsable du Pôle Céréales, a eu pour mission de structurer la gestion informatique de toutes les fonctions administratives et commerciales générées par l’activité de Caliance. Parmi les défis à relever sur ce projet, il a identifié trois priorités :

  • intégrer la nouvelle solution sans interrompre le cycle économique de la filière (collecte, stockage et vente) ;
  • disposer d’information fiables personnalisées et en temps réel sur les contributions en terme de stock des différents adhérents ; 
  • trouver d’une solution facile à intégrer au système d’information existant et suffisamment ouverte pour pouvoir intégrer les autres applicatifs. 
Après une première phase exploratrice, entre le mois de novembre 2006 et la fin 2007, avec d’autres Unions agricoles françaises, afin de pouvoir définir des règles de gestion pour son projet informatique, Michel Le Friant est arrivé à la conclusion qu’il était nécessaire d’adopter une démarche itérative en partant des solutions informatiques existantes installées chez les membres de Caliance et d’intégrer progressivement la nouvelle solution. Jusqu’à juillet 2009, l’informatique de Caliance a donc fonctionné sous cette forme.

Une simplification de la saisie
En septembre 2008, un appel d’offre tenant compte d’un cahier des charges opérationnelles en fonction des retours du terrain, a été ensuite adressé à 4 éditeurs de progiciels informatiques verticaux sélectionnés en raison de leur connaissance du secteur agricole. Deux d’entre eux  ont été retenus pour la seconde phase d’entretien, mais également de démonstration sur sites déjà installés avec leurs solutions. Dans le cas de l’éditeur aquitain Deal Informatique dont l’un des clients Vegam, était membre de Caliance et très satisfait de l’outil Nathalie, la procédure fut plus simple. Michel Le Friant fut séduit par le fonctionnement de cet outil en mode full-web, son adaptation  à des contraintes logistiques particulières, la simplicité des dépôts et la saisie pour tout opérateur quel qu’il soit (intérimaire, permanent…), la saisie par écran et une traçabilité par login, la mise à égalité toutes les exploitations partenaires de Caliance tout en respectant l’identité de chaque entreprise…Une fois choisie la solution Nathalie de Deal Informatique  (rebaptisé ensuite Caliance Céréale), un calendrier de déploiement de la solution prévoie de démarrer Nathalie Apports entre le 1er mai et le 1er juillet 2009 par les modules  Facturation, Vente, Expédition et logistique. En effet, cette période de l’année est exclusivement dédiée à la vente des céréales, la collecte commençant en juillet. Pour pouvoir vérifier la pertinence des modules Achat/Gestion Stock de Nathalie Apports et sa résistance aux montées en charge, une « collecte test » fut organisé le 18 juin 2009 pour les futurs « super-utilisateurs » de la solution. Elle a consisté à  simuler une série de livraisons de céréales dans plusieurs coopératives équipées d’un système de saisie (300 sites en totalité concernés par l’application). Une bonne manière de vérifier le bon fonctionnement en réseau et la résistance sous pression de flux, quelque soit la localisation des opérateurs. Cette campagne de « collecte test » fut un vrai succès et a permis à l’ensemble des coopératives agricoles de vérifier la solidité de la solution informatique sélectionnée. Au 1er juillet 2009, tous les opérateurs étaient à niveau sur Nathalie Apports.  Une fois la solution installée, une moisson en condition réelle fut effectuée de fin juin à septembre 2009 et, à part quelques pannes de requêtes rapidement corrigées, surtout liées à la complexité des logiciels et systèmes interfacés à l’outil de Deal,  ce fut encore une fois un succès. Michel Le Friant regarde déjà vers l’avenir. La prochaine étape va consister à étendre Caliance Céréales aux usines  et aux autres structures qui ont prévu de rejoindre Caliance dès cette année.

Le risque atmosphère explosive

L’employeur doit prendre les mesures techniques et organisationnelles appropriées à son type d’exploitation sur la base des principes de prévention ci-dessous, et dans l’ordre de priorité suivant : empêcher la formation d’atmosphères explosives / si la nature de l’activité ne le permet pas, éviter l’inflammation d’atmosphères explosives / atténuer les effets nuisibles d’une explosion.Des mesures pour sécuriser le milieu du travail devront être prises, notamment la surveillance des zones à atmosphère explosive, la formation des salariés et la fourniture de vêtements de travail adaptés.

Détails de la procédure
Etape  1 – Identifier les zones ATEX
Il faut subdiviser en zones les emplacements où des atmosphères explosives peuvent se présenter.Il existe 2 types de zones atmosphères explosives ou ATEX : les zones gaz/vapeurs et les zones poussières. Pour chaque type de zones, 3 niveaux sont définis :
  • pour les zones gaz/vapeur :
    • zone 0 : emplacement où une atmosphère explosive consistant en un mélange avec l’air de substances inflammables sous forme de gaz, de vapeur ou de brouillard est présente en permanence, pendant de longues périodes ou fréquemment (exemple : ciel gazeux de cuve de liquide inflammable à bas point éclair),
    • zone 1 : emplacement où une atmosphère explosive consistant en un mélange avec l’air de substances inflammables sous forme de gaz, de vapeur ou de brouillard est susceptible de se présenter occasionnellement en fonctionnement normal (exemple : évent d’une cuve contenant un liquide à bas point éclair),
    • zone 2 : emplacement où une atmosphère explosive consistant en un mélange avec l’air de substances inflammables sous forme de gaz, de vapeur ou de brouillard n’est pas susceptible de se présenter en fonctionnement normal ou, si elle se présente néanmoins, elle n’est que de courte durée (exemple : cuvette de rétention d’une cuve aérienne de liquide inflammable à bas point éclair : présence d’une atmosphère explosive en cas de fuite dans la cuvette) ;
  • pour les zones poussières :
    • zone 20 : emplacement où une atmosphère explosive sous forme de nuage de poussières combustibles est présente dans l’air en permanence, pendant de longues périodes ou fréquemment (exemple : intérieur d’un transport pneumatique convoyant de la poudre combustible),
    • zone 21 : emplacement où une atmosphère explosive sous forme de nuage de poussières combustibles est susceptible de se présenter occasionnellement en fonctionnement normal (exemple : orifice de chargement d’une trémie),
    • zone 22 : emplacement où une atmosphère explosive sous forme de nuage de poussières combustibles n’est pas susceptible de se présenter en fonctionnement normal, ou, si elle se présente néanmoins, n’est que de courte durée (exemple : sortie d’un filtre à manche séparateur d’un transport pneumatique, risque de passage de poussière en cas de perçage de manches).
La réglementation ne définit pas explicitement le sens des termes : fréquemment, occasionnellement et fonctionnement normal. Certains organismes professionnels en France (Union des industries chimiques, Groupe d’étude de sécurité des industries pétrolières, etc.) ont adopté les définitions suivantes :
Zone Durée d’apparition de l’atmosphère explosive
Zone 0 ou Zone 20 > 1000 heures par an
Zone 1 ou Zone 21 Entre 10 et 1000 heures par an
Zone 2 ou Zone 22 Inférieur à 10 heures par an
Pour la zone 2, l’apparition doit résulter d’un fonctionnement anormal de l’installation. On retrouve les mêmes valeurs dans d’autres pays d’Europe.Téléchargez le livre blanc
Etape  2 –  Evaluer les zones à risque d’explosion (ZRE)
Plusieurs approches sont possibles pour déterminer les zones.La détermination par la mesure (à l’explosimètre)Une des méthodes les plus simples pour déterminer l’étendue d’une zone est d’utiliser un explosimètre et de faire des mesures pendant les phases d’exploitation.La détermination « à l’œil » pour les poussièresPour les poussières, il est possible de délimiter les zones 1 en observant l’installation. En effet, un nuage explosif de poussière (plusieurs dizaines de grammes par m3) est fortement opaque. Il est impossible de voir à travers un nuage de 1 m. En observant le fonctionnement de l’installation, notamment les phases de vidange ou de chargement de sacs, il est possible d’avoir une bonne idée de la dimension des zones générées.Une zone 22 est définie si des dépôts de poussière sont constatés au sol sur les structures (dépôts de plus de 1 mm ou suffisants pour masquer des motifs au sol). Cette poussière peut se soulever en cas de choc dans l’installation (ou de première explosion dans l’appareil).La détermination par le calculOn utilise un calcul de dispersion atmosphérique afin de déterminer la distance à laquelle la dispersion fait passer le flux de gaz ou vapeur sous la limite inférieure d’inflammabilité.
Etape  3 – Représenter l’évaluation
La forme est libre, mais il est conseillé de présenter l’évaluation sous la forme d’un tableau. L’analyse se présente atelier par atelier, chantier par chantier, etc., sous forme d’un tableau avec un récapitulatif des équipements qui sont sources de fuites de produits dangereux et les éléments suivants.Vous donnerez tout renseignement utile, notamment la présence d’une détection, les asservissements installés, l’utilisation de l’inertage ou la présence de dispositifs limitant les conséquences d’une explosion. Seules les zones classées sont normalement mentionnées. Une zone non spécifiquement mentionnée doit être considérée comme hors zone (bureaux, locaux sociaux, routes, espaces verts).
Etape  4 – Reporter les zones explosives sur un plan
Il peut être utile de reporter les zones sur un plan de masse de l’usine ou de l’atelier, afin d’avoir une visualisation plus simple et plus rapide. Le plan de zone permet notamment de visualiser les espaces hors zone. On utilisera un code couleur ou un code de hachures pour différentier les zones.Le standard habituel est :–   hachures simples pour zone 2 ; –   hachures croisées pour zone 1 ; –   ronds (ou croisillons) pour la zone 0.Un plan de zone a toutefois ses limites. Une zone est un espace tridimensionnel (surface / hauteur), voire quadridimensionnel si l’on intègre la période ou les conditions d’apparition. Ces renseignements sont difficilement traduisibles sur un plan, qui est le plus souvent en deux dimensions. C’est pour cette raison qu’un tableau est nécessaire. Le plan de zone ne sera qu’un outil indicatif.
Etape  5 – Faire le lien avec le document unique
L’évaluation du risque lié aux atmosphères explosives est, d’après la réglementation, à intégrer dans le document unique d’évaluation du risque. Dans la pratique, il est conseillé de faire l’évaluation ATEX sur un document séparé, qui sera un document de référence pour les services techniques et d’exploitation.Les résultats de l’évaluation du risque ATEX doivent être communiqués sous forme appropriée au CHSCT et au médecin du travail.
Notre conseil
Tenez compte du retour d’expérience en matière d’incendie et d’explosion. En effet, il n’existe pas de méthode réglementaire pour la définition des zones ATEX : confrontez votre expérience et celles d’entreprises avec une activité similaire à la vôtre et n’hésitez pas à vous appuyer sur votre contact de la caisse régionale d’assurance maladie (CRAM) qui pourra vous aider pour cette définition.Source : Schémas commentés santé sécurité au travail > La fourniture d’équipements de protection individuelle Editions Tissot : droit du travail  – convention collective syntecEn partenariat avec les Editions TissotSpécialiste en droit du travail depuis 35 ans, les Editions Tissot vous proposent de découvrir leurs publications en santé sécurité au travail et les conventions collectives relatives à votre domaine d’activité. Découvrez également les programmes de formation santé sécurité au travail, et plus particulièrement la formation Evaluer et gérer le risque ATEX.  

Un réseau de recherche et technologie pour les batteries unique en France

Sous l’impulsion de l’Alliance Nationale de Coordination de la Recherche pour l’Energie (ANCRE), celui-ci va rassembler les principaux acteurs de la recherche publique et les industriels. Principaux objectifs de ce réseau : réduire les délais de transfert des connaissances des laboratoires vers l’industrie, offrir aux industriels une vision claire des projets des différents laboratoires, enfin définir une stratégie scientifique ambitieuse partagée entre ces différents acteurs. Ainsi les industriels auront désormais la possibilité d’accéder directement à l’ensemble des découvertes et des brevets issus des centres de recherche et de nouer des partenariats avec un ou plusieurs laboratoires du réseau.Ce réseau national s’appuiera sur deux centres de recherche, un centre de recherche amont et un centre de recherche technologique, qui travailleront en étroite collaboration. Le centre de recherche amont aura pour mission d’explorer les nouveaux concepts de batteries et plus particulièrement les matériaux à hautes performances. Piloté par le CNRS, il sera constitué de 8 laboratoires français parmi lesquels le Laboratoire de Réactivité et Chimie des Solides (Université de Picardie Jules Verne/CNRS), dirigé par Mathieu Morcrette, au sein duquel travaille le professeur Jean-Marie Tarascon, un chercheur mondialement réputé à qui l’on doit les batteries plastiques lithium-ions actuellement commercialisées.Rappelons que cet universitaire oeuvre depuis plusieurs années pour fédérer la recherche française et européenne dans le domaine des batteries avec, en particulier, la création, en 2007, du laboratoire virtuel européen (ALISTORE-ERI) qui recherche (23 universitaires européens), valorisation (création d’un club industriel européen rassemblant 14 industriels) et formation (master européen labellisé Erasmus Mundus en 2007). De son côté, le centre de recherche technologique, piloté par le CEA, testera et validera les concepts de batterie issu du centre de recherche amont. Pour l’essentiel il s’appuiera sur les activités du CEA/Grenoble-Chambéry avec le soutien notamment de l’IFP, de l’INERIS et de l’INRETS.Côté industriel, les principaux acteurs français impliqués dans le développement et l’industrialisation des batteries sont au nombre de 3 : SAFT, Batscap et la Société de Véhicules Electriques (SVE). SAFT est plutôt spécialisée dans la fabrication des batteries de haute technicité, notamment pour des systèmes spatiaux, aéronautiques et militaires. Pour sa part, Batscap, filiale de Bolloré et d’EDF, travaille sur la filière novatrice des batteries lithium Métal Polymère en s’appuyant sur son expérience dans la fabrication des films de polymères servant à l’emballage. Quant à SVE, créée ne 2002 par le Groupe Industriel Marcel Dassault, elle conçoit, développe et commercialise des systèmes batterie lithium-ion de haute performance et des systèmes de gestion de l’énergie pour véhicules électriques. SVE a notamment mené un programme d’expérimentation sur route de véhicules équipés de systèmes de traction électrique lithium-ion. 
Source :
Les bulletins électroniques

La démarche Lean de HelioVolt pour fabriquer des cellules solaires CIGS

Basée à Austin (Texas), la société HelioVolt fabrique des modules photovoltaïques solaires à couche mince destinés à être installés en toiture sur des bâtiments commerciaux, au sol pour des applications de fourniture d’énergie à plus grande échelle, dans le domaine résidentiel, dans les bâtiments intégrant les éléments photovoltaïques dans leur architecture (BIPV : Building Integrated Photovoltaics) et les installations sur mesure.C’est la première fois qu’une entreprise spécialisée dans les produits à film mince combine des produits à haute performance avec des capacités de fabrication à faible coût pour créer une nouvelle génération de modules solaires à base de CIGS (disélénure de cuivre-iridium-gallium). Les technologies à film mince (quelques microns) permettent de réduire la quantité (ou la masse) de matériau absorbant la lumière requise pour créer une cellule solaire. Il en résulte une baisse des coûts de production par rapport aux cellules classiques. « Notre processus de fabrication automatisé est pleinement intégré, depuis le substrat jusqu’au montage et au test du module final. Il  nous permet d’atteindre des rendements de fabrication élevés et des coûts plus faibles, plus rapidement qu’avec des technologies concurrentes », explique Iga Hallberg, Vice Président du développement commercial chez HelioVolt.

Une solution répliquée dans les nouvelles usines
En tant qu’entreprise nouvelle, HelioVolt avait besoin d’une solution qui puisse être aisément répliquée dans ses nouvelles usines, mais aussi d’une solution permettant de garantir l’évolutivité du stockage de données pour au moins 30 ans, ceci pour répondre aux exigences de garantie. En outre, la fabrication de gros volumes était nécessaire afin de réduire les coûts tout en préservant la qualité. « HelioVolt avait une échéance stricte à respecter dans ce projet pour satisfaire ses investisseurs, si bien que seule une solution clef en main incluant une offre de services rapide et efficace pouvait lui convenir », indique Erik Udstuen, directeur de la branche progiciels et services de GE Intelligent Platforms. «  La suite logicielle Proficy de  GE Intelligent Platforms fournit une solution complète de fabrication de type Lean apportant la souplesse nécessaire pour pouvoir ajouter des équipements et mettre en œuvre des procédures de travail optimisées, tandis que HelioVolt étend ses activités. » Le système logiciel utilisé chez HelioVolt est constitué par cinq éléments de base de la suite Proficy qui apportent à l’entreprise une redondance robuste, une meilleure sécurité des données, des informations fiables et une meilleure maîtrise de chaque aspect de la production grâce à un meilleur accès aux données critiques. En mettant à la disposition des opérateurs des outils de visualisation basés sur le Web et des outils d’analyse en temps réel, ceux-ci sont en mesure de participer à l’augmentation de l’efficacité globale de la fabrication et d’optimiser les processus en temps réel, réduisant ainsi les coûts et augmentant la rentabilité. « La solution Proficy nous aide à maintenir au plus haut niveau le rendement et le débit de l’usine, tout en garantissant la qualité. Au bout du compte, cela débouchera sur des modules solaires plus performants, en offrant à nos clients un meilleur rapport qualité-prix » conclut Iga Hallberg.Marc Chabreuil

Optimisation des performances des architectures multi-cœurs

L’optimisation des algorithmes mathématiques et statistiques pour un maximum de performances sur les architectures multi-cœurs est devenue cruciale pour de nombreuses applications en recherche scientifique, en analyse quantitative pour la finance, en modélisation et simulation pour l’ingénierie, en recherche pharmaceutique ou en génomique. « La plupart des processeurs utilisés aujourd’hui sont multi-cœurs et donnent le meilleur d’eux même quand ils sont programmés avec des techniques de parallélisation. Si vous n’utilisez pas des fonctionnalités optimisées pour du multi-cœurs, il y a même de grandes chances pour que vos applications s’exécutent plus lentement » avertit David Cassell, Product Marketing Manager, NAG. Organisation à but non lucratif dédiée au développement de logiciels de calcul numérique en partenariat avec les plus grands chercheurs et praticiens du monde universitaire et de l’industrie, le Numerical Algorithms Group (NAG) offre aux analystes en données d’entreprise et en finance, aux chercheurs scientifiques et aux ingénieurs qui veulent profiter au mieux de la puissance de calcul offerte par les architectures multi-cœurs, tout en migrant facilement leurs applications existantes vers ces architectures, la possibilité de télécharger la nouvelle Librairie Numérique NAG pour SMP et Multi-Cœurs. Elle contient environ 1600 fonctionnalités numériques, dont plus de 100 sont totalement nouvelles dans cette version.Les algorithmes parallèle de NAG sont fiables et robustes« La Librairie NAG pour SMP et multi-Cœurs a aussi été pensée pour faciliter au maximum la migration d’applications séquentielles vers le monde parallèle, grâce à des conventions d’appel et à une documentation communes. Concrètement, cela veut dire que les utilisateurs peuvent rapidement bénéficier des performances qu’offre le calcul parallèle, sans être obligatoirement expert dans le domaine », précise David Cassell.Dr. Hartmut Schmider de l’équipe de support du laboratoire de calcul hautes performances de la Queen’s University, Kingston, Ontario, déclare, pour sa part : « La Librairie NAG est un très bon outil pour travailler sur architecture multi-cœurs en raison de la fiabilité de ses mécanismes parallèles. C’est aussi en raison de son interface commune avec celle de la librairie séquentielle NAG. Les utilisateurs peuvent ainsi accélérer leurs codes sur de nombreuses architectures multi-cœurs différentes, tout en réduisant au maximum le travail à fournir ».De nombreux utilisateurs à travers le monde qui convertissent leurs applications sur des architectures multi-cœurs ont confiance dans les algorithmes parallèles de NAG parce qu’ils savent que ces algorithmes sont fiables et robustes. Les meilleures performances que promet le calcul parallèle ne sont pas sans challenges pour le débogage, la synchronisation de threads… L’expertise de NAG est validée depuis de nombreuses années par ses travaux effectués auprès des grandes organisations internationales spécialisés dans le calcul intensif. La plupart des fonctionnalités offertes par la Librairie NAG pour SMP et Multi-Cœurs trouvent leur origine dans ces travaux.Marc Chabreuil

RoboCup 2010 à Singapour, le robot officiel est français

http://www.bulletins-electroniques.com/actualites/64098.htm

RoboCup 2010, la compétition

Singapour a accueilli, du 19 au 25 juin 2010, l’événement « RoboCup 2010 », avec le robot français Nao d’Aldebaran Robotics, comme partenaire officiel. Cet événement rassemble chaque année près de 3.000 chercheurs et étudiants de 40 pays. Les participants se sont affrontés lors de parties de football. Des simulations d’aide à la personne ont également eu lieu.La RoboCup 2010 est une compétition internationale permettant à des équipes de recherche du monde entier de s’affronter et de tester leurs travaux. Elle accueille également des ateliers, des expositions et des conférences autour de la robotique et de l’intelligence artificielle. Sa première édition a eu lieu en 1992 et son but ultime est de développer une équipe de robots humanoïdes totalement autonomes qui pourront jouer et gagner contre l’équipe de football championne du monde en 2050.

Aldebaran Robotics, le fournisseur de robots

Depuis 2008, la société française Aldebaran Robotics a fournit ses robots Nao a environ deux cents des plus prestigieux établissements d’études supérieures: Stanford Research Institute, Harvard, Supelec, Ecole des Arts et Métiers, KAIST en Corée, Tsukuba University au Japon… Nao est utilisé dans plus de 27 pays et 85% des ventes ont lieu à l’étranger. Il existe deux filiales à l’étranger, la première à Boston et la seconde à Shanghaï.Nao possède une interface de programmation adaptable au niveau de compétences de l’utilisateur. L’un des objectifs d’Aldebaran Robotics est ainsi d’encourager les étudiants à s’orienter vers une carrière scientifique et de créer des nouveaux emplois autour de cet outil innovant.

« Les trois mousquetaires », l’équipe française à la Robocup 2010

Depuis sa création, la RoboCup réunit scientifiques et étudiants d’institutions de renommées mondiales autour d’une plateforme unique. A nouveau cette année, les candidats ont fait preuve de créativité et de réactivité pour valoriser leur travail et leurs compétences dans ce championnat. La France était représentée par l’équipe des « Trois mousquetaires » en référence au roman d’Alexandre Dumas, qui a terminé en milieu de classement. Les quatre robots se prénomment respectivement D’Artagnan, Aramis, Athos et Porthos.Leur objectif est de rendre ces robots bipèdes le plus autonomes possible, afin qu’ils soient capables de se repérer dans un environnement inconnu à priori, en réalisant une cartographie du lieu, et de se déplacer d’un endroit à un autre en évitant les obstacles sur leur chemin. Pour cette équipe, la participation à RoboCup 2010, dans la catégorie plateforme standard fut l’occasion de tester leur savoir-faire sur un terrain de football adapté. Pour cette édition 2010, l’équipe des Universités de Paris VIII et de Versailles Saint Quentin-en-Yvelines, intégrait des étudiants espagnols des Universités de Murcia et de Valencia. A partir de stratégie simple, leur objectif premier était d’arriver à faire jouer leurs robots au football correctement, sans mouvements incontrôlés.

En marge de la compétition

La quatorzième édition du symposium international RoboCup s’est tenue en parallèle de la compétition. Ce symposium permet des discussions et échanges scientifiques autour d’une diversité de domaines de recherche associés à l’ensemble des divisions de la RoboCup. Interdisciplinaire, il ne se limite ainsi pas uniquement aux activités de recherche et d’enseignement dans les domaines de la robotique et intelligence artificielle et permet de confronter théorie et pratique.En parallèle de la compétition et de ce symposium, diverses activités et expositions ont également été organisées. Par exemple, un café scientifique sur la robotique, animé par l’équipe des « Trois mousquetaires », s’est déroulé le 25 juin 2010 au Singapore Science Centre. Ce fut l’occasion de découvrir les travaux de recherche de l’équipe et les capacités dont ils ont doté leurs robots, pour le plus grand bonheur des petits et des grands.

Conclusion

Le caractère expérimental et interactif de la RoboCup est l’occasion de diffuser des idées nouvelles et de technologies prometteuses, qui sont rapidement adoptées et testées sur le terrain par une communauté de professionnels toujours croissante.Plus généralement, les chercheurs investis dans le domaine de la robotique ont pour objectif d’amener des robots bipèdes à opérer dans un environnement inconnu, afin d’acquérir de nouvelles compétences et effectuer, en toute autonomie, des tâches utiles dans le quotidien. Ces robots pourront être utilisés par des personnes âgées ou handicapées à leur domicile.


Pour en savoir plus, contacts
– Site Internet de Aldebaran Robotics : www.aldebaran-robotics.com
– Site Internet de RoboCup 2010 Singapore : www.robocup2010.org

Origine
BE Singapour numéro 69 (22/07/2010) – Ambassade de France à Singapour / ADIT – http://www.bulletins-electroniques.com/actualites/64098.htm

Claudie Haigneré : « Toute société s’enrichit de sa diversité »

(Cet article a été initialement publié le 07/07/10 sur Maviepro.fr)

Vous êtes la marraine des P’tits Déjeuners de la Science [1] organisés par le Groupe Insa. Pourquoi avoir pris part à cette manifestation ?
Claudie Haigneré : Parce que cette opération se trouve très en lien avec ma volonté de longue date de porter le plus haut possible ce problème du lien entre sciences et société. Il se trouve par ailleurs parfaitement en phase avec la vocation d’Universcience [2], qui veut notamment intéresser aux sciences le jeune public et particulièrement les jeunes femmes.

Comment expliquez-vous la faible place des femmes ingénieurs en France mise une fois de plus en avant dans l’enquête 2010 du CNISF sur la situation des ingénieurs en France [3] ?
Alors que les jeunes filles sont majoritaires en baccalauréat scientifique et bien souvent mieux notées, elles n’intègrent que très peu les écoles d’ingénieurs… Un étrange paradoxe. Nous constatons aussi l’abandon d’un certain nombre d’entre elles en cours de carrière. Troisième problème, que des femmes expérimentées et compétentes ne soient pas toujours reconnues à leur vraie valeur.

Les causes de cette situation ?
Un certain manque de confiance des jeunes filles en leurs capacités, une image peu valorisante de l’ingénieur qui n’est plus en rapport avec l’actualité mais aussi la crainte de se trouver confrontées à des carrières qui ne leur permettront pas de s’épanouir.

Comment remédier à ces blocages ?
Jeune médecin, j’avais pourtant eu le sentiment en voyant la parfaite mixité des bancs de la Fac que le problème de la diversité avait été résolu ! Il faudra pourtant encore beaucoup de volontarisme pour faire changer les choses. Et sans être pour une politique de quotas prédéterminés, je pense qu’il faut être volontariste pour mieux faire connaître ces métiers, et donner la possibilité aux femmes de mener de front vie professionnelle et personnelle. Par la mise en place de crèches d’entreprise mais aussi des réunions placées en milieu plutôt qu’en fin de journée, sans parler de congés maternité qui n’entraveraient pas les carrières…Il faut d’autre part travailler à une meilleure reconnaissance des femmes et de leurs expertises, et davantage leur donner la possibilité d’appartenir à des instances de décision. Et si à compétence et capacité de travail équivalentes, on trouve une femme remarquable aux côtés d’hommes remarquables, pourquoi ne pas la privilégier dans le choix de recrutement ?
Qu’est-ce que les femmes pourraient finalement apporter de plus au monde de l’ingénieur ?
Je l’ai vécu dans l’aéronautique, dans le domaine spatial, mais aussi dans certains conseils d’administration, inclure ne serait-ce qu’une seule femme dans une équipe entraîne une modification dans la façon d’analyser des problèmes et enrichit la prise de décision. Mais une seule femme, ce n’est pas assez. Toute société s’enrichit de sa diversité .

De quelle manière vous engagez-vous dans la promotion des femmes dans le monde de l’ingénieur ?
Je suis toujours volontaire pour rencontrer des auditoires de jeunes filles et évoquer avec elles mon parcours. Je participe par ailleurs à des opérations comme le programme L’Oréal Unesco Pour les Femmes et la Science [5] qui récompense des chercheuses émérites. Je me suis aussi engagée avec TV5 Monde sur le concours Sensationnelles [6] 2010-2011. Sans parler de la mise en place du prix Irène Joliot-Curie [7] pour la reconnaissance des parcours des jeunes femmes en entreprise ou encore dans le domaine scientifique. Lorsque j’étais ministre de la Recherche, j’avais enfin lancé des études sur la place des femmes dans la recherche publique et dans la recherche privée.Propos recueillis par Antoine Teillet pour Maviepro.fr (article initialement publié le 07/07/10) A lire aussi
  • Femmes ingénieurs : la bataille n’est pas encore gagnée !
  • L’énergie, seul secteur à dynamiser l’emploi des ingénieurs (sur l’enquête du CNISF)
  • « Les ingénieurs et les scientifiques ont un rôle moteur à jouer » (Interview de Julien Roitman, président du CNISF)
Liens  [1] www.ptitsdejeuners-science.com [2] www.universcience.fr [3] www.maviepro.fr/magazine/vie-pro/femmes-ingenieurs-la-bataille-n-est-pas-encore-gagnee [4] www.maviepro.fr/magazine/vie-pro/claudie-haignere-toute-societe-s-enrichit-de-sa-diversite?page=0,1 [5] www.femmescience.fr [6) www.tv5.org [7] www.maviepro.fr/magazine/vie-pro/un-prix-pour-les-femmes-scientifiques

Davantage de prévention pour les produits phytosanitaires

Maryvonne Guidon Le Brun anime la formation Réglementation Produits phytosanitaires 2010 de Techniques de l’ingénieur, dont la prochaine session aura lieu à Toulouse le 12 octobre 2010.

Techniques de l’ingénieur : Les produits phytosanitaires sont-ils des produits chimiques comme les autres ? Quelles sont leurs spécificités ?

Maryvonne Guidon Le Brun : La fonction des phytopharmaceutiques est de protéger la production agricole et les autres productions végétales (arbres, plantes d’agrément) en éliminant des organismes vivants nuisibles. L’inconvénient est qu’en fonction de la nature chimique, ils vont toucher un spectre d’organismes vivants plus large (y compris l’homme) et qu’une part importante du produit ne va pas sur la plante à traiter mais sur les produits de récolte, la végétation alentours, le sol, l’eau et l’air.

Quels sont les grands défis aujourd’hui dans le domaine des phytosanitaires ?

Le grand défi est de réduire l’impact sanitaire pour l’homme et l’environnement en améliorant l’efficacité et la sélectivité, en réduisant la toxicité et en en maîtrisant l’application, (choix et quantité des produits, modalités de mise en œuvre).

Jusqu’à quel point les phytosanitaires sont-ils impactés par REACH et CLP ?

Les obligations de REACH concernant le respect des usages autorisés et les conditions de mise en œuvre, en particulier les modalités d’application et les protections collectives ou individuelles, la fiche de données de sécurité, et les flux d’information dans la chaîne d’approvisionnement en amont comme en aval sont applicables. Les obligations de CLP concernant la classification, l’étiquetage et l’emballage sont également à prendre en compte.

Avec le Grenelle de l’environnement, quelles sont les nouvelles exigences en débat et à prévoir ? Est-ce cohérent par rapport au cadre réglementaire actuel ?

Le Grenelle ainsi que la transposition de nouvelles directives européennes renforcent les efforts de prévention déjà engagés et sont cohérents. Les principales exigences sont l’extension des agréments et formations aux applicateurs (agriculteurs et collectivités), l’interdiction de l’épandage aérien et dans les espaces fréquentés par le public, sauf exceptions strictement encadrées, le renforcement des certifications (HVE, forêt), le renforcement des mesures de protection des milieux (parcelles biologiques, trame verte, bleu, captages d’eau potable, air), l’encadrement strict de la gestion des déchets, et enfin, la promotion des modes de lutte alternatifs et complémentaires (macro-organismes). L’objectif principal est de réduire les quantités utilisées de 50 % à l’horizon 2018 (plan Ecophyto).

Comment s’y retrouver dans les ICPE depuis la disparition de la rubrique spéciale phytosanitaires ?

Pour ce qui est des stockages qui relevaient de la rubrique 1155, il suffit de faire l’inventaire des produits stockés en fonction de leur classe de risques et de les classer dans les rubriques correspondantes des séries 1XXX et de faire la demande de régularisation.

Où en est-on du Certiphyto qui tend à remplacer le DAPA ?

Les formations Certiphyto ont démarré au titre de l’expérimentation mais il ne sera obligatoire en 2014. Délivré pour 5 ans, tous les applicateurs devront en disposer à titre personnel (outre les distributeurs et conseillers), quel que soit leur statut (employeur, salarié). Il sera nécessaire pour acheter les produits. En attendant, le DAPA reste obligatoire.

Diplômée en génie des procédés industriels de l’Insa de Toulouse en 1990, Maryvonne Guidon Le Brun est  ingénieur-conseil en environnement et risques. Elle réalise depuis 20 ans des prestations management/réglementation en environnement et risques pour des industriels notamment en ISO 14001, OHSAS 18001, ISO 9001 (auditrice tierce partie) et risques majeurs.

Fondatrice de TLAZOL en 1996, elle développe le logiciel de veille réglementaire et management HSE NOPAL-TLAZOL depuis 2002. Depuis 2007, elle développe plus particulièrement les prestations et outils relatifs aux risques chimiques : diagnostics et assistance RECAH, CLP, exposition des travailleurs, évaluation des conséquences (modélisation) et maîtrise des accidents impliquant des substances dangereuses, formations et veille sur les réglementations substances.

Elle anime la formation Réglementation Produits phytosanitaires 2010 de Techniques de l’ingénieur, dont la prochaine session aura lieu à Toulouse le 12 octobre 2010.

1100 ans après, Cluny ressuscite virtuellement

La légende raconte que Gunzo, moine de Cluny au XIe siècle, vit en songe les proportions parfaites de la future Maior Ecclesia, construite à partir de 1088. Aujourd’hui, il ne reste qu’un dixième de ce qui a été la plus vaste église de la chrétienté, dont 8 % en élévation. Pour le visiteur qui vient parfois de loin, cela peut provoquer une certaine déception. Aussi, un Gadzart a-t-il à son tour fait un rêve, celui de restituer tout l’édifice en 3D. C’était à la fin des années 90. En 1990 – 1991 Christian Père, le Gadzart en question, a numérisé la grande église grâce au soutien d’IBM, ce qui a conduit à la production d’un film de 16 minutes Mémoires de Pierre, dont 4 minutes d’images de synthèse. Jean-Michel Sanchez et Julien Roger, deux anciens de l’Ensam, co-fondateurs d’On-Situ, sont ensuite repartis de la maquette numérique pour produire le film Maior Eclesia en 2004. « J’étais en poste chez EADS à Madrid, raconte Christian Père. J’avais gardé la maquette, mais il a été difficile de relire les données. »

La perspective du 1.100e anniversaire a constitué un prétexte pour un projet ambitieux d’une troisième version virtuelle du film Maior Ecclesia, l’antichambre du ciel (voir les photos). En 2005, Christian Père a rejoint l’Ensam et en 2007 Gunzo est lancé. « Il s’agit d’un projet de recherche et de valorisation, qui réunit une équipe pluridisciplinaire dans le but d’utiliser les technologies 3D au service du patrimoine », raconte Christian Père. Grâce à la réalité virtuelle, le visiteur peut visionner un film dans une salle d’immersion. « Le film doit transmettre une émotion, pour comprendre le pourquoi d’un édifice aussi grand à Cluny », explique-t-il. Grâce à la réalité augmentée, il peut visualiser sur le site la maquette numérique (voir les photos).

Une maquette numérique à l’échelle 1

Le but de Gunzo est aussi de proposer des outils de recherche pour les autres sites clunisiens. Dans un tout autre domaine, le projet trouve aussi des applications en architecture et génie civil. L’Ensam va d’ailleurs ouvrir à la rentrée un nouveau master spécialisé pour former les architectes aux outils et méthodologies 3D.

Issu d’un partenariat entre les Arts et Métiers de Cluny, le Centre des monuments nationaux et On-Situ, le projet s’avère particulièrement à la pointe, surtout avec une telle industrialisation puisque Cluny accueille 100.000 visiteurs par an. Le projet restitue l’église du XVe siècle, dans le prolongement de la restauration physique du transept. L’objectif est de pouvoir visualiser à l’échelle 1 une maquette virtuelle du bâtiment dans une salle d’immersion virtuelle, en étant debout. « Nous avons réussi à concilier le travail d’histoire de l’art et les outils virtuels », se félicite Christian Père.

Visites guidées virtuelles

Le modèle numérique apporte des avancées majeures avec une plus grande précision pour la partie en élévation (au centimètre, contre 10 à 20 cm pour la précédente version). « Nous avons numérisé les fragments lapidaires, ce qui a permis de faire une hypothèse sur le décor sculpté », complète le chercheur. Un travail plus riche a également été effectué sur les fresques et les enduits. Une étudiante en thèse doctorale étudie la polychromie de la grande église pour retrouver la couleur originelle à partir de fragments lapidaires. Un musicologue effectue également une recherche sur les chants, ce qui permettra d’améliorer l’immersion virtuelle grâce à la composante sonore. En plus de la réalité virtuelle, le projet est également à la pointe en réalité augmentée avec trois bornes intégrées dans le circuit de visite, qui fonctionnent toute l’année, quelle que soit la météo. Une quatrième sera prochainement installée.

Toutes ces réalisations se concrétisent au moment du 1.100e anniversaire de l’abbaye, mais elles ne représentent pas un aboutissement. « Je rêve que l’on puisse se déplacer virtuellement dans la maquette à l’échelle 1 grâce à un joystick dans la salle d’immersion, conclut Christian Père. Cela permettrait de faire des visites guidées. On devrait en être capable dans quatre ou cinq ans. » Et dans quatre ou cinq ans, de nouvelles technologies laisseront sûrement le champ ouvert à de nouveaux défis…

Maior Ecclesia, l’antichambre du ciel

Troisième version du film initié par Christian Père, Maior Ecclesia, l’antichambre du ciel est projeté dans une salle d’immersion de l’abbaye de Cluny. La salle dispose d’une capacité de 60 à 70 places, les spectateurs se munissent de lunettes face à un écran de 7 m. La durée se limite à 10 min pour éviter trop d’attente pour les visiteurs. Une version longue du film sera diffusée à Cluny le 11 septembre 2010 en soirée, dans le parc de l’abbaye, à l’occasion du 1.100e anniversaire.

Maior Ecclesia, l’antichambre du ciel / 2010 / Avant-nef Arts et Métiers ParisTech Projet Gunzo / on-situ / CMN

Vue aérienne sur la grande Eglise en réalité augmentée et l’abbaye Arts et Métiers ParisTech Projet Gunzo / on-situ

La réalité augmentée à Cluny

La réalité augmentée permet de restituer une partie du monument, seuls 8 % de l’église étant encore en élévation. Trois bornes sont en fonctionnement toute l’année, quel que soit le temps. Une quatrième borne sera prochainement installée dans le transept, actuellement en travaux. « Je rêve d’une borne dans le vestige de la grande nef qui montrerait le tympan, commente Christian Père, responsable du projet Gunzo. Ce serait un point de vue remarquable. Mais c’est délicat car il s’agit d’un espace entièrement public. »

Image de l’avant-nef en réalité augmentée Arts et Métiers ParisTech Projet Gunzo / on-situ

Arts et Métiers Paris Tech / on-situ

Ray-on / 2009 / Petit collatéral Arts et Métiers ParisTech Projet Gunzo / on-situ / CMN

Ray-on / 2009 / Tour des fromages / Cluny Arts et Métiers ParisTech Projet Gunzo / on-situ

En savoir plus

  • Le site du projet Gunzo : cluny-numerique.fr
  • Le site de l’Institut image de l’Ensam : www.ai.cluny.ensam.fr
  • Le site de l’Ensam Cluny : www.ai.cluny.ensam.fr
  • Le site du 1100e anniversaire : www.cluny2010.eu
  • L’office de tourisme : www.cluny-tourisme.com

DIAPORAMA – Solar Impulse fait le tour du cadran

[1/9] – Le 8 juillet 2010, l’avion solaire a effectué un vol de 26 heures avec une personne à bord, en fonctionnant uniquement à l’énergie solaire. Un premier vol de plus de 24 heures avait été programmé une semaine plus tôt mais il avait été annulé à cause d’une rupture du système de transmission télémétrique.

L’avion solaire HB-SIA a décollé le 7 juillet à 7 h de la base militaire de Payerne, près du lac de Neuchâtel. Ce n’est pas le premier avion solaire mais à ce jour aucun de ses prédécesseurs n’a réussi à passer une nuit en vol avec un pilote à bord.

 

reference

© Solar Impulse

[2/9] – Le défi Solar Impulse a été lancé en 2003 par les pilotes et aventuriers Bertrand Piccard et André André Borschberg. Leur rêve ? Effectuer un tour du monde en cinq escales en 2013 en utilisant uniquement l’énergie solaire. Les Suisses relèvent non seulement un défi scientifique mais aussi écologique.

Présenté en juin 2009 au public, le prototype du premier avion, HB-SIA, pèse 1.600 kg pour une envergure de 64 m, une longueur de 21,85 m et une hauteur de 6,40 m. Il possède quatre moteurs électriques de 10 chevaux chacun. Sa vitesse moyenne est de 70 km/h, avec un plafond à 8.500 m.

 

reference

© Solar Impulse / Keystone Pool Dominic Favre

[3/9] – Le design de Solar Impulse a été soigneusement étudié pour un rendement maximum et pour résister aux conditions hostiles que subissent les matériaux et le pilote en vol.

L’avion est construit autour d’un squelette en matériau composite (fibre de carbone et nid d’abeille en sandwich). La surface supérieure des ailes est couverte de 11.628 cellules photovoltaïques en silicium monocristallin ultrafines (130 μm).

 

reference

© Solar Impulse / Stéphane Gros

[4/9] – Les moteurs électriques sont situés sous les ailes, ainsi qu’une batterie de 70 accumulateurs et un système de gestion de la charge/décharge ainsi que de la température.

L’isolation thermique permet de conserver la chaleur émise par les batteries malgré des températures de l’ordre de -40 °C en vol. Les hélices bipales, de 3,5 m de diamètre, tournent à une vitesse de 200 à 400 tr/min.

 

reference

© Solar Impulse / AFP / Pool / Fabrice Coffrini

[5/9] – Un deuxième avion, le HB-SIB, sera réalisé en 2011. Il disposera d’une cabine pressurisée permettant d’effectuer des vols de longue durée. Le tour du monde est prévu pour 2013. Il sera décomposé en cinq escales, avec des vols 3 à 4 jours, le maximum possible pour un pilote. Le HB-SIB sera plus grand que le HB-SIA et composé de matériaux plus légers. Il disposera d’un pilote automatique pour que les pilotes puissent se reposer sur un siège inclinable.

L’équipe du projet n’exclut pas de fabriquer un troisième avion si nécessaire, ce serait alors le HB-SIC (HB est le préfixe des immatriculations d’aéronefs suisses, SI signifie Solar Impluse et la lettre désigne la version du prototype).

 

reference

© Solar Impulse / Stéphane Gros

reference

© Solar Impulse / Stéphane Gros

[6/9] – Le 8 juillet, l’avion Solar Impulse a atterri vers 9 h du matin sur la base militaire de Payerne, avec à son bord le pilote André Borschberg. Ce premier vol de plus de 24 heures est un grand succès et une première scientifique. L’avion a pu charger ses batteries pendant la journée et voler toute la nuit grâce à l’énergie stockée. Le vol a été réalisé en moyenne à la vitesse de 23 nœuds (50 km/h) et à l’altitude de 8.564 mètres.

« Au lever du soleil, il restait plusieurs heures de réserves dans les batteries. Oui, les énergies renouvelables et les cleantechs peuvent réaliser l’impossible ! Nous avons eu raison de parier sur notre conviction », a écrit Bertrand Piccard sur le blog de Solar Impulse, le 8 juillet.

 

reference

© Solar Impulse / Stéphane Gros

[7/9] – Avec un budget de 75 millions d’euros, Solar Impulse réunit de nombreux partenaires, dont les principaux sont le groupe chimique Solvay, l’horloger Omega et la banque d’investissement Deutsche Bank. L’Ecole polytechnique fédérale de Lausanne (EPFL) est conseillère scientifique du projet. 

Basé à Dübendorf et à Lausanne, le projet Solar Impulse fait travailler une équipe de 70 personnes, des spécialistes provenant de six pays, ainsi que de nombreux conseillers extérieurs.

 

reference

© Solar Impulse / Stéphane Gros

reference

© Solar Impulse / AFP / Pool / Fabrice Coffrini

[8/9] – Pour ce premier vol de plus de 24 h, le HB-SIA a été piloté par André Borschberg. Né en 1952 à Zurich, il est pilote professionnel d’avion et d’hélicoptère. Diplômé de l’Ecole polytechnique fédérale de Lausanne et licencié du MIT, il a été pilote de chasse des forces aériennes suisses sur des avions de type Venom, Hunter et Tiger.

André Borschberg et Bertrand Piccard se sont rencontrés en 2003, ils ont annoncé leur défi après une étude de faisabilité à l’EPFL.

 

reference

© Solar Impulse / Keystone Pool Dominic Favre

[9/9] – La famille Piccard s’est déjà illustrée au cours de l’histoire. Auguste Piccard (1184 – 1962) était physicien – océanographe, océanaute et aéronaute. Il a battu le record du monde en atteignant 16.000 m d’altitude dans la stratosphère en ballon libre. Son frère jumeau Jean (1884 -1963) était également aéronaute. Fils d’Auguste, Jacques Piccard (1922 – 2008) était, lui aussi, océanaute. Il a battu le record du monde de plongée sous-marine en 1960 en atteignant 10.916 m dans la fosse des Mariannes, à bord du bathyscaphe Trieste. Né en 1958 à Lausanne, Bertrand Piccard, marié et père de trois enfants, mène en parallèle trois carrières : médecin psychiatre, aéronaute et conférencier. Il a effectué le premier tour du monde en ballon sans escale en 1999, avec le Britannique Briand Jones, en 19 jours 21 h et 55 min.

(Sur la photo, trois génération : Jacques, Auguste et Bertrand)

reference

© Archives de la famille Piccard

 

En savoir plus

Le site de Solar Impulse : www.solarimpulse.com

Le blog : www.solarimpulse.com/blog

Solar Impulse TV : www.solarimpulse.com/sitv

Sur Wikipedia : fr.wikipedia.org/wiki/Solar_Impulse

Le site commun avec l’EPFL : solar-impulse.epfl.ch/

 

Diaporama réalisé par Corentine Gasquet

Le ballon de la coupe du monde « trop rond » ?

Le ballon Jabulani, utilisé lors de la récente coupe du monde de foot-ball en Afrique du sud, a éveillé la curiosité des scientifiques. Très critiqué par les joueurs (surtout les gardiens de but) pour ses trajectoires « imprévisibles », « changeantes », le ballon a donc été étudié sous toutes les coutures par des laboratoires scientifiques. Ainsi, des unités de recherche australiennes, japonaises et françaises (une unité de recherche du CNRS à Marseille), se sont penchés sur l’analyse des trajectoires du fameux ballon.Eric Berton est directeur adjoint de l’Institut des sciences du mouvement, une unité de recherche mixte du CNRS à Marseille. Il nous explique ce qui selon lui fait la particularité de ce ballon, développé spécialement pour la coupe du monde : « Les coutures de Jabulani sont internes, le ballon ressemble donc à une sphère parfaite ». Le Jabulani serait donc trop rond. Il s’agit d’une évolution assez particulière au niveau des sports de balle. En effet, la couture interne n’était jusqu’ici pas à la mode : Au  tennis, au base-ball ou au golf, il y a des irrégularités sur la balle précisément pour qu’elle puisse avoir une trajectoire plus stable et plus contrôlable. Le lift au tennis ou le spin au base-ball donnent de l’effet à la balle et permettent au tireur de faire des trajectoires courbes. Ce n’est plus le cas avec le ballon Jabulani. Eric Berton reprend : « Lors d’une frappe avec le ballon Jabulani, le ballon ne tourne quasiment pas. Cela est du au fait que le temps de contact lors d’une frappe entre le ballon et le pied est extrêmement court.». Ainsi, le ballon n’a pas « d’effet », ce qui influe sur sa trajectoire. Elle est plus flottante, et plus imprévisible, car le fait de donner un effet à la balle permet de mieux contrôler sa trajectoire. Mais il est important de préciser que le côté aléatoire de la trajectoire du ballon développé pour la coupe du monde constitue une incertitude pour le gardien comme pour le tireur.  En fait, c’est plutôt la vitesse du ballon, qui serait la cause du trouble des joueurs. En effet, le ballon développé par Adidas aurait tendance à augmenter la vitesse du ballon, au moins durant la phase d’accélération du ballon.

Le ballon ralentirait de façon brutale

Des laboratoires scientifiques japonais ont fait des tests en soufflerie pour en savoir plus sur les conséquences aérodynamiques du ballon Jabulani. Et les conclusions coïncident avec celles présentées par l’unité de recherche du CNRS de Marseille : Le Jabulani se comporte comme une sphère parfaite, et ceci malgré son système « grip’n’groove » (voir illustration ci-dessous). Il s’agit d’une surface rugueuse sensée faciliter la prise en main du gardien. Les tests en soufflerie ont également permis aux chercheurs de collecter des informations sur a vitesse du ballon : il en résulte que c’est lors de la décélération du ballon que les problèmes d’instabilité surviennent. Le ballon ralentirait de façon non homogène, assez brutalement, c’est cela qui gêne les gardiens de but.D’autres éléments d’explication ont été amenés par des chercheurs australiens de l’université d’Adélaïde, en Australie. Grâce à des simulations informatiques, Le Professeur Derek Leinweber et son équipe ont réussi à conclure que la forme du ballon permet au ballon d’aller plus vite, à puissance égale, que ses prédécesseurs. De son côté, la marque Adidas, qui a développé Jabulani, fait de la forme sphérique parfaite un atout, et affirme que la volonté d’avoir un ballon le plus sphérique possible permet d’offrir aux attaquants une précision inédite.Enfin, outre la forme du ballon, les scientifiques insistent sur la situation particulière qu’ont rencontrée les joueurs en Afrique du Sud. En effet, une grande partie des stades étant située en altitude, la pression de l’air est moindre et participe à rendre les trajectoires plus rectilignes, et donc surprenantes pour les gardiens. Mais, comme le précise Eric Beton, « les conséquences de l’altitude sur la trajectoire du ballon sont minimes, si on les compare à celles directement liées à la forme du ballon ».

Quand la science réussit à faire parler Monna Lisa

Pas facile de conserver ou de restaurer l’une des oeuvres d’art les plus célèbres du monde, lorsque celle-ci garde jalousement ses secrets de fabrication et qu’il est hors de question de prélever des échantillons susceptibles de porter atteinte à l’intégrité du tableau. Il faut donc faire appel à des techniques non destructives, sans contact, portables et donnant si possible des résultats en temps réel. Quel est cet oiseau rare ? Les ondes électromagnétiques. Si plusieurs techniques répondent actuellement à ces besoins, il en est une particulièrement complète : la caméra multispectrale. C’est grâce à cette technique que La Joconde de Léonard de Vinci a été scannée en octobre 2004. Le résultat est à la hauteur des espérances. Nature des pigments utilisés par l’artiste, couleurs et détails originaux, composition du sfumato, technique à l’origine du glacis… Peu à peu Monna Lisa se raconte et se dévoile. Retour sur cette aventure tant technique qu’artistique avec Mady Elias, professeur à l’Université d’Evry Val d’Essonne, et Pascal Cotte, directeur scientifique de Lumière Technology SA dans un article de la collection Recherche et Innovation des Techniques de l’Ingénieur intitulé « La Joconde analysée à l’aide d’une caméra multispectrale ».Pour lire l’intégralité de l’article « La Joconde analysée à l’aide d’une caméra multispectrale » au format PDF, cliquez ici.Les auteursMady Elias, professeur à l’Université d’Evry Val d’Essonne (UEVE), anime le groupe « Optique et Art » à l’Institut des nanosciences de Paris (INSP) – Université Pierre et Marie Curie (UPMC) – UMR 7588 du CNRS.Pascal Cotte, directeur scientifique de Lumière Technology SA, auteur de la caméra multispectrale.

DIAPORAMA – Architecture de demain : vers le design vert

;Agence Snøhetta

L’histoire de Snøhetta, agence architecturale norvégienne, est marquée par le projet de rénovation de la bibliothèque d’Alexandrie. La bibliothèque a réveillé la culture cosmopolite d’Alexandrie, lui a rendu son rayonnement culturel. Son tambour de pierre massives enserre une salle de lecture creusée dans le sol en terrasses successives, sous une toiture en nid d’abeille orientée à l’est qui protège du soleil et assure une lumière constante. Les parois acoustiques et les sols en bois, le design soigné des mobiliers de lecture confortent l’intériorité et la paix qui règnent dans la grande salle. Le volume considérable est enterré aux deux tiers. Il affleure à peine sur la longue corniche horizontale de la baie d’Alexandrie (voir illustration ci dessous).

medium

Deux autres projets de l’agence norvégienne, l’opéra d’Oslo et le centre culturel Dahahran, témoignent de ce mariage entre design et préoccupations écologiques.

medium

medium

Agence Troppo Architects

Troppo Architects a été fondé en 1989 par Phil Harris et Adrian Welke, dix ans après qu’une recherche d’étudiants leur ait fait découvrir le Top End, à la pointe nord de l’Australie : climat tropical à saisons sèche et humide, ayant pour capitale Darwin. L’agence travaille avec les communautés aborigènes, pour des écoles, des maisons communes, travail précédé là aussi d’une étude attentive des traditions et du jeu avec le climat. Déjà porté à la frugalité constructive, Troppo découvre qu’on peut encore simplifier une structure, la rendre plus flexible aux usages, réalisable par les bushmen :

medium

medium

medium

Architecte : Junya Ishigami

L’architecture japonaise rayonne dans le monde entier, pour avoir ouvert depuis 25 ans la voie du minimalisme, comme une rigueur de pensée nouvelle après l’assèchement du Mouvement moderne. Sur cette scène exigeante, le jeune architecte Junya Ishigami fait irruption en mettant en question ce minimalisme même, qui serait devenu une rhétorique du made in Japan. Le travail de cet élève de Seijima interpelle par sa façon de retrancher encore du superflu, dans ses projets. Ishigami enlève ce qui formalise l’espace pour l’immerger dans la ville contemporaine et ses besoins, contradictoires et croissants, de diversité, de complexité et de fluidité.

La réponse est un quadrilatère de 47mx46mx5m. Le mur de verre qui ferme le quadrilatère est composé de panneaux verticaux, contreventés par des piliers étroits, tenus au sol et au plafond par deux feuillures minces. A l’intérieur, les colonnes qui supportent la toiture sont des feuilles d’acier minces aux profils variables, disposés irrégulièrement.

medium

medium

Architecte : Giancarlo Mazzanti

Qui, quand, consacrera à l’architecture colombienne contemporaine la présentation qu’elle mérite ? Le grand Rogelio Salmona n’a pas seulement signé une oeuvre en Colombie, il a construit une culture architecturale moderne appropriée à son pays, « endogène », fondée sur la brique comme matériau d’architecture et comme filière de développement. Cet héritage a fécondé l’architecture de ce pays, à Bogota, devenue « la ville rouge » grâce à la brique, à Medellin, Cali, Carthagène…

L’urgence urbaine appelle à l’invention et c’est au Sud que l’on mène les expériences les plus innovantes. La ville de Medellin est devenue depuis 15 ans un des symboles de ce basculement. Parmi plusieurs programmes lancés par le maire de Medellin Sergio Fajardo de 2003 à 2007, deux ont «cadré» le travail de Giancarlo Mazzanti. La première est le « Metrocable », réseau de tramways-funiculaires lancé sur les collines des favelas. Ce réseau a désenclavé ces zones de non-droit et de non-ville. Ses stations ont servi de point d’appui pour combattre un travail d’irrigation attentif et continu, créant des places, sécurisant des voies, offrant aux habitants des espaces publics commodes et sûrs. La seconde est la création des Bibliothèques-Parcs, réseau d’équipements culturels placés à des noeuds stratégiques (souvent en lien avec le Metrocable) pour ranimer la vie collective. Les Parque Bibliotecas offrent, outre des salles de lecture, des lieux de spectacle et des ateliers, des jardins publics et sûrs…

medium

medium

medium

medium

Architecte : Steve Baer

Steve Baer est né à Los Angeles en 1938, dans une maison pourvue d’un petit atelier où son père lui apprenait à manier des outils. La famille possédait aussi un ranch « où il y avait encore plus d’outils, une grue et une rivière. J’ai toujours été fasciné par l’eau, le vent et le pouvoir du soleil ». « Zome » est une déformation de « dôme ». Ce dernier est parfait, l’autre est irrégulier. Steve Baer, qui construit dès les années 60 des maisons « alternatives », laisse en effet de côté les structures exactes et magnifiques de Fuller. Il préfère des systèmes plus aisés à construire, à agréger, plus pragmatiques en un mot et adaptables aux habitants. La création de Drop City, en 1968 à Trinidad dans le Colorado, symbolise aujourd’hui encore le premier éveil écologique américain. La communauté et ses « droppers » construisent avec Steve Baer un ensemble de lieux de vie composé de 3 coupoles puis des dômes-logements, réalisés en ossature bois et recouverts de tôle récupérée. Un enduit goudronné étanche, une couche de polystyrène isole.

medium

medium

medium

La première unité de production française à énergie positive

Fabricant français de poutrelles utilisées pour la fabrication de planchers (gros œuvre), Isoltop propose un système constructif breveté constitué de poutrelles isolantes et légères qui permettent d’obtenir des performances thermiques record, allant au-delà de la règlementation thermique en vigueur. Face à l’augmentation de la demande, Isoltop a donc décidé de concevoir un ensemble de production automatisé qui nécessite la construction d’un nouveau bâtiment. Surtout, il a voulu que cette unité soit exemplaire d’un point de vue énergétique et s’est mis en quête, au début de l’année 2009, d’un partenaire solide et sérieux, afin de l’accompagner dans son projet de construction d’usine sur la partie photovoltaïque.

Le recours à l’énergie solaire est en effet au cœur du projet de l’entreprise, qui souhaite bâtir une usine-modèle, un prototype qui puisse ensuite avoir valeur d’exemple, et être dupliqué. Isoltop confie sa recherche à un bureau d’études qui va présenter 5 entreprises proposant des solutions photovoltaïques. Le groupe Tenesol est rapidement sélectionné : « Il était capital de choisir une entreprise fiable qui travaille sur les mêmes fondamentaux que nous », commente Patrice Riberolles, PDG d’Isoltop.

« Ce chantier est une très belle réalisation du groupe Tenesol, et le projet Isoltop doit servir d’exemple aux autres entrepreneurs. Il est aujourd’hui possible de produire mieux, et de façon plus responsable. Et l’énergie solaire est bien sûr au cœur de ces réflexions sur les bâtiments à énergie positive », ajoute Benoît Rolland, directeur général de Tenesol.

Pour cette nouvelle usine Isoltop, opérationnelle depuis le début de l’année 2010 et bâtie selon les nouvelles normes environnementales (isolation performante, chauffage/climatisation du site par géothermie, techniques de production économe en énergie…), les experts de Tenesol ont conçu une centrale de production photovoltaïque sur le toit du bâtiment, et installé près de 1.500 m2 de modules solaires, capables de produire 228.000 kWh/an, soit 190,26 kWc. L’équivalent de la consommation d’une soixantaine de logements !

En face de ce chiffre, la consommation pour le fonctionnement de l’usine est de 70.000 à 75.000 kwh/an dans des conditions de travail optimum y compris pour les personnes travaillant à la production. L’utilisation du complexe photovoltaïque, ainsi que la mise en place d’isolation performante, font de cette unité de production implantée à Entraigues sur la Sorgue (Vaucluse), la première usine à énergie positive de France. Elle produit en effet 3 à 3,5 fois plus d’énergie qu’elle n’en consomme. Forte de ce succès, l’entreprise Isoltop prévoit de dupliquer ce modèle dans le cadre de transferts de technologies avec des industriels du secteur du gros œuvre. Plusieurs autres lignes de production de poutrelles Isoltop seront donc lancées en France dans les années à venir. Chaque nouvelle unité de production, entièrement automatisée, pourra assurer la fabrication de 400.000 mètres linéaires de poutrelles isolantes par an.

Par Marc Chabreuil

Un contrat de professionnalisation pour les élèves-ingénieurs

Dès la rentrée de septembre, l’Ecole des Mines de Douai proposera à ses élèves-ingénieurs, quelle que soit leurs options d’enseignement, un contrat de professionnalisation. Créé par la loi du 4 mai 2004 sur la formation professionnelle tout au long de la vie, ce contrat a pour objectif de favoriser l’intégration des jeunes et des demandeurs d’emploi au sein des entreprises. Le principe est simple : un contrat est signé entre l’entreprise et l’élève et comprend en annexe une convention de formation entre l’Ecole des Mines de Douai et l’entreprise.

Durant le premier semestre de la dernière année du cursus d’ingénieur (octobre à février), l’élève en contrat sera en formation 3 jours par semaine à l’Ecole et 2 jours (jeudi et vendredi) en entreprise. Pendant ces deux journées, il réalisera un projet encadré pour l’entreprise, projet qui sera évalué par un jury au sein duquel l’entreprise sera représentée.

L’élève-ingénieur effectuera ensuite son projet de fin d’études dans cette même entreprise sur une période ininterrompue de 6 mois (de mars à septembre inclus) durant laquelle il sera possible de lui confier un projet d’envergure. Ce projet conclura sa formation à l’Ecole des Mines de Douai.

L’intérêt de ce dispositif est multiple. L’étudiant est salarié et perçoit une rémunération durant sa dernière année de scolarité à l’école. Quant à l’entreprise, elle dispose d’un ingénieur plus rapidement opérationnel, formé à ses méthodes. L’Ecole des Mines de Douai, elle, finance son développement et resserre ses liens avec l’industrie. La seule contrainte est d’ordre géographique, l’entreprise ne devant pas être trop éloignée de l’Ecole pour permettre à l’élève d’y effectuer deux journées hebdomadaires d’alternance sans difficulté.

Par Marc Chabreuil

Une solution de voix IP Centrex qui évolue au rythme de l’entreprise

Créée en 1997, la société Globalis Media Systems est une SSII d’ingénierie web parisienne. En 2009, la société profite d’un déménagement pour repenser sa solution de téléphonie. Munie depuis l’année 2000 d’un autocommutateur (PABX), installé en interne, elle souhaite alors opter pour une solution de téléphonie externalisée chez un opérateur, en mode Centrex, répondant à son besoin de plus grande souplesse de configuration de sa téléphonie. En effet, dans le local précédent, la société était équipée d’un PABX qui était restreint en nombre d’appels vers l’extérieur. Avec moins d’une dizaine de postes téléphoniques et une ligne de fax, les collaborateurs de Globalis Media Systems étaient limités avec seulement 4 appels sortants simultanés. Avec le développement de l’activité, le nombre de collaborateurs a augmenté pour atteindre aujourd’hui les 25 employés. Ainsi, la configuration de l’autocommutateur devenait compliquée à modifier car les règles de gestion étaient figées. Il fallait systématiquement faire appel à un prestataire extérieur pour toute demande d’évolution. Après s’être renseigné sur les offres du marché, l’entreprise a porté son choix sur l’offre de Keyyo Business, opérateur de téléphonie sur IP pour les TPE-PME. « Nous ne maitrisions pas la téléphonie IP à ce moment là, il était donc important pour nous d’être accompagnés. Nous avons alors demandé à un technicien de Keyyo Business d’intervenir» explique Frédéric Hovart, Directeur général deGlobalis Media Systems qui dispose aujourd’hui de 13 postes téléphoniques permettant autant d’appels sortants. Frédéric Hovart précise qu’en termes de coût de communication, la solution de Keyyo Business est à peu près équivalente à l’ancienne solution alors qu’elle permettait uniquement 4 appels simultanés au lieu de 13 actuellement.

Un lien dédié à la transmission de la voix
Selon les besoins en communication de chacun de ses collaborateurs, Frédéric Hovart peut moduler les forfaits et les options de ses utilisateurs depuis l’interface du site Internet de Keyyo Business. Sur les postes nécessitant peu de communications sortantes, la société a choisi un abonnement libre Centrex avec un coût à la communication. En revanche, les postes des commerciaux, amenés à passer de nombreux appels, sont équipés d’un forfait d’appels illimités vers les fixes en France et vers 50 destinations. La société est également équipée de plusieurs lignes de fax par mail, et bénéficie d’une tranche de numéros réservée gratuitement permettant de prévoir l’ouverture de nouvelles lignes téléphoniques supplémentaires avec des numéros qui se suivent.  En parallèle, Globalis Media Systems a choisi d’opter pour un lien ADSL Keyyo Business dédié à la voix. En choisissant cet accès, la société s’assure d’une qualité de VoIP irréprochable et d’une solution encore plus fiable étant donné que le lien sert uniquement à transmettre la voix et non à la navigation sur Internet. « Afin d’être sûr que la voix fonctionne correctement, nous avons préféré prendre un abonnement ADSL dédié. Nos autres accès Internet grand public nous servent seulement à la navigation sur le web », commente Frédéric Hovart. Il précise également qu’il était plus intéressant pour lui de bénéficier d’une solution packagée, clé en main lui offrant tout un ensemble de services. « Avoir un seul opérateur prenant en charge l’ensemble de notre solution a du sens. Cela évite d’avoir plusieurs interlocuteurs », ajoute-t-il.Si le coût n’est pas précisément ce qui a décidé à opter pour une solution de téléphonie « tout IP », la souplesse de configuration a, quant à elle, été l’élément déterminant dans la prise de décision. Grâce à cette solution Centrex,  Frédéric Hovart peut gérer la téléphonie de son entreprise à distance, depuis l’interface web du site de Keyyo Business : redirections de poste, transferts, changements de numéro ou de ligne… « C’est tellement souple que si vous vous rendez compte que la nouvelle règle appliquée n’est pas optimale, vous pouvez la changer instantanément, le tout en quelques clics et en quelques minutes » commente Frédéric Hovart.  « On peut tout administrer via le site de Keyvo ce qui me permet de le faire depuis mon poste de travail, de chez moi voire même de mon lieu de vacances». Les collaborateurs de Globalis Media Systems apprécient également l’option de messagerie vocale par mail, permettant de transférer les messages vocaux reçus au bureau par mail. « C’est productif ! Vous n’êtes pas au bureau mais en rendez-vous à l’extérieur et vous pouvez tout de même recevoir vos messages vocaux. Vous recevez un mail avec le fichier vocal du message que vous écoutez sur votre téléphone portable et vous pouvez rappelez directement votre correspondant » explique Frédéric Hovart.  Les équipes de la SSII ont pu remarquer la facilité d’intégration de la solution de téléphonie au sein de leur environnement de travail existant, notamment avec leur application de messagerie, Google Apps. « Nous recevons nos fax par mail. Et par de simples règles de messagerie, je peux les rediriger vers telle personne au sein de l’entreprise » conclut Frédéric Hovart.

Le polypropylène fait peau neuve

A cause de son aspect laiteux, le polypropylène (PP) n’était pas à la hauteur de la transparence élevée du polystyrène (PS), du polyéthylène téréphtalate (PET) et autres matières. Aujourd’hui, ce n’est plus le cas grâce au mariage de 2 technologies : celless des métallocènes Luminence  de Total Petrochemicals et l’agent clarifiant Millad NX8000 de Milliken Chemical. Le résultat est un nouveau polypropylène de type métallocène, le Lumicene M3382MZ.

La combinaison de ces deux technologies avancées aboutit à une excellente esthétique, y compris une brillance élevée du polypropylène thermoformé, que ce soit pour les emballages à forte ou faible orientation. L’une de ses autres caractéristiques est son faible taux de composants extractibles, ainsi que d’excellentes propriétés organoleptiques. Il est conforme aux règlements de la Food and Drug Administration (FDA) américaine concernant le contact avec les aliments.

Ce PP métallocène clarifié est en mesure de concurrencer de façon satisfaisante les matières traditionnelles car il offre une densité plus basse pour un coût réduit et un usage moindre des ressources, sans compter la rapidité et la facilité de transformation pour une productivité élevée. Le Millad NX8000 fournit des avantages de performance tels qu’une solidité et une rigidité accrues de la matière, ainsi qu’une meilleure résistance thermique et chimique.

Répondre aux tendances actuelles du marché

Au cours de la transformation, cette résine possède une stabilité thermique, donc pas de coloration, une transparence et une processabilité optimales. Un autre avantage apporté par la combinaison des 2 technologies est la réduction de la fumée et du dépôt lors des applications de thermoformage telles que les gobelets et les couvercles pour les boissons froides.

Le Lumicene M3382MZ soutient les objectifs environnementaux de deux façons : en raison de sa densité plus faible, le polypropylène exige moins de résine que les autres polymères transparents, réduisant ainsi la quantité de ressources non renouvelables utilisées durant la fabrication. De plus, il est plus facilement recyclable au sein de l’infrastructure de gestion des déchets courante.

La résine est idéale pour les boîtes alimentaires, les gobelets, les couvercles, les dômes et les plateaux de service alimentaire pour lesquels une transparence élevée et une rigidité sont importantes. Elle répond aux tendances actuelles du marché qui poussent vers le remplacement des matières transparentes traditionnelles. Les fabricants, à cause de la pression économique, veulent réduire les coûts du cycle de production, mais le font tout en écoutant les exigences des consommateurs en matière de durabilité (utilisation de moins de matière et recyclabilité), de sécurité et qualité.