La gestion intelligente du bâtiment, clé de l’optimisation énergétique

Chauffage et production d’eau chaude, refroidissement et climatisation, éclairage… sont responsables d’environ 40 % de la consommation totale d’énergie des pays industrialisés. Un lourd tribut qui laisse néanmoins beaucoup de marge à l’optimisation énergétique.

Fondée sur la mise en réseau d’automatismes chargés de piloter, pièce par pièce ou à l’échelle d’un site, les fonctions d’éclairage, d’ombrage, de chauffage-ventilation-climatisation (CVC) et autres lots techniques, la gestion intelligente des systèmes et équipements du bâtiment contribue à un usage rationnel et maîtrisé de l’énergie, en parfaite symbiose avec les besoins.

Un nouveau cadre normatif et réglementaire, de portée internationale, encourage la mise en œuvre de solutions d’efficacité énergétique. Dans le sillage de la directive 2002/91/CE, la norme EN 15.232 décrit les méthodes pour évaluer l’impact des automatismes, des systèmes de régulation et de la GTB sur la consommation énergétique des bâtiments (tout bâtiment équipé de systèmes d’automatisation, de régulation et de GTB, est classé dans l’une des 4 catégories de performance énergétique notées de « A » à « D »). Cette norme introduit le principe de la « certification énergétique » des bâtiments. Ainsi, toutes les constructions autres que d’habitation nécessitent l’établissement et la délivrance par le propriétaire, à toute personne intéressée, d’un certificat de performance énergétique, lors de la vente ou de la location. Son affichage est en outre obligatoire dans les établissements recevant du public, occupant plus de 1 000 m².

Dans cette optique, la technologie KNX qui rassemble plus de 150 fournisseurs de produits et solutions d’automatisation du bâtiment et promoteurs de la première norme mondiale de la domotique et de l’immotique, vise à réduire notre consommation énergétique (un pourcentage d’économies à 2 chiffres), à assouplir la planification et la mise en œuvre des projets d’efficacité énergétique (EE) et à en protéger les investissements, tout en garantissant la disponibilité de l’énergie.

Le groupe ABB, dont le système KNX s’appuie sur la norme mondiale ISO / IEC 14543 concernant la « gestion intelligente du bâtiment » et réunit un large éventail de produits et de solutions autorisant des applications à haute efficacité énergétique, dans le neuf comme dans l’existant, a chiffré les économies d’énergie réalisables. C’est ainsi la mise en œuvre d’une technologie de bus et d’automatismes, tant individuels que centralisés, permet, suivant la  fonction ou la conjugaison de plusieurs fonctions utilisées, de réduire la facture énergétique de :

  • 10% (par rapport à une commande manuelle)  en utilisant une commutation automatique et la programmation horaire du chauffage et de la climatisation en fonction de consignes de température assignées à chaque pièce occupée temporairement ou à périodes fixes dans un bâtiment EN 15232 ;
  • 25% (par rapport à une commande manuelle)  en programmant la température de consigne de chauffage/climatisation par détection de présence, pour chaque pièce utilisée temporairement ou à périodes fixes d’un bâtiment normalisé EN 15232 ;
  • de 28 à 66% de l’électricité utilisée pour l’éclairage, en fonction de la saison, de la météo et de l’implantation du bâtiment grâce à la commande d’éclairage permanent qui, contrairement au pilotage de l’éclairage en tout-ou-rien, garantit une luminosité constante et harmonieusement répartie, grâce à des apports de lumière artificielle maintenant en continu, le niveau d’éclairement choisi (une commande d’éclairage asservie à l’occupation par un détecteur de présence qui automatise l’extinction de l’éclairage quand la pièce est vide, permet d’économiser 13 % en plus) ;
  • 40% (par rapport à une commande manuelle)  en faisant appel à la commande automatique des protections solaires, doublée d’une commande d’éclairage permanent avec détection de présence ;
  • 30% les besoins en climatisation avec une régulation thermique faisant intervenir les protections solaires ;
  • 50 % d’économie sur le chauffage ou la climatisation avec une combinaison de différentes mesures comme la baisse du chauffage ou de la climatisation sur détection d’ouverture de fenêtres, l’ouverture automatique des fenêtres pour profiter du rafraîchissement nocturne ou enclenchement de la ventilation, le couplage commande d’éclairage permanent et commande de stores/volets en fonction de la position du soleil…

Ces mesures d’optimisation n’ont d’utilité que s’il est possible de chiffrer la quantité d’énergie effectivement consommée. L’interface KNX pour compteurs d’énergie d’ABB  permet de remonter les mesures vers la supervision via le bus KNX.L’optimisation éco-énergétique du bâtiment est renforcée par l’emploi de compteurs d’énergie : il suffit alors de lire ces valeurs de consommation pour optimiser rapidement les usages énergétiques
 

Projets de Cloud Computing ? Pensez aux SLAs

Tour à tour source de promesses, d’engouement, de questions et de débats, le Cloud Computing a fait l’objet d’une véritable surexposition, d’un véritable buzz marketing. Mais il ne faut pas oublier que les dernières grandes révolutions IT ont démarré de la même manière : Internet, en 2000, ou plus près de nous, les réseaux sociaux, ont d’abord été considérés comme une simple mode sans réel avenir… L’effet positif est certainement celui de la concentration du temps : les questions, les débats, la maturation, tout se pose et se résout plus rapidement, du fait de la massification du sujet. Et l’on arrive plus vite à ce qui constitue son réel intérêt. Car il est indéniable que le Cloud Computing, en apportant des réponses en termes de coûts, de performances et d’évolutivité sur de nombreux sujets technologiques, bouscule les fondamentaux et amène les entreprises à envisager différemment leur informatique. Et l’énorme avantage du Cloud, c’est qu’il laisse aux entreprises le temps de procéder par étapes : accéder dans un premier temps à plus de ressources (CPU, mémoire…) et de puissance de calcul, puis au fur et à mesure aller chercher des applications nouvelles en mode SaaS.

Le buzz marketing cité plus haut a certainement contribué à minimiser toute la complexité technologique qu’il y a derrière le Cloud. Il ne s’agit d’ailleurs pas d’une technologie mais d’un ensemble de technologies de pointe (virtualisation, stockage, réseau, administration…), qui toutes nécessitent de l’expertise et, plus difficile s’agissant de sujets récents, de l’expérience. La contrainte des ressources internes et de leur montée en compétences se pose donc assez vite. De plus, les technologies évoluent rapidement sur ces sujets encore en pleine maturation, il s’avère donc difficile et coûteux à l’échelle d’une DSI d’en suivre le rythme. Une architecture Cloud redondante et sécurisée en interne amène un certain nombre de contraintes (techniques, compétences, évolutivité). En réalité, le véritable effet de levier économique réside dans la mutualisation. C’est pourquoi la voie du « Cloud Privé Externalisé » répond à tous les besoins et enjeux attendus d’un Cloud interne (sécurité, performance, Service Level Agreement ou SLA), en mutualisant les coûts de structure et en externalisant les compétences techniques. C’est donc celle qui permet aujourd’hui de tirer le meilleur parti du Cloud Computing en termes de prix et surtout de flexibilité.

Sécurité, proximité et disponibilité, trois éléments à prendre en compte

Lorsqu’une entreprise a décidé de s’appuyer sur une infrastructure Cloud Computing, la première préoccupation a très vite été identifiée par les DSI : il s’agit de la sécurité. Une entreprise qui choisit d’externaliser des données ou des applications sensibles doit légitimement être en droit d’obtenir de son prestataire des garanties de sécurité au moins aussi fortes que ce qu’elle pourrait faire en interne. Le cloisonnement des différentes instances clients, la protection des accès contre l’extérieur ou encore les politiques de sauvegarde doivent être prises en compte.

Un second critère important est celui de la proximité. Externaliser ne signifie pas forcément que les serveurs du prestataire doivent nécessairement se trouver à l’autre bout du monde ! Le modèle du Cloud Computing a fait l’objet de nombreux débats, car les premiers grands acteurs disposaient de centres de données ultra-mutualisés répartis « dans le nuage » et difficiles à localiser. Mais il est tout à fait possible de sélectionner un prestataire en France – ce qui, d’ailleurs, est juridiquement préférable s’agissant de données sensibles ! La proximité, c’est aussi un certain degré d’accompagnement : a-t-on des interlocuteurs identifiés en amont du projet ? Sait-on qui joindre en cas de question ou d’incident ?, etc…

Un dernier élément à prendre en compte, enfin, ce sont les SLAs. La question de la disponibilité est essentielle.

Le Cloud Computing, grâce notamment aux apports des environnements virtualisés et de la redondance qu’ils permettent, bénéficie intrinsèquement d’une disponibilité plus élevée qu’un hébergement classique. Mais s’agissant d’environnements externalisés, il ne faut pas oublier que le Cloud est indissociable de l’accès au Cloud ! A quoi sert en effet de savoir qu’une  application est totalement disponible, si on ne peut pas y accéder, faute d’une infrastructure d’accès suffisamment redondée ? Le DSI doit pouvoir challenger son prestataire sur les SLAs du service global, et pas seulement sur ceux de la plate-forme Cloud. Les SLAs vont donc d’une part permettre au DSI de comparer les différentes offres de Cloud, mais ils vont aussi lui permettre d’identifier les acteurs capables de s’engager sur la globalité du service (depuis la porte de leur LAN jusqu’au Cloud).

Des SLAs élevés ne sont bien sûr nécessaires que pour répondre à des enjeux critiques ! Les applications possibles grâce au Cloud sont nombreuses, et toutes ne nécessitent pas un taux de disponibilité maximal. La mise à disposition d’un environnement de pré-production, par exemple, sera beaucoup moins critique que l’accès à un site Web, surtout si ce dernier porte un enjeu de vente en ligne. C’est pourquoi il est tout à fait intéressant de voir se multiplier les modèles et les offres de Cloud Computing : le DSI va avoir à sa disposition une palette de solutions, avec des caractéristiques et des tarifs différents. A lui de mettre en relation l’offre et ses différents types de besoins, pour choisir le meilleur de chaque technologie en fonction de ses enjeux réels.

Par Eric Rousseau, Président Directeur Général de VeePee 

Un logiciel optimise la consommation de matières premières d’un pâtissier industriel

Située à Locminé (Morbihan), l’entreprise Le Ster est un acteur majeur sur le marché de la pâtisserie industrielle. Elle appartient depuis un peu plus de deux ans au groupe Goûters Magiques (24.000 tonnes de produits par an) qui comprend également les entités Whaou, producteur de crêpes, et Gaillard Pâtisserie.

Une réactivité optimale étant requise pour servir les marchés GMS (grandes et moyennes surfaces)  et RHD (Restauration Hors Domicile notamment les stations service), Le Ster dispose d’un système logistique qui permet de livrer le lendemain une commande passée la veille.  Jean-Pierre Jehan, directeur du site Le Ster, raconte. « J’étais à la recherche d’un système fiable nous permettant une meilleure visibilité sur la consommation de nos matières premières, assurant une traçabilité optimale et capable de s’adapter à notre système informatique en place. Ayant eu un premier aperçu du logiciel FormWeigh.Net sur le salon de l’Emballage, je me suis naturellement tourné vers Mettler Toledo quand le projet s’est précisé. ».  Qualité et innovation sont les deux valeurs importantes qui guident également l’équipe de direction au quotidien dans ses choix en équipements de production. Leur acquisition récente d’un logiciel de gestion des recettes en production en est une parfaite illustration.

Le Ster dispose aujourd’hui de trois postes de pesage équipés du logiciel de formulation FormWeigh.Net. Chacun est constitué d’un indicateur de pesage IND30 avec une plate-forme de pesage dont la portée est adaptée au type de produits à peser. L’ensemble est raccordé à un poste maître.  Les ordres de fabrication sont rentrés dans le logiciel. L’opérateur appelle ensuite le numéro de lot. Le système de défilement des lots a été développé par l’équipe Le Ster. Evolutif, le système FormWeigh.Net permet en effet l’ajout de nouvelles fonctionnalités. 

« Depuis la mise en place du système FormWeigh.net, nous avons considérablement optimisé notre consommation de certaines matières premières onéreuses comme l’arôme de vanille », précise Isabelle Toullec, responsable supervision et coordination production. « Les audits qualité que nous conduisons ou que nos clients réalisent, se passent également beaucoup mieux. Nous respectons mieux les recettes et garantissons maintenant une traçabilité informatique. La formation des utilisateurs a été très rapide ; la facilité d’utilisation du logiciel ayant aussi constitué un critère de choix important ».

Satisfait de son système de gestion des recettes, Le Ster est en train d’étudier plusieurs évolutions possibles comme le raccordement de FormWeigh.Net à son logiciel ERP ou encore la prise en charge  de la pesée des ingrédients utilisés en grosse quantité tels que la farine ou l’huile et qui aujourd’hui sont gérés en volumétrie.  

Quand la fibre de verre concurrence la fibre de carbone

Ces dernières années, le GNV (Gaz naturel pour véhicules) n’a cessé de gagner en popularité et plus de 11 millions de véhicules roulent aujourd’hui avec ce carburant plus respectueux de l’environnement. Actuellement, les réservoirs à haute pression réalisés en acier sont extrêmement lourds. Certes les composites en fibres de carbone, plus légers, peuvent être utilisés comme alternative, mais leur coût est prohibitif pour la plupart des utilisateurs.

Une troisiéme solution arrive sur le marché avec le réservoir fabriqué en fibre de verre hautes performances HiPer-tex de 3B-Fibreglass que Gastank Sweden AB vient de mettre au point. Ce produit répond aux exigences strictes de la norme ECE R110 qui régit l’utilisation des réservoirs cylindriques de type IV contenant du gaz naturel sous haute pression destinés aux moteurs automobiles. Destiné à une utilisation sous 200 bar, il ne pèse que 0 ,56 kg/l tout en offrant des caractéristiques mécaniques supérieures de 10 à 24% à celles de des fibres de verre classiques.

Le professeur Kurt Berglund, président de Gastank Sweden AB, société basée à Pitea en Suède, explique : « La fibre de verre hautes performances HiPer-tex permet, grâce à l’ensemble des propriétés qu’elle offre à moindre coût, permet de combler la demande entre un acier lourd et les composites à base de fibres de carbone à coût élevé. La solution que nous avons développé facilite l’accès aux réservoirs GNV en composites légers, synonyme d’économie d’énergie et de réduction d’émissions de CO2. »

Hugues Jacquemin, président-directeur général de 3B-Fibreglass, ajoute: « Notre technologie  de production de la fibre HiPer-tex fournit un haut niveau de performances à des pièces composites telles que les pales d’éoliennes, les blindages balistiques et les cylindres haute pression, tout en garantissant des gains économiques importants pour nos clients. Nous sommes fiers d’être partenaires de Gastank Sweden AB pour le développement d’un réservoir GNV, possédant une très grande durabilité grâce aux propriétés mécaniques élevées, à la résistance à la corrosion et à la tenue à la fatigue de notre fibre. »  La fibre HiPer-tex est adaptée aux applications automobiles mais aussi à d’autres secteurs de l’industrie, car elle répond à une forte demande de réduction de poids associée à des performances élevées, tout en étant économiquement rentable pour une production de grande capacité

Chaque année, près de deux millions d’automobiles sont équipées d’un système de carburant GNV, représentant jusqu’à quatre réservoirs par véhicule. Certains donneurs d’ordres proposent le GNV en option, et la conversion de véhicules existants devrait entraîner une augmentation de l’utilisation du GNV de 18 % par an.  

Le Pavillon des Energies : le développement durable par l’exemple

Bâtiment pilote en matière d’éco-construction et d’énergies renouvelables, le Pavillon des énergies de l’Ecosite du Fleurion, à quelques encablures de Saint-Lô, sera inauguré le 17 septembre prochain par le Président du Conseil général de la Manche, maître d’ouvrage du projet. Dans le cadre de sa charte de développement durable « Planète Manche », ce dernier  s’est engagé dans un programme d’actions volontaristes en matière de lutte contre le changement climatique. Au delà de la performance environnementale et énergétique de ses bâtiments, le Département de la Manche ambitionne de sensibiliser tous les publics, de former les jeunes et les professionnels, et de développer des activités économiques pérennes autour des secteurs de la maîtrise de l’énergie, des énergies renouvelables et de l’éco-construction.

Le Pavillon des Energies permettra à chacun (particuliers, élus, professionnels, scolaires) de comprendre les enjeux du développement durable et de s’approprier les réponses liées à l’énergie et à la construction. Parce que l’habitat est l’espace privilégié pour agir efficacement et durablement contre le changement climatique, ce centre d’information, de ressources et de formation apportera toutes les réponses pour concevoir, construire, rénover durablement et adopter les énergies renouvelables.

Pour construire ce bâtiment de plus de 1000 m², projet durable dès son origine, le Conseil général a misé sur l’exemplarité : un bâtiment labellisé THPE (Très Haute Performance Energétique) suivant une démarche HQE (Haute Qualité Environnementale) certifiée, bénéficiant d’une conception bioclimatique qui optimise les apports solaires. D’un point de vue énergétique, l’étude de conformité sur la réglementation thermique a révélé que les consommations énergétiques seront inférieures de 26 % aux normes en vigueur.(le Cref pour ce type de bâtiment est de 190 kWhep/m² et le Cbât du Pavillon est de 142 kWhep/m². A noter que le travail réalisé sur les déperditions et les ouvertures (double et triple vitrage) permettra d’avoir un gain de 16 % par rapport aux normes de coefficient de transmission surfaciques en vigueur dans la Réglementation Thermique actuelle (U bât = 0,359 W/m2.°C contre un U ref de 0,425 W/m2.°C).

Enfin toutes les températures intérieures de confort d’été seront inférieures au maximum autorisé grâce à la construction bioclimatique et les protections solaires. Bien évidement ce ne sera qu’en phase d’exploitation qu’il sera possible de dresser des bilans effectifs des consommations et quantités d’énergies produites. Sur ce point, des compteurs ont été installés pour établir un suivi complet et détaillé. Un portail de communication reprendra, à l’accueil du bâtiment, toutes les consommations et production d’énergie et d’eau.

Une enveloppe originale

Pour obtenir ces bilans, le choix des matériaux et des isolants a fait l’objet d’un effort tout particulier. C’est ainsi que l’enveloppe extérieure du bâtiment est constituée d’une ossature bois sur-isolée par 22 cm de ouate de cellulose insufflée et  de 4 cm de laine de chanvre. Côté intérieur, l’étanchéité à l’air est assurée par un frein vapeur, positionné entre les deux isolants. Enfin, une plaque de Fermacell sert de parement intérieur. Côté extérieur, devant le pare-pluie, le bardage est en lames de pin Douglas. L’inertie thermique du bâtiment qui manque aux constructions en bois, est améliorée grâce à la présence d’un mur porteur en pisé. Réalisé avec l’argile issue du site, cet imposant mur traverse le bâtiment de part en part et mesure 46 m de long, 6 m de haut et 60 cm d’épaisseur. Il régule également l’hygrométrie. Enfin, pour les murs intérieurs, d’autres matériaux ont été utilisés comme la brique de terre cuite ou encore le béton cellulaire.

Côté énergies renouvelables, 24 capteurs solaires intégrés sur la façade sud du toit pour une surface de 29 m² assureront les besoins en chauffage et eau chaude sanitaire. En appoint, une chaudière bois d’une puissance de 55 kW prendra le relais ; elle sera alimentée par des copeaux de bois déchiqueté de bocage stockés dans un silo de 10 m3. Le chauffage bénéficiera aussi d’un système combiné de ventilation mécanique contrôlée double flux couplée à un puits canadien qui permettra de préchauffer l’air entrant. De plus, le mode de diffusion se fera essentiellement à travers un plancher chauffant basse température.

Enfin, à titre démonstratif,  56 modules de panneaux solaires photovoltaïques poly-cristallins de 80 Wcc sur une surface de  39 m2 fourniront une puissance totale de  4480 Wcc. Le portail de communication permettra ensuite de connaître en temps réels la production des panneaux solaires photovoltaïques.

Enfin, une pile à combustible d’une puissance de 3 kW  (marque IdaTech), alimentée par une bonbonne d’hydrogène, servira de générateur de secours. En cas de panne d’électricité, elle prendra le relais et permettra d’alimenter les systèmes informatiques. Elle sera alimentée par une bonbonne  d’hydrogène. 

Piégeage d’une molécule ADN par une vésicule bio-adhésive

L’équipe « Membranes et Microforces », dirigée par Carlos Marques de l’Institut Charles Sadron du CNRS (ICS), à Strasbourg, étudie les mécanismes physico-chimiques de la bio-adhésion. Celle-ci gouverne des phénomènes comme l’adhésion cellulaire qui permet aux cellules d’adhérer entre elles ou avec le milieu environnant, et est déterminante dans la prolifération, la différentiation et le déplacement des organismes multicellulaires. La formation de contacts bio-adhésifs implique la présence de molécules spécifiques fonctionnant sur le principe de combinaisons complexes de clés et de serrures moléculaires qui assurent le caractère sélectif du phénomène.

Les chercheurs de l’ICS ont mis en évidence les auto-enchevêtrements, états rares et fugaces de polymères géants comme l’ADN. Une version moléculaire du premier voyage de Gulliver ! Après son naufrage, le célèbre personnage de Swift a nagé jusqu’à la côte de Lilliput où il s’est endormi, pour se réveiller agrafé au sol par une multitude de câbles et de piquets lilliputiens. Un destin similaire attendait des molécules d’ADN figées ainsi dans leur état auto-enchevêtré jusqu’alors très difficile à observer. 

Pour étudier certains éléments déterminants dans la bio-adhésion, les chercheurs strasbourgeois ont développé un système biomimétique constitué, d’une part, de vésicules géantes de phospholipides, dont la membrane est une version très simplifiée des membranes cellulaires, et, d’autre part, d’un substrat de protéines sur lequel reposent des centaines de grandes molécules d’ADN immergées dans une solution aqueuse.

Les molécules d’ADN, tel Gulliver, bougent aisément sous les forces aléatoires du liquide, jusqu’à ce que la vésicule, ballot collant, les recouvre. De forme ronde, la vésicule a une paroi fine et molle de cinq nanomètres portant des millions de ligands, véritable armée lilliputienne de molécules adhésives, équipée de câbles et piquets moléculaires, prête à aborder le substrat de protéines. Toutes les conditions sont réunies pour que, après atterrissage, les ligands arriment très rapidement sur la vésicule les protéines. De plus, l’arrimage est tellement fort qu’il se développe une zone de contact très intime entre la membrane de la vésicule et la surface. Cette zone, en s’étalant, balaye tout sur son passage, précise André Schröder qui en a scruté des centaines. Elle racle et greffe sur le substrat la grande chaîne ADN qui se retrouve coincée dans les méandres de la forêt des ligands arrimeurs (polymères connecteurs). 

L’ADN ainsi étiré et immobilisé peut désormais révéler ses secrets les mieux gardés à Nam Lee et son étudiant qui, à l’Université de Seoul, étudient la lumière émise par ces longues chaînes pour décrypter ce qui a bien pu se passer pendant les courts instants où la molécule géante a été mise à terre et bloquée.

De façon surprenante, les scientifiques ont découvert que certaines chaînes ne se sont pas laissées complètement étirer et sont restées dans un état auto-enchevêtré, piégées pendant l’abordage. Ces états sont rares et fugaces même pour des molécules géantes, explique Albert Johner qui a participé à l’interprétation théorique des données, il a donc fallu la combinaison heureuse d’un arrimage rapide et serré des auto-enchevêtrements pour que l’on ait réussi cette fois, là où des tentatives précédentes avaient échoué.  

Le jet d’eau, une découpe au micron près

La plupart des nouveaux matériaux de fabrication de produits utilisés ces dernières années réagissent négativement sous l’effet de la chaleur lors de l’usinage. L’utilisation d’un jet d’eau pour effectuer l’opération de découpe permet toutefois de s’assurer que la structure du matériau reste inchangée. La technique peut être en outre utilisée sur pratiquement n’importe quel type de matériau, y compris les denrées alimentaires, pour autant qu’elles ne soient pas solubles dans l’eau. A la lumière de ces informations, MDC Max Daetwyler AG, constructeur de machine de précision, Waterjet, spécialiste de la découpe au jet d’eau, et NUM, spécialiste de la commande numérique, ont décidé d’associer leur savoir-faire pour développer conjointement une machine de découpe au jet d’eau destinée au traitement des matériaux. Ils ont ainsi mis au point une machine de découpe au jet d’eau CNC capable de découper des matériaux avec une précision de ±1 micron, ce qui est 20 fois plus précis que les machines de la concurrence. De plus, ce nouvelle machine (Womajet/microWaterjet) consomme beaucoup moins d’eau et d’abrasif que les systèmes traditionnels et ouvre de nouveaux domaines d’application pour cette technologie de traitement des matériaux.

Le procédé de fabrication offert par la nouvelle machine Womajet/microWaterjet est stable, précis et reproductible. Il permet de créer des contours complexes et peut prendre en charge des largeurs de facette jusqu’à 20 microns (0,02 mm). La machine utilise un jet d’eau de très grande précision dont le diamètre est inférieur à 300 microns, et peut découper des matériaux à une vitesse pouvant atteindre jusqu’à 4.000 mm/min. Les trois axes de la machine sont commandés par des variateurs NUMDrive C, dont la haute densité de puissance permet de réduire la taille de l’armoire de commande. Un système CNC NUM Flexium, équipé d’un pupitre opérateur NUM FS152i pour les commandes d’entrée, assure la commande globale de la machine.

La machine de découpe Womajet/microWaterjet peut s’adapter à un grand nombre de matériaux, notamment les matériaux biocompatibles pour des applications médicales, le Kevlar, les matériaux en fibre de verre et carbone comme ceux utilisés dans le secteur automobile et les matériaux spécialisés et laminés utilisés dans les secteurs aéronautique et aérospatiale. Dans chaque cas, toutes les opérations de découpe sont effectuées sans dégradation des caractéristiques ou des propriétés des matériaux. Une application inhabituelle qui suscite déjà un très grand intérêt est la découpe de composants de précision pour le secteur de l’horlogerie, ce qui favorise une renaissance des montres mécaniques des prestigieux fabricants suisses. 

Un coup de pouce de 25 000 euros pour innover dans l’embarqué

Spécialisé dans les solutions de prototypage et de déploiement de systèmes de mesure, d’automatisation et embarquées, National Instruments France a mis en place un programme destiné à supporter les TPE et PME dans leur développement d’applications embarquées.

Le programme de NI France consiste à offrir une subvention à une sélection de start-ups qui envisagent d’exploiter la plate-forme NI pour développer leurs systèmes embarqués. Le montant de cette aide, qui peut atteindre 25.000 euros couvre la plate-forme logicielle, le support et la formation. L’objectif de ce nouveau programme est d’aider les entreprises à réduire le coût et la complexité de leurs développements en leur facilitant l’accès à une technologie comme l’environnement de programmation graphique LabVIEW.

Les plates-formes logicielles et matérielles de NI pour la conception graphique de systèmes sont destinées à accélérer la conception, la validation et l’implémentation de nouvelles idées. L’environnement LabVIEW rend le développement plus rapide et plus intuitif, et permet aux ingénieurs de développer des applications, même s’ils ne sont pas experts en programmation, en s’appuyant sur les dernières technologies de l’embarqué, comme celles des circuits FPGA.

Pour postuler, les TPE et PME doivent fournir une documentation sur l’entreprise et le projet concerné, et participer à un entretien (voir le site www.ni.com/france/pme).

Incendie : extinction d’un foyer en moins de 2 minutes

Une combustion est générée si trois composants sont réunis : le combustible, le comburant et l’énergie d’activation. Cette combustion ne peut-être arrêtée ou réduite que si l’on agit sur l’un ou plusieurs de ces composants. Cependant, dans la pratique, agir sur le combustible est impossible. Le principe d’extinction vise donc à diminuer le pourcentage d’oxygène dans l’air et/ou à diminuer la température du foyer. En solution d’extinction automatique, il existe trois techniques pour gérer un début d’incendie dès qu’il est détecté :

  • l’extinction de l’incendie (élimination complète de tout feu à flamme vive ou de feu couvant) ;
  • la réduction de l’incendie (réduction significative du débit calorifique et prévention de la reprise du feu) ;
  • le contrôle de l’incendie (limitation du développement de l’incendie et prévention des dommages structurels par refroidissement des objets, des gaz présents à proximité et/ou par pré-mouillage des éléments combustibles présents à proximité).

La solution SINORIX H2O Jet, mise au point par Siemens Industry Building Technologies (IBT), concerne en tout premier point l’extinction de l’incendie. Les principes clefs de ce système consistent en la création de fines gouttelettes (50 à 200 µm), le transport de celle-ci jusqu’au cœur du foyer, et l’extinction du feu. L’innovation réside dans l’écoulement diphasique à basse pression (5 à 15 bars), dans le transport de la solution effervescente gaz/eau dans une tuyauterie (simple et basique monotube) vers la buse (titre massique : 6% de gaz) et dans l’accélération et la détente du mélange gaz/eau dans celle-ci.

Une surface couverte de 28 m²

Les fines gouttelettes, créées à la sortie de la buse, atteignent une portée de jet de brouillard pouvant aller jusqu’à 8 m (pour les buses directionnelles) et sont capables de couvrir une surface d’environs 28m² (pour les buses volumétriques). La très faible taille des gouttes, leur densité et leur vitesse permettent de refroidir le cœur du foyer. La buse de type directionnelle TDJB (Tuyère Diphasique à Jet de Brouillard) à fait l’objet d’un brevet conjoint entre Siemens et le LEGI (laboratoire du CNRS). Le diamètre important des trous sur les buses (volumétrique) réduit considérablement le risque de bouchage de ces buses (quelques millimètres contre quelques centièmes de millimètres pour un système classique).

En fonction de l’application, l’incendie est totalement éteint en moins de 2 minutes. Le système utilise moins de buses qu’un système brouillard d’eau conventionnel et réduit les dommages liés à l’eau (10 fois moins d’eau qu’un système d’extinction standard). Enfin, le système qui est utilisable avec une eau qualité « eau de ville », a été testé dans le cadre d’une campagne d’essai de plusieurs mois, au CNPP (Centre National de la Prévention et de la Protection). Elle a permis de définir les applications où la solution SINORIX H2O jet garantissait un résultat d’extinction des foyers du protocole d’essais CNPP G.E . Les tests, effectués sur une maquette à l’échelle 1 (groupe électrogène de 1200 KVA), ont permis de valider l’application « groupe électrogène ».  Un nouveau test d’efficacité aura lieu au CNPP le 22 septembre prochain : il s’agira d’essais réels à échelle 1 sur un groupe électrogène.

Le SINORIX H2O Jet peut être utilisé également pour des applications similaires notamment les bancs de moteur, transformateurs, machineries d’usinage, process et bac de trempe… (en cours de tests au CNPP).

 

La première solution cloud computing de gestion de la qualité

Partie intégrante de la suite logicielle Tecnomatix de solutions de fabrication numérique de Siemens PLM Software, l’application de gestion de la qualité Dimensional Planning and Validation (DPV) est le premier système de gestion de la qualité basé sur le PLM à permettre la collecte, la gestion, l’analyse et le reporting des informations de mesure de la qualité directement liées aux résultats de production obtenus en temps réel. Tecnomatix DPV s’appuie sur le logiciel Teamcenter qui permet d’incorporer des informations de production couplées à des données de qualité de la production obtenues en temps réel, dans l’environnement utilisé pour gérer les données de l’entreprise relatives aux produits, aux processus et à la fabrication.

Principale cible : certaines industries comme les centres de production multisites, où les fournisseurs extérieurs n’ont pas nécessairement besoin d’une infrastructure de ressources de PLM complète, mais peuvent tirer profit de cette technologie de gestion de la qualité à la demande. Dans le cadre d’un partenariat, Siemens PLM Software et Microsoft ont mis au point un environnement dans lequel Tecnomatix DPV et Teamcenter s’exécuteront en cloud computing, sous le contrôle du système d’exploitation de services Windows Azure. Ils utiliseront également la base de données relationnelle SQL Azure. Les deux sociétés pourront ainsi tester et proposer des scénarios dans lesquels une entreprise pourrait accéder de façon sécurisée à la puissance, à la souplesse et à la valeur de cette solution de gestion de la qualité basée sur le PLM, sans avoir à s’équiper d’un système informatique. Lorsque les résultats seront jugés concluants, le nombre de ce type de solutions basées sur le PLM augmentera considérablement. Enfin, avec un environnement accessible à la demande, les options de déploiements seront nettement enrichies.

« Utiliser la plate-forme Windows Azure pour exploiter la puissance du cloud computing permet aux entreprises de réduire de façon importante les coûts liés à leur infrastructure interne et à son support », commente Sanjay Ravi, président-directeur général de la division Worldwide High Tech & Electronics Industry de Microsoft.

Outre le projet DPV-Azure, Siemens PLM Software continue d’étudier avec Microsoft d’autres façons d’exploiter efficacement le cloud computing. Le congrès « Utilisateurs Siemens PLM Connection User Conference » a d’ailleurs permis de présenter le développement de solutions de collaboration en cloud computing basées sur la plate-forme Windows Azure. L’objectif étant de garantir un partage automatique et sécurisé des données produit 3D entre un constructeur OEM et ses fournisseurs à l’aide du format de données standard JT et du format de données PLM XML.

« Nous pensons que la puissance et le potentiel du cloud computing, correctement utilisés et déployés, peuvent avoir un impact significatif sur le secteur du PLM », explique Chuck Grindstaff, directeur général adjoint chargé des produits et directeur technique chez Siemens PLM Software. « C’est la raison pour laquelle nous travaillons en étroite collaboration avec des leaders dans ce domaine, tels que Microsoft, pour étudier différentes applications du PLM en mode cloud. Grâce à ce partenariat stratégique, Siemens PLM Software est aujourd’hui la première dans son domaine à prendre en charge SharePoint. L’entreprise devient ainsi le premier fournisseur de logiciels de PLM à présenter des concepts d’informatique en cloud sur la plate-forme Windows Azure. »

Par Marc Chabreuil

 

De nouvelles perspectives pour la technologie 3D

Siemens Healthcare propose le logiciel syngo.fourSight Workplace Imaging Management Solution for Obstetrics qui permet la manipulation volumétrique en 3D/4D et la visualisation de clichés 2D pour diverses plates-formes ultrasons de Siemens, facilitant la communication entre docteurs, chirurgiens et patients. Cela peut aussi améliorer la relation parents-fœtus et aider dans le traitement d’interventions pré et post-natales. « Notre logiciel syngo.fourSight Workplace, associé à la technologie NVIDIA 3D Vision Pro et aux dernières solutions professionnelles graphiques NVIDIA Quadro, font de notre équipement un outil de gestion d’images encore plus attractif, pour le patient comme pour le workflow du département obstétrique, » a déclaré Barbara Del Prince, worldwide segment manager for OB/GYN, Siemens Healthcare. « Les docteurs, les hôpitaux et les centres d’imagerie disposent maintenant de la solution d’imagerie 3D la plus puissante, la plus complète et la plus innovante pour la manipulation d’image en volume. » D’autres entreprises comme Agilent, Cineform ou  RTT considèrent déjà la technologie NVIDIA 3D Vision Pro comme un élément essentiel de leurs nouvelles solutions.

La  nouvelle solution stéréoscopique 3D Vision Pro de NVIDIA va permettre aux ingénieurs, concepteurs, architectes et spécialistes de l’info-chimie qui travaillent sur des projets 3D complexes de voir leurs travaux avec davantage de détails. Elle fait arriver la véritable 3D stéréo sur le bureau grâce aux écrans plats, et offrent un moyen pratique pour disposer d’une représentation riche et fiable en 3D pour la visualisation d’environnements à grande échelle comme les murs vidéos et les applications de travail collaboratif virtuel.

Comprenant des lunettes « alternantes » (technologie shutter active) fournissant une image véritablement progressive, préservant la plus haute qualité de texture et de texte, un dispositif de communication en fréquence radiofréquence  novateur et des batteries rechargeables donnant 20 h de fonctionnement,  les solutions 3D Vision Pro fournissent des sensations stéréoscopiques de haute qualité et prennent en charge un large éventail d’utilisations :

  • les personnes seules peuvent profiter de la 3D sur l’écran LCD de leur ordinateur de bureau et de leur station de travail mobile sur Quadro ;
  • de petits groupes peuvent regarder de la 3D sur un ou plusieurs projecteurs ;
  • des groupes plus importants peuvent bénéficier de la 3D sur des murs d’images ou dans des salles avec les NVIDIA Scalable Visualization Solutions (SVS). 

3D Vision Pro autorise des liaisons sur assez longue distance, jusqu’à 45 m, sans interférences, point aveugle ni autre obstacle entre les divers systèmes. Pour cet équipement stéréoscopique professionnel, les informations sur le fonctionnement des lunettes sont retransmises à la base pour assurer une bonne gestion de l’ensemble.

« La 3D stéréo permet d’examiner dans le détail des données complexes et, pour cette raison, elle est devenue un élément majeur des stations de travail modernes, » souligne Jeff Brown, general manager, Professional Solutions Group chez NVIDIA. « Avec le lancement de cette solution professionnelle 3D, cette technologie peut facilement avancer au-delà du secteur du divertissement » poursuit Jon Peddie, president of Jon Peddie Research. « En permettant des visualisation à grande échelle et le pilotage à distance, NVIDIA ouvre de nouvelles perspectives pour la technologie 3D qui sera employée par les professionnels sous des formes inédites. » Ainsi, les artistes travaillant dans la création de contenu numérique, les entreprises souhaitant proposer des murs d’images, les concepteurs de produits et les ingénieurs peuvent voir leur « monde » en 3D, avec des perspectives nettement plus riches que dans les représentations classiques en deux dimensions.
 

Pompes à chaleur et photovoltaïque pour le projet nZeB

Aujourd’hui, la consommation énergétique des bâtiments représente 41 % de la consommation totale d’énergie de l’Union Européenne, et 80 % de cette consommation énergétique provient du chauffage, du  rafraîchissement et de la production d’eau chaude sanitaire. A la lumière de ces calculs et d’un constat plus global, l’Union Européenne a déterminé, en 2007, d’importantes cibles de réduction pour l’année 2020, appelée la stratégie du « 20-20-20 » : 20 % de réduction des émissions de CO2 par rapport aux niveaux de 1990, l’amélioration de 20 % de l’efficacité énergétique en Europe et porter à 20 % la part des énergies renouvelables dans la consommation énergétique européenne.

L’augmentation de l’efficacité énergétique du bâtiment jouera, de ce fait, un rôle crucial dans la réalisation des objectifs de l’Union Européenne. Pour satisfaire les objectifs de l’Union Européenne, Daikin Europe N.V. a lancé, en 2010, un projet de construction de bureaux à consommation énergétique positive, utilisant des pompes à chaleur et des cellules solaires comme sources d’énergie renouvelable. Le premier objectif ainsi visé est de réduire de façon drastique les émissions de CO2, comparativement aux chaudières utilisant des énergies fossiles. 

Daikin Europe N.V., en charge de la construction du bâtiment, a confié au groupe Zeller l’installation des différentes technologies de pompes à chaleur, de ventilation et d’outils de contrôle et de surveillance. Le bâtiment- test inauguré à Herten, en Allemagne,  est équipé de technologies pompes à chaleur :

  • air/eau Daikin Altherma Basse Température couplées à des panneaux solaires pour le chauffage par le sol et la production d’eau chaude sanitaire. L’inertie du sol permettra le stockage de l’énergie calorifique produite par les panneaux solaires. L’utilisation de la production solaire sera maximisée par la gestion intelligente des équipements afin d’assurer le meilleur rendement possible et de gérer au mieux les pointes de consommation ;
  • air/air VRV  pour répondre rapidement aux variations des températures ambiantes, typiques dans les bureaux, et assurer un confort optimum. Ce système assurera également le confort d’été pendant les mois chauds.

L’efficacité énergétique sera améliorée avec un système de ventilation à récupération d’énergie VAM Daikin, chargé de récupérer l’énergie et l’humidité et d’assurer un rafraîchissement naturel. Ce système offre la solution de récupération d’énergie la plus performante sur le marché à l’heure actuelle. Toute l’énergie du bâtiment sera produite sur site grâce à l’action de panneaux solaires photovoltaïques à équilibrage naturel, permettant la consommation dédiée au chauffage, à la ventilation, au rafraîchissement, à l’eau chaude sanitaire et à l’éclairage. Les cellules photovoltaïques ont été installées de telle sorte qu’elles bénéficient d’une exposition optimale.

Un revêtement à surface réflectrice Daikin Zeffle qui sera appliquée à la toiture pour réfléchir la lumière sur les panneaux solaires, permettra de réduire les besoins en rafraîchissement du bâtiment et d’améliorer davantage le gain énergétique réalisé grâce aux cellules photovoltaïques. Il  conduit également au maintien d’une zone de toiture rafraîchie autour des cellules solaires, ce qui évite ainsi une baisse d’efficacité de ces dernières.

Daikin Europe a fait le choix d’intégrer des technologies complémentaires dans la mesure où la faible consommation d’énergie des pompes à chaleur rend économiquement viable la production d’énergie photovoltaïque.
A partir du mois de juillet dernier, a débuté une période de tests, de surveillance et de visites qui va durer une année. A compter de 2012, de nouvelles technologies en cours de développement seront intégrées au projet afin de tester et de promouvoir leur utilisation.

L’implication d’instituts de recherche et d’établissements d’enseignement européens

Daikin Europe N.V. prévoit la réalisation de projets similaires en France à l’automne 2011 et au Royaume Uni et/ou en Italie au printemps 2012.Bien que le projet initial concerne un bâtiment neuf, Daikin Europe N.V. projette de développer son concept pour des applications déjà existantes.

Pour conduire, contrôler et tirer les meilleurs conclusions de ce projet, Daikin Europe N.V. collabore  avec d’importants instituts de recherche et les principaux établissements d’enseignement européens :

  • CETIAT en France (Centre Technique des Industries Aérauliques et Thermiques), pour l’analyse des performances de ventilation, de l’efficacité énergétique, de la qualité de l’air intérieur et du confort des utilisateurs ;
  • Fraunhofer IBP, Institut Fraunhofer de physique du Bâtiment en Allemagne, pour l’évaluation du concept nZEB grâce à des comparaisons avec des solutions alternatives et de sa viabilité économique au vu des résultats contrôlés ;
  • UMSICHT en Institut Allemand Fraunhofer dédié aux technologies de l’environnement, de la sécurité et de l’énergie, pour la consignation des données de fonctionnement de la pompe à chaleur, du système de commande et de la réponse aux modifications des besoins de conditionnement de l’air ;
  • Université technique de Dortmund (Allemagne) pour l’analyse des solutions Daikin de pilotage intelligent des pics de consommation électrique (smartGrid) ;
  • Université de Manchester (Angleterre) pour l’étude du potentiel de la solution CENZ de Daikin Europe N.V. pour les constructions neuves et les projets de rénovation, pour la réalisation des cibles «20-20-20 » de l’Union Européenne et pour l’adaptabilité du concept CENZ à des zones climatiques similaires en France et au Royaume-Uni sera également étudiée;
  • DENA, l’Agence allemande pour l’énergie sera invitée à attribuer une certification de « Bâtiment vert » afin de permettre la participation de ce projet au programme de « Bâtiments verts » de l’Union Européenne. 

Fraunhofer FIT : un système de reconnaissance 3D des gestes

http://www.bulletins-electroniques.com/actualites/64251.htm

Les écrans tactiles comme ceux présents sur l’iPhone ou l’iPad constituent le type d’interaction le plus abouti pour communiquer avec les smartphones et les ordinateurs. Cependant, les scientifiques de l’institut Fraunhofer FIT pour les technologies informatiques appliquées de Sankt Augustin (Rhénanie-du-Nord-Westphalie) viennent de franchir un nouveau cap en développant un système de reconnaissance des gestes en 3 dimensions sans contact. Le nouveau système analyse et interprète la position des mains et des doigts en temps réel. Le port de gants spécifiques ou de quelconques marqueurs n’est pas requis. Le prototype est également capable de supporter plusieurs utilisateurs en même temps.

Avec l’apparition des écrans tactiles et leur grande popularité, les systèmes d’interactions classiques comme le clavier et la souris deviennent de moins en moins utilisés. Cependant, les écrans tactiles sont restreints aux surfaces bidimensionnelles. L’avantage de la technologie de la Fraunhofer FIT est qu’elle ne requiert aucun contact et qu’elle est entièrement basée sur les gestes.

Vidéo de présentation du système de reconnaissance 3D des gestes. Le système analyse et interprète le mouvement des mains et des doigts en temps réel (vidéo en anglais)
Crédits : ghackenberg

Le prototype de la Fraunhofer FIT est constitué d’une caméra qui suit le mouvement de la main. Elle utilise le principe du « temps de vol » pour déterminer la distance entre la caméra et l’objet suivi. Ensuite, un logiciel d’analyse d’image filtre la position de la main et des doigts. Le professeur Georg Hackenberg, qui a développé ce logiciel, explique que « les données ainsi calculées peuvent être vues comme un haut plateau montagneux, où chaque sommet représente un doigt. Des critères peuvent également être ajoutés, comme la taille de la main, la longueur des doigts, ou encore le potentiel de coordination. »

Une étude finale a montré que le système était à la fois simple et agréable à utiliser. Cependant, il reste du travail à accomplir pour éliminer les éléments perturbateurs, comme les réflexions dues au port d’une montre ou les paumes des mains positionnées orthogonalement à la caméra.

En savoir plus : Site Internet de l’institut Fraunhofer FIT pour les technologies informatiques appliquées : http://www.fit.fraunhofer.de
Source : Dépêche idw, communique de Presse de l’institut Fraunhofer FIT – 21/07/2010 – http://idw-online.de/pages/en/news380200
Rédacteur : Philippe Rault, [email protected] – http://www.science-allemagne.fr
Origine : BE Allemagne numéro 493 (26/08/2010) – Ambassade de France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/64251.htm

La cosmétique séduite par les nanotechnologies

Les petites particules commencent à prendre de l’importance aux yeux des fabricants de produits d’hygiène personnelle du monde entier, selon une analyse de l’évolution mondiale des dépôts de brevets publiée par le pôle IP Solution de Thomson Reuters. L’étude, intitulée « Can Nanotech Unlock the Fountain of Youth ? »  (Les nanotechnologies, une nouvelle fontaine de jouvence ?), montre que le secteur de la beauté a fait une percée spectaculaire dans le monde des nanotechnologies, utilisant de minuscules composés moléculaires pour améliorer les performances des crèmes, écrans solaires, shampoings et autres produits de soin personnel.

Le rapport s’appuie sur les inventions exclusives mentionnées dans les demandes de brevet et les brevets accordés entre 2003 et 2009, ainsi que sur les données des marques relatives aux années comprises entre 2000 et 2009 pour identifier les entreprises et les domaines de l’innovation nanotechnologique ayant connu la plus forte croissance dans ce secteur. Les conclusions de l’étude font ressortir :

  • Une accélération de l’essor des nanotechnologies : le nombre de brevets novateurs impliquant l’usage de nanotechnologies dans les produits de beauté et de soins personnels a plus que doublé ces sept dernières années pour passer de 181 brevets en 2003 à 367 en 2009, soit une hausse de 103 % ;
  • Une percée des entreprises de produits chimiques spécialisés : si L’Oréal et Amorepacific ont été des pionniers dans le domaine des produits de beauté basés sur les nanotechnologies, un grand nombre d’innovations dans le secteur provient actuellement de sociétés qui n’étaient à  l’origine pas liées à l’industrie cosmétique, notamment Fujifilm et BASF. Sur les 367 inventions exclusives déposées en 2009, 10 émanaient de Fujifilm, 9 de BASF et 7 d’Amorepacific ;
  • Un développement des marques « nano » : de 2000 à fin 2009, 217 marques de soins personnels intégrant le terme « nano » ont été déposées aux États-Unis, Royaume-Uni, Canada, dans la Communauté européenne et  auprès de l’OMPI. Au cours de la seconde moitié de cette période (2005-2009), les marques déposées ont été 575 % de fois plus nombreuses que les marques déposées lors de la première période (2000-2004).

Le rapport analyse les données compilées à partir de la base de données Thomson Reuters Derwent World Patents Index (DWPI(SM)), pour l’étude sur les brevets, et SERION, pour les marques, afin de cerner l’évolution globale de l’innovation et des marques dans le domaine des nanotechnologies appliquées aux produits de soins personnels. L’évolution des brevets et marques sert de référence en matière d’innovation. L’analyse porte sur les brevets accordés et demandes publiées (examinés ou non) en 2003 et 2009. Les résultats obtenus sur ces deux années ont ensuite été comparés afin de déterminer l’évolution globale de la croissance au cours des sept dernières années. 

Par Marc Chabreuil

Le prix Pierre Potier distingue 5 entreprises chimiques « vertes »

Créé en 2006 en partenariat avec la Fédération Française pour les sciences de la Chimie (FFC) et l’Union des Industries Chimiques (UIC), le prix Pierre Potier a pour objectif de mettre en lumière les initiatives de l’industrie chimique en faveur du développement durable et de favoriser le développement de démarches éco-responsables dans la filière. Il a reçu cette appellation en mémoire de la contribution capitale du chimiste-biologiste du même nom dans les découvertes de nouveaux médicaments issus de végétaux.

Récompensant des produits chimiques innovants qui contribuent au respect de l’environnement et dont les applications sont au cœur de la vie quotidienne des consommateurs, le prix Pierre Potier s’inscrit au cœur de l’ambition de la filière industrielle chimique de développer une « chimie durable ». En effet, dans un contexte marqué par le Grenelle Environnement et la mise en œuvre du règlement européen REACH, répondre aux défis environnementaux et sociétaux représente un enjeu majeur pour l’industrie chimique.

Dans ce contexte, chacun des  5 lauréats récompensés par le prix Pierre Potier a été primé pour sa contribution, dans son domaine, à la mise sur le marché de produits plus sûrs, plus écologiques, mieux recyclés et faisant moins appel aux ressources fossiles.

Une résine pour peintures sans solvant permettant une climatisation moins énergivore

L’absorption du rayonnement solaire par les bâtiments en période chaude est un élément important du bilan thermique pour toutes les constructions en zones ensoleillées. Elle entraîne évidemment un besoin en énergie de climatisation. Recouvrir un bâtiment d’une peinture blanche présente l’avantage de réfléchir les rayons solaires et de réduire cette dépense d’énergie en climatisation artificielle.

Arkema a mis au point Kynar Aquatec, un latex PVDF (polyfluorure de vynilidène) à l’eau, sans solvant, applicable sur les façades et toitures de tout type de bâtiments et permettant de réfléchir les rayons du soleil.  Grâce à sa caractéristique de réflectivité, une peinture à base de Kynar Aquatec diminue sensiblement les coûts de climatisation des bâtiments en période ensoleillée. Elle permet en effet de gagner 20 à 25 kWh/m2/an, sachant qu’un bâtiment consomme en moyenne 150 kWh/m2/an.

L’innovation qui a valu à Arkema le trophée du Pierre Potier 2010 dans la catégorie Produit, est triple, car Kynar Aquatec :

  • est une résine PVDF présentée pour la première fois en émulsion aqueuse, sans solvant ;
  • elle permet d’obtenir un revêtement réfléchissant en PVDF à séchage air, applicable avec des outils de peinture traditionnels (pulvérisation ou pistolage), directement sur les toits et façades des bâtiments, quelles que soient leurs formes, et leurs natures : plaques de goudron, ciment, métal ou même bois (jusqu’à présent, les revêtements PVDF, nécessitant un traitement thermique en usine, ne pouvaient s’appliquer qu’à des pièces métalliques) ;
  • contrairement aux autres peintures aqueuses blanches classiques, un revêtement à base de Kynar Aquatec conserve dans le temps ses propriétés réfléchissantes et sa résistance aux UV, aux intempéries et à l’encrassage (durabilité de l’ordre de 25 ans).

Une molécule originale au service de la dermatite atopique

La dermatite atopique, qui touche aujourd’hui près de 15 % de la population, se traduit par une peau très sèche et irritée qui nécessite des soins apportant confort et apaisement. C’est ce que propose la gamme Trixéra+ au Sélectiose, lancée par les Laboratoires Avène (Pierre Fabre Dermo-Cosmétique) en novembre 2007 au terme de plusieurs années de recherches en collaboration avec le CNRS (Laboratoires de Madame Rico-Lattes de l’Université P.Sabatier de Toulouse). Trixera+ agit à la fois en surface en restaurant la barrière cutanée, mais aussi en profondeur en modérant l’hypersensibilité cutanée. Le Sélectiose a en effet prouvé sa capacité à limiter l’afflux de cellules réactives au niveau cutané, pour modérer l’irritation. Une étude clinique internationale sur plus de 600 volontaires a prouvé son efficacité.

Le concept qui a conduit au Sélectiose et a valu le trophée du Prix Pierre Potier 2010 dans la catégorie Procédé à Pierre Fabre Dermo-Cosmétique, est particulièrement original puisque cette molécule, obtenue à partir d’un sucre naturel, a été conçue d’entrée pour être polyfonctionnelle : son caractère amphiphile lui permet à la fois d’améliorer l’accès aux récepteurs de l’épiderme à l’origine de ses propriétés anti-inflammatoires et de limiter le nombre de constituants de la formule en participant à sa propre formulation (économie notable en énergie et en atomes). Le même concept a été appliqué à des produits analogues qui vont bénéficier de tous ces acquis, engendrant des économies importantes en termes de temps de développement.

Des huiles qui répondent aux critères de l’écolabel européen des lubrifiants

A la suite de la création en 2005 d’un écolabel européen pour les lubrifiants, instaurant des critères très précis en termes de performance (niveau technique comparable aux lubrifiants pétroliers exigé) et en matière environnementale (biodégradabilité, non bioaccumulation, non-écotoxicité, quantité minimum de matières premières renouvelables, absence de phrases de risques, exclusion de substances spécifiques telles que les produits halogénés, métalliques, etc.), Novance, titulaire de la médaille Pierre Potier dans la catégorie Produit, s’est lancée dans la conception d’une gamme de biolubrifiants répondant à l’ensemble de ces critères.
La gamme DIESTERlub est aujourd’hui composée de deux huiles pour chaînes de tronçonneuses, deux huiles hydrauliques et une huile pour moteur deux temps.

Novance a beaucoup investi pour développer son expertise dans la lubrification des huiles végétales et dérivés et pour comprendre les phénomènes de biodégradation, d’écotoxicité, de calcul de carbone renouvelable et de bioaccumulation. L’entreprise a remporté l’appel d’offre de l’ONF (Office National des Forêts) pour la fourniture des lubrifiants pour chaînes de tronçonneuses et commercialise aujourd’hui ses produits auprès de diverses filières : les organismes institutionnels, les entreprises privées d’entretien, les pétroliers, des spécialistes indépendants du graissage et des distributeurs privés.

La bioraffinerie lignocellulosique, une première mondiale 

Médaille du prix Pierre Potier dans la catégorie Procédé, la société CIMV a développé un concept original de raffinage végétal qui permet de séparer et de valoriser les trois principaux constituants de la matière végétale en trois produits intermédiaires destinés à l’industrie : les lignines linéaires, la cellulose et les sirops de sucres. La ressource exploitée est non-alimentaire et provient de co-produits agricoles tels que la paille de céréales, la bagasse de canne à sucre, le sorgho sucrier, mais peut également s’appliquer aux plantes à fibres ou aux bois feuillus.

Le procédé CIMV fonctionne à pression atmosphérique, ne génère aucun rejet nocif pour l’environnement et consomme cinq fois moins d’eau que les procédés papetiers classiques. Les acides organiques utilisés pour la solvolyse des lignines et des hémicelluloses sont intégralement recyclés.

Pionnière sur son secteur, la technologie CIMV a été validée à l’échelle pilote par l’intermédiaire d’une unité industrielle de démonstration, située sur le site de Bazancourt, près de Reims. La première bioraffinerie CIMV (CIMV Marne) sera implantée sur la commune de Loisy-sur¬Marne, au cœur de la région Champagne-Ardenne. L’unité traitera annuellement 160 000 tonnes de paille de blé, de céréales et d’orge et produira à partir de 2012 :

  • une pâte à papier chimique pour l’impression, blanchie à l’eau oxygénée, sans chlore et de qualité équivalente aux pâtes de bois feuillus. Elle peut aussi, dans une option biocarburant, être hydrolysée et transformée en alcool de deuxième génération ;
  • de la biolignine, lignine linéaire de bas poids moléculaire entrant dans la composition notamment des premières colles à bois industrielles à haute performance, sans formaldéhyde et d’origine exclusivement végétale ;
  • des sirops de sucres, composés de sucres en C5 et essentiellement du xylose, comme additif pour l’alimentation animale, notamment pour le tannage des protéines en lieu et place du formaldéhyde.

Au-delà de ces trois applications, CIMV poursuit ses recherches dans l’élaboration de nouveaux produits et produits dérivés.

L’oxydation hydrothermale en milieu supercritique

Depuis près de deux ans, Innoveox développe une offre globale de traitement des déchets dangereux issus principalement de l’industrie du raffinage, de la pétrochimie, de la chimie ou de la pharmacie. Grâce aux travaux du Professeur Cansell et du CNRS, Innoveox qui a remporté la médaille du Prix Potier, dans la catégorie Start-up, a mis au point une technologie très innovante qui consiste en la combustion froide de la matière organique qu’elle convertit exclusivement en eau, avec un bilan carbone neutre.

Le procédé offre par ailleurs la possibilité de récupérer les métaux et les minéraux. Le champ d’application du procédé est extrêmement vaste, allant du traitement des boues urbaines, la destruction d’huiles, de solvants, de pyralènes jusqu’aux domaines du militaire ou du nucléaire. Ce procédé est particulièrement adapté au traitement des déchets liquides qui sont, soit trop concentrés pour être dégradés biologiquement, soit trop dilués pour être incinérés.

Efficace à 99,99 % et très rapide (moins d’une minute de traitement), il rejette une eau qui peut être déversée directement en milieu naturel sans aucun risque pour l’environnement. Le procédé n’engendre enfin ni odeurs, ni émissions de particules ou gaz toxiques. Autre avantage, les unités de traitement sont compactes et peuvent être facilement installées sur site, évitant un transport coûteux et dangereux. Enfin le module de traitement permet de générer de l’énergie (chaleur ou électricité) et se révèle plus compétitif que les procédés d’incinération.

La première unité devrait voir le jour en décembre 2010 et Innoveox entend mettre au point environ 130 machines d’ici 5 ans, pour un marché estimé à 2 milliards d’euros en Europe.
 

Les trois grandes tendances des interfaces homme-machine industrielles

Les solutions d’interfaces homme-machine (IHM) industrielles sont en pleine mutation, affirment les ingénieurs de la société Beijer Electronics qui produit depuis 25 ans une gamme complète d´IHM. Selon eux, les trois grandes tendances du marché qui se dessinent – des interfaces utilisateurs intuitives, des technologies logicielles modernes largement diffusées et une véritable architecture de plateforme ouverte – nécessiteront une coopération étroite entre concepteurs graphiques et ingénieurs d´applications.

L´importance de l´interface utilisateur est devenue de plus en plus évidente ces dernières années. Il suffit de voir comment des produits comme l’iPod ou l’iPhone, en tant qu´archétypes d´interfaces utilisateurs attrayantes et intuitives, ont totalement réussi à changer la perception d´un type de produit particulier. Le succès des produits grand-public comme ceux d’Apple prouve bien que l’aspect et la prise en main communs au niveau des produits, du graphisme, et de l´environnement, contribue à la reconnaissance de la marque et forge une expérience utilisateur cohérente.

L’IHM fait désormais partie intégrante de l´expérience utilisateur

Plusieurs sociétés industrielles sont arrivées à la même conclusion, et se concentrent désormais sur la qualité des interfaces utilisateurs de leurs produits. De bien des manières, l´interface homme-machine (IHM) est la vitrine d’une machine ou d’un processus. Plus le niveau de fonctionnalités et d’interaction intégrées à l´IHM est élevé, plus l’interface utilisateur reflète l’expérience essentielle d’une machine ou d’un processus. Les IHM du futur devront élever le concept de solution IHM, de simple fonctionnalité, au rang de partie intégrante de l´expérience utilisateur en procurant un bon aspect et une bonne prise en main.

Les caractéristiques de conception vont intégrer l´utilisation d´objets WPF (Windows Presentation Foundation), ajustables à des dimensions quelconques, sans perte de qualité graphique, et l´utilisation d´ « objets.net », trouvés ou achetés sur Internet. L’utilisation de calibres et de styles d’objet facilite la production de designs cohérents et réutilisables. L´intégration de tous les objets fonctionnels, y compris des objets Windows Media, dans la conception même de l´écran, contribue encore à améliorer l´expérience utilisateur.

En dehors de l’avantage compétitif pour un constructeur de machines, il existe de solides arguments, même pour les utilisateurs, permettant de justifier l’investissement dans des interfaces utilisateur intuitives bien conçues. La valeur ajoutée des IHM intuitives du futur se retrouve dans la facilité d’utilisation, dans un rendement plus élevé et une meilleure productivité, dans des tâches accomplies plus rapidement, dans une plus grande satisfaction des utilisateurs, une confiance accrue dans les systèmes, et aussi moins d’erreurs d’utilisation.

L´innovation s´appuie sur des technologies logicielles modernes et optimisées

Les évolutions d´IHM sont le fruit des développements logiciels et de l´évolution permanente des performances des écrans. Aujourd’hui, l´écran est considéré comme le véhicule de la plateforme logicielle IHM, qui permet aux ingénieurs d’études OEM d´apporter de la valeur aux produits de leur entreprise, grâce à différentes options de fonctionnalité et différentes caractéristiques de conception. La plateforme logicielle est donc un élément crucial de l´IHM.

Le développement de logiciel IHM est coûteux et complexe et les fabricants innovants sur le plan IHM devront baser leurs plateformes logicielles sur des technologies modernes et répandues comme .net, pour pouvoir accéder à un éventail assez large d’outils et de fonctionnalités.

Le même argument peut être appliqué à la maintenance et aux développements futurs des plateformes technologiques IHM. Les ressources derrière .net sont énormes, ce qui sera reflété dans le développement permanent de nouvelles fonctionnalités IHM. La dépendance à l’égard de technologies propriétaires, ou de technologies confidentielles, doit être considérée comme une approche unique, mais risquée.

Les solutions IHM basées sur l´environnement « Microsoft.net », ou des technologies semblables, sont susceptibles de pouvoir garantir un outil pérenne, bénéficiant de mises à jour régulières et d´un support technique très apprécié des OEM, avec des stratégies à long terme au niveau des produits propres, comme des fournisseurs externes.

Architecture de plateforme ouverte pour solutions intégrées

L´IHM intègre typiquement le fonctionnement d´une machine ou d’un processus, et l´interaction avec l’opérateur. L´un des aspects est la qualité de l’interface graphique utilisateur et par voie de conséquence, la rentabilité. Un autre aspect important est l´ouverture de la solution IHM. Est-il facile ou non d’échanger des données essentielles avec différents systèmes ou contrôleurs ? Le code d’application est-il verrouillé contre toute tentative de personnalisation des fonctions ou des objets ? L´applicatif peut-il tourner sur différentes plateformes matérielles ? Les ingénieurs d’études peuvent ils utiliser des objets.net standard pour leurs projets ? Tels sont les points donnant souvent lieu à débat entre clients et fournisseurs.

L’architecture de plateforme ouverte des solutions IHM de demain offrira de nombreuses occasions aux OEM d´améliorer l´aspect, les fonctionnalités et la connectivité des applications afin de catalyser des produits uniques avec une intégrité substantielle.

Les solutions IHM seront moins propriétaires et offriront davantage de liberté au niveau du choix de la plate-forme d’exécution, depuis des tablettes jusqu´à des PC industriels issus de différents fabricants.

Il sera possible de créer un projet extensible qui pourra s´appliquer à différentes marques de contrôleur et différentes résolutions d´écran, avec l’avantage de n´avoir à maintenir qu´un seul projet. Les ingénieurs voudront pouvoir utiliser des outils de création de scripts pour adapter l´aspect ou les fonctionnalités des différents objets. L’outil de conception permettra d´importer des objets tiers et des « commandes.net ».

La liberté de connectivité et de communication est l´emblème d’une solution IHM vraiment ouverte, et devra permettre plusieurs cas de figure, allant du simple échange de données en temps réel entre contrôleurs, jusqu’à la communication SQL ou OPC avec d’autres équipements ou systèmes informatiques.

« L´usine de l´innovation » applique la méthode TRIZ

Logée dans le bâtiment historique de la société allemande Arnold Umformtechnik, le fabricant de vis et de solution d’assemblages vissés,  « L’usine de l’innovation » fait travailler des « anciens » expérimentés aux côtés de jeunes et brillants talents sur les projets de recherche et développement des nouveaux éléments de liaison de demain et d´après-demain. Dans l´esprit de Georg Vogel, responsable de la Direction de l´Innovation, le mélange de différentes générations d´employés constitue l´une des clés particulières du succès : « Il leur a fallu un peu de temps au départ pour s´adapter les uns aux autres dans les projets individuels. Mais ensuite, tous les membres de l´équipe se sont rendu compte qu´ils avaient beaucoup à apprendre les uns des autres. En conséquence, l´usine de l´innovation a produit plusieurs solutions intelligentes qui suscitent l´engouement de la clientèle ».

« Nous avons passé un bon moment à réfléchir à la façon de répondre au mieux aux demandes du marché en termes de délais, qualité et coûts à ce stage précoce, sans négliger, parallèlement, toutes les solutions potentielles, souligne Georg Vogel. Cette démarche nous a, entre autres, conduits à fonder notre processus innovation sur la méthodologie TRIZ élaborée par le scientifique russe Altschuller (1926-1998) ».

La méthodologie de développement TRIZ (« TRIZ » est un acronyme russe signifiant « théorie de résolution des problèmes inventifs), se fonde sur les observations suivantes :

  • les mêmes problèmes et solutions essentiels se répètent dans tous les domaines scientifiques et dans tous les secteurs industriels ;
  • l´évolution des systèmes techniques suit des tendances spécifiques ;
  • les vraies innovations n´émanent, bien souvent,  que d´idées scientifiques externes (en dehors du secteur d´activité personnel de l´innovateur).

Par exemple, un client peut avoir besoin de vis qui restent serrées dans tous les cas de figures possibles et imaginables, ou encore être à la recherche d´une nouvelle technologie pour assembler des composants en tôle. Grâce au processus d´idéation TRIZ, les problèmes sont analysés et des suggestions correspondant à différents scénarii de solutions sont énoncées à partir de cette analyse. Le Département Prototypage de la société traduit ensuite les propositions de « L´usine de l´innovation » en véritables prototypes tests.

Ces prototypes sont réalisés comme des prototypes fonctionnels, selon des normes de qualité très proches des exigences de la production série habituelle et en veillant à choisir la meilleure méthode de fabrication série si, au bout du compte, ils atteignent ce stade. Il s´en suit alors une série approfondie de tests et essais au laboratoire de la société pour examiner minutieusement les solutions potentielles.
 

Une résine allège de 50% les ailes du futur RVR de Mitsubishi

En développant le RVR, le crossover compact le plus récent de l’entreprise qui sera commercialisé en Europe, d’ici la fin de l’année, les ingénieurs de Mitsubishi ont déployé tous les efforts possibles afin de réduire la masse des composants et de parvenir au meilleur rendement énergétique de la catégorie. Pour la seconde fois, après le minivan Delica D:5 en 2007, ils ont choisi la résine Noryl GTX de SABIC Innovative Plastics pour la fabrication des ailes avant. Ce matériau a joué un rôle important en réduisant la masse du véhicule de 3 kg, soit une réduction d’environ 50 % par rapport à une aile en acier.

Mais, hormis ce gain de poids,  la résine offre une plus de liberté de design que le métal. Grâce au moulage par injection, les concepteurs de Mitsubishi ont été en mesure de créer une géométrie d’aile complexe dotée d’une pointe avant et d’une ouverture latérale pouvant loger un feu clignotant. Une telle conception aurait été difficile à réaliser en métal car elle aurait nécessité des outillages spéciaux et de multiples opérations. De plus, la résine Noryl GTX a permis aux concepteurs et ingénieurs de Mitsubishi d’augmenter de manière significative la flexibilité des ailes comparée aux modèles en acier. Cette flexibilité améliorée devrait procurer, d’une part, une excellente absorption lors de chocs à la tête au cours d’incidents avec des piétons et, d’autre part, la non déformation de l’aile suite à des collisions mineures (ce matériau a été récompensé en 2009 par la division automobile de la Society of Plastics Engineers dans la catégorie Sécurité pour la conformité en terme de protection des piétons des ailes de la Ford Kuga).

Pendant la production de véhicules, la résine N oryl GTX permet de réduire la complexité et les temps de cycle. Sa résistance aux hautes températures et sa conductivité intrinsèque permettent la peinture des ailes sans apprêt conducteur sur la ligne de production en obtenant une finition de peinture équivalente à l’acier. Pour optimiser la peinture en ligne de production des ailes en plastique en même temps que la carrosserie en acier, la conception a fait l’objet d’un soin minutieux. SABIC Innovative Plastics a aidé Mitsubishi en partageant son expertise en matière de simulation assistée par ordinateur des performances et du moulage des pièces.

Selon l’entreprise de stratégie environnementale GreenOrder qui a audité la résine Noryl GTX,  si ce matériau équipait les ailes de  toutes les voitures roulant aujourd’hui en Europe, il permettrait d’économiser 530 millions de litres de carburant et éviterait 1,3 millions de tonnes d’émissions de dioxyde de carbone. En attendant, depuis 1988, plus de 20 millions de véhicules ont déjà été fabriqués avec des ailes en résine Noryl GTX en Europe, aux États-Unis, au Japon, en Amérique du Sud et en Chine.
 

De plus en plus de bâtiments sociaux passifs en Europe

A travers le projet d’habitats passifs consommant moins de 15 kWh/m² an pour le chauffage baptisé Buildtog (Building together ou Construire ensemble) réalisé par l’ANMA (Agence Nicolas Michelin et Associés) en collaboration avec BASF, les membres du réseau de sociétés de logement Eurhonet souhaitent apporter une réponse performante, technique et architecturale aux enjeux globaux du changement climatique. L’idée est de créer en Europe un référentiel d’habitat accessible à tous et performant en terme d’efficacité énergétique. Pour cela, un bâtiment type sera transposé dans au moins cinq pays du réseau Eurhonet : la France, la Suède, l’Allemagne, l’Italie et probablement le Royaume-Unis.

Dans un premier temps, le cabinet d’architecture ANMA et les experts de BASF impliqués tout au long du projet Buildtog, de la définition du concept énergétique et des adaptations locales jusqu’au suivi qualité de la construction, ont réalisé le design commun et rédigé un livre de recommandation sur les matériaux et systèmes à utiliser pour atteindre le standard passif. Ce dernier est un outil d’aide à la conception qui sert de base pour l’adaptation dans chaque ville d’Europe où sera reproduit l’immeuble. Actuellement, les différentes sociétés de logement européennes planchent sur l’adaptation locale du bâtiment imaginé par Nicolas Michelin, notamment en fonction des normes du pays et du climat. Au terme des études d’adaptations locales, fin 2010, les premiers chantiers dans les différents pays débuteront courant 2011, et se termineront fin 2012.
Parmi  les 5 bailleurs sociaux français membre du réseau Eurohnet qui adaptent en ce moment le projet Buildtog, on notera la présence du « Foyer Rémois » (Reims) et  du « Groupe Habitat 62/59 » (Calais) qui s’illusternt par des expériences d’habitat passif en France.

La rénovation d’un quartier rémois à l’image du « quartier Brunck »

Après avoir inauguré en mars dernier, à Bétheny,  l’immeuble « la Clairière » qui  vise à obtenir les labels «Bâtiment Basse Consommation Effinergie» et «PassivHaus», le « Foyer Rémois » lance actuellement la rénovation du quartier Orgeval de Reims, à 4 km du centre ville. Sur les plans des cabinets d’architecture Atelier Choiseul et GERA architectes, l’entreprise CARI s’occupera des travaux à partir de la rentrée 2010 et devrait livrer fin 2013. Cette rénovation s’inscrit dans le cadre des nouvelles réglementations thermiques des bâtiments issues du Grenelle de l’environnement et du programme de renouvellement urbain de la ville de Reims en accord avec l’ANRU (Agence Nationale de Renouvellement Urbain).

Après leur visite du quartier Brunck en Allemagne, les représentants du Foyer Rémois qui ont fait appel au pôle d’expertise en efficacité énergétique de BASF pour accompagner le projet sur la problématique de l’objectif énergétique, ont souhaité faire de la réhabilitation du quartier Orgeval, leur « propre quartier Brunck » en prenant exemple sur ce quartier devenu quartier à haute performance énergétique suite à sa réhabilitation. C’est la société de logements Luwoge, filiale de BASF gérant un parc de plus de 9000 logements à haute performance énergétique en Allemagne, qui a rénové à Ludwigshafen le quartier Brunck, dont la consommation a été divisée par 4. Il comprend notamment, le premier bâtiment « 3 litres » d’Allemagne, dont la consommation est inférieure à 30 kWh/m².an, mais aussi 46 maisons « 1 litre », construites au standard passif, et dont la consommation est inférieure à 10 kWh/m²/an, et enfin la maison à coût de chauffage zéro.

En termes de consommation énergétique, le projet de réhabilitation du quartier Orgeval, constitué de bâtiments construits dans les années 70, vise le label français BBC (bâtiment basse consommation), soit pour la région une consommation en énergie primaire maximum de 65kWh/m².an pour les logements neufs contre 104 Wh/m².an pour les logements rénovés. Ceci d’une part améliorera le confort des habitants et d’autre part réduira leurs charges locatives. En effet le diagnostic thermique des bâtiments existants fait apparaître de fortes déperditions liées aux grandes surfaces vitrées, aux murs extérieurs, à des ponts thermiques et au système défectueux du renouvellement d’air des logements.

La phase de multiplication du concept « PassivHaus » est en marche

Pour sa part, « Habitat 62/59 Picardie » a, en partenariat avec BASF, a lancé à Béthune l’une des premières opérations en locatif social labellisée « PassivHaus et BBC-Effinergie » de France et la première du Pas-de-Calais, en s’inspirant de l’immeuble « la Clairière » – le « modèle de l’habitat de demain », mais à plus grande échelle (15 et 34 logements ; contre 13 pour « la Clairière). Pour ces deux bâtiments, le but est  d’atteindre les mêmes performances en termes d’économie d’énergie : un besoin en chauffage de moins de 15 kWh/m².an. Pour cela les mêmes solutions innovantes déjà combinées pour « la Clairière » vont être appliquées aux futurs bâtiments de Béthune :

  • le respect de l’architecture bioclimatique couplée à une toiture végétalisée qui ajoute à la fois un gain écologique et un aspect esthétique appréciable intégrant parfaitement le projet à son environnement ;
  • une isolation optimale avec la pose en façade d’un système d’isolation thermique par l’extérieur de 30 cm, composé d’un matériau en polystyrène graphité, le Neopor fabriqué par BASF ;
  • une ventilation assurée par un système de VMC double flux avec récupération de chaleur de la société Aldes, complétée par un puits canadien qui fournit une géothermie efficace et permet un apport de fraîcheur et confort en été ;
  • une production d’eau chaude sanitaire assurée par des panneaux solaires installés sur le toit du bâtiment, celui-ci est également recouvert d’une couche végétale qui permet la récupération de l’eau de pluie et forme une barrière naturelle contre l’humidité et le froid.

La phase d’exécution des travaux devrait commencer en septembre 2010 pour se terminer en 2013.
 

Les bonnes pratiques du CMMI

Le CMMI (Capability Maturity Model Integration) est un ensemble structuré de bonnes pratiques destiné, selon les modèles, à évaluer et améliorer le développement et la maintenance des systèmes, la réalisation et la fourniture des services, ainsi que l’acquisition des produits et services. Il est l’un des trois référentiels majeurs, avec ITIL(Information Technology Infrastructure Library) axé sur la production, et CobiT (Control Objectives for Information and related Technology) centré sur la gouvernance.

Si ce cadre générique de processus est majoritairement utilisé dans des sociétés d’informatique, il s’applique à n’importe quelle activité d’ingénierie : architecture, mécanique, électronique… En effet, le CMMI se décline en 3 modèles de processus dont la partie commune représente environ 60 % des pratiques. D’un modèle à l’autre, les différences portent essentiellement sur la catégorie « Ingénierie » dont les pratiques varient selon l’activité concernée.

Dans l’ouvrage « CMMI par l’exemple – Pour une mise en place opérationnelle », l’auteur, François Dufay, explique comment utiliser et déployer CMMI dans son entreprise, avec à l’appui documents opérationnels, schémas, tableaux, figures, exemples de cas réels et quiz. Il se démarque de la plupart des livres existants par une représentation opérationnelle du modèle, en mettant l’accent sur l’application des modèles CMMI-DEV (pour développement de systèmes) et CMMI-ACQ (pour la maîtrise des activités d’achat) dans l’entreprise.

Nourri par le grand retour d’expérience de l’auteur, consultant en qualité logiciel et amélioration des processus et Client Engagement Manager au sein d’un grand groupe international, qui parle ici sans tabous, ce livre passe en revue toutes les questions que le lecteur est en droit de se poser : une démarche CMMI est-elle rentable ? Est-ce le modèle adapté à ses besoins ? Quels sont ses réels apports ? Comment faire cohabiter différents modèles ?

L’ouvrage destiné aux DSI et aux managers de l’informatique et à tous ceux qui utilisent le modèle CMMI (ingénieurs qualité, consultants, formateurs, évaluateurs…), est complété par une étude de cas et une extension Web sur laquelle figurent des modèles de livrables prêts à l’emploi. Il est accompagné d’une traduction française du module Acquisition.
 

Un SAN dopé par la virtualisation de l’infrastructure de stockage

« Deux problèmes se posaient au niveau des magasins », explique Todd Slan, directeur technologique de Total Wine, l’un des principaux cavistes indépendants aux Etats-Unis. L’un concernait la croissance. Nous avions une application de base de données qui prenait en charge 200 utilisateurs au siège et avons élargi l’accès aux magasins, avec pour conséquence 1 500 utilisateurs supplémentaires à gérer. Un SAN (Storage Area Network)  standard, qui ne fait pas appel à la virtualisation, présente de graves limites de taille physique qui, une fois atteintes, ont de lourdes conséquences.

Outre le problème de croissance, il y avait celui des performances. En effet, lorsque 1.500 utilisateurs, au lieu de 200, accèdent à une base de données, les performances s’avèrent sensiblement différentes. Nous avions atteint le stade où les performances étaient devenues un problème. L’espace disque nous faisait défaut et nous ne pouvions pas ajouter d’autres baies de disque, à moins d’acheter un nouveau SAN. Nous avions besoin d’une solution nous permettant d’optimiser le fonctionnement de ces bases de données. Une solution de virtualisation du stockage a permis de résoudre ces problèmes, sans avoir à acheter du nouveau matériel, réapprovisionner des disques ou redimensionner les LUN. Elle nous permet de ne pas gaspiller d’espace comme c’était le cas avec des modèles de SAN standard  qui auparavant nous faisaient gaspiller au fond 50 % de notre espace disque. »

Total Wine a évalué la possibilité de compléter le SAN EMC ou d’adopter d’autres solutions matérielles de stockage telles que celles de LeftHand Networks, EqualLogic ou NetApp. Toutefois, en tant que président du conseil CIO Mid-Atlantic pour Microsoft, qui fait office de comité consultatif de la direction, où il siège au comité international, Todd Slan a été orienté vers DataCore par un autre membre du conseil, client de DataCore ainsi que partenaire. « DataCore et The Asbury Group Integrated Technologies, partenaire Microsoft, m’ont amené dans leur data center et m’ont montré comment ils avaient résolu un problème de 80 téraoctets de données avec la solution de virtualisation du stockage DataCore », ajoute Todd. « Ce fait, et l’idée de ne pas avoir à remplacer notre matériel de stockage existant, a suffi à nous convaincre que la solution DataCore répondait à nos besoins. »

Une infrastructure de stockage virtualisée entièrement redondante

Le pool de données désormais géré par la solution DataCore fait 10 To en tout. En termes de communauté d’utilisateurs, les 10 To sont divisés entre 230 utilisateurs au siège de l’entreprise Total Wine et du personnel travaillant dans les points de vente. Pour les utilisateurs au siège, la solution DataCore fournit l’éventail des données, bases de données et serveurs qui sont en général essentiels dans un environnement de bureau : fichiers plats, bases de données, Exchange, etc. Pour les utilisateurs en magasin, l’application métier principale qui pilote toutes les activités commerciales de Total Wine repose sur une base de données SQL qui réside sur le SAN DataCore.

Total Wine a réalisé un investissement important dans Microsoft Hyper-V pour virtualiser ses serveurs et a déployé exclusivement Hyper-V comme hyperviseur privilégié. Le data center de Total Wine dans le Maryland est à moitié virtualisé. À ce jour, huit systèmes principaux ou un tiers des machines virtuelles (VM) de l’infrastructure virtualisée fonctionnent désormais de concert avec la solution DataCore pour virtualiser et accélérer leur stockage. L’échelle va croître sensiblement dans la phase suivante du déploiement de la virtualisation.

Au départ, Total Wine a déployé la solution DataCore simplement pour bénéficier des avantages inhérents à la virtualisation pour son SAN EMC, notamment de meilleures performances grâce à la fonctionnalité de méga-cache DataCore et une capacité accrue grâce à la technologie de provisionnement fin à l’échelle de l’infrastructure. Todd Slan et son équipe déploient maintenant une deuxième licence DataCore, pour assurer la haute disponibilité et améliorer le temps de service. Cet été, l’infrastructure de stockage virtualisée de Total Wine, reposant sur la solution DataCore, sera entièrement redondante, deux SAN mis en miroir protégeant alors les données pour garantir la disponibilité et la tolérance aux pannes. Ce processus va également poser les bases d’une reprise d’activité complète (si nécessaire) alors que, dans une phase ultérieure, un troisième SAN DataCore pourra être ajouté sur un site distant et relié par réplication distante ou asynchrone.

L’un des aspects que Todd Slan apprécie vraiment au sujet de la solution de virtualisation du stockage est la flexibilité qu’elle leur procure. Total Wine gère actuellement des ressources de stockage hétérogènes (Fibre Channel, connexion directe et iSCSI). « DataCore ne nous impose aucun modèle de stockage », constate Todd Slan. « Avec cette solution, je ne suis pas obligé d’acheter des périphériques de stockage Fibre Channel pour tout. Je peux acheter du stockage à coût réduit, brancher des unités SAS à connexion directe en arrière-plan du SAN DataCore et éviter de payer le prix du matériel Fibre Channel devenu inutile. »
 

Le calcul haute performance s’ouvre aux PME

Outil essentiel de la recherche scientifique, technologique et industrielle, le calcul haute performance est mis en œuvre par des superordinateurs capables d’exécuter plusieurs milliards d’opérations à la seconde pour modéliser des phénomènes particulièrement complexes, traiter ou qualifier rapidement des données en très grand nombre. Ainsi un calcul qui s’exécute en 24 heures sur un PC classique, ne prend que quelques minutes sur un superordinateur. Ces gains en temps et en fiabilité permettent de réduire les coûts à chaque étape du cycle de vie d’un produit ou d’un process (conception, optimisation, validation) et concernent potentiellement de nombreux domaines à forts enjeux économiques et sociétaux : aéronautique et espace, transports, énergie, chimie, médecine et biologie, matériaux, environnement, multimédia, finance…

Dans ces domaines, le recours au calcul haute performance permet des ruptures technologiques majeures, par exemple, dans l’évaluation de la résistance d’un matériau, la modélisation d’écoulements aérodynamiques, de phénomènes électromagnétiques ou acoustiques, l’analyse de la structure et des propriétés de composants chimiques ou biologiques, l’optimisation du traitement de données financières et multimédia ou encore l’aide au diagnostic médical…

Bâti en cohérence avec les recommandations du plan France Numérique 2012, le programme Initiative HPC-PME lancé conjointement par GENCI (Grand Equipement National de Calcul Intensif), l’INRIA et OSEO, en partenariat avec quatre pôles mondiaux de compétitivité, vise à soutenir et accroître la compétitivité des PME dont les projets d’innovation industrielle peuvent tirer parti de l’utilisation du calcul haute performance. Au cœur du dispositif : un accompagnement dans la durée pour garantir une intégration efficace des capacités de développement offertes par le HPC (High Performance Computing).

Prendre la mesure de l’intérêt économique du HPC

En les accompagnant tout au long de leur première approche du calcul haute performance, ce programme aidera les PME, aussi bien du point de vue technique, commercial que financier, à construire un projet d’innovation industrielle. Qu’il s’agisse d’optimiser les performances de leurs technologies ou de préparer les innovations de demain, l’objectif est d’aider les PME à prendre la mesure de l’intérêt économique du HPC au regard de leur modèle de croissance.

Le programme Initiative HPC-PME s’appuie sur la complémentarité des compétences de chaque partenaire : GENCI pour un accès accompagné aux ressources de calcul haute performance, l’INRIA pour son expertise scientifique et technologique, OSEO pour sa maîtrise des outils de soutien et de financement de l’innovation. Il sera mené en partenariat avec quatre pôles mondiaux de compétitivité, bénéficiant chacun d’une forte implantation régionale, à la fois académique et industrielle : Aerospace Valley (aéronautique, espace, systèmes embarqués), Axelera (chimie et environnement), Minalogic (solutions miniaturisées intelligentes pour l’industrie) et System@tic (systèmes complexes).

L’offre comporte quatre volets combinant l’ensemble de ces compétences: formation, expertise, accès aux équipements et intégration dans les dispositifs de financement de l’innovation.

A partir du mois de septembre 2010, chacun des partenaires présentera l’initiative HPC-PME aux acteurs régionaux mais les PME françaises  intéressées par le calcul haute performance trouveront l’ensemble des informations nécessaires pour se porter candidates ainsi que les moyens mis à leur disposition par les trois partenaires sur le site http://www.initiative-hpc-pme.org. Un premier bilan de cette initiative sera réalisé au printemps 2011. 

Sopal suit chaque produit, de sa conception à sa fin de vie

Fondée en 1981, la société tunisienne Sopal conçoit et fabrique tous types d’articles de robinetterie complexes et sophistiqués pour cuisines et salles de bain mais aussi pour l’industrie. Son système de production est intégré et elle dispose d’un bureau d’études techniques équipé d’outils de DAO, PAO, CFAO et d’un atelier pourvu de machines à commande numérique pour la fabrication de tout outillage nécessaire à la production par estampage à chaud, fonderie en coquilles, injection sous pression, usinage à commande numérique et traitement de surface. Le contrôle d’étanchéité est assuré unitairement sur tous les produits par des bancs d’essais électroniques. Certifiée ISO 9001, elle commercialise des produits standard présentés sur catalogue et fabrique à la demande.

Compte tenu de l’évolution rapide des tendances en matière de design de produits de robinetterie, les dirigeants de Sopal ont estimé que l’entreprise devait rester flexible et réactive par rapport à la demande du marché. Pour ce faire, cette entreprise de 520 personnes a adopté une stratégie PLM s’appuyant sur les solutions V6 PLM Express et 3DVIA Composer pour la totalité de ses produits, de la conception initiale du style de ses nouveaux modèles jusqu’à leur mise au rebut et à leur fin de vie. Grâce à ces solutions Dassault Systèmes, elle peut ainsi gérer l’ensemble des informations produits, telles que les spécifications techniques, les données de conception, les contraintes règlementaires ainsi que les ventes, tout au long du cycle de vie.

Accélérer le processus dans sa totalité

« Il est capital de détecter les nouvelles tendances et de proposer des produits adaptés à ces changements. Pour lancer le bon produit sur le marché tout en raccourcissant au maximum les délais, il est important de pouvoir d’abord visualiser le produit dans un contexte réaliste », déclare Moez Regayeg, Directeur de Sopal. « Nous nous sommes appuyés sur la visualisation réaliste de la plate-forme V6 pour créer une expérience interactive en 3D. Nous avons même franchi une étape supplémentaire avec 3DVIA Mobile en publiant nos modèles sur 3Dvia.com que nos clients peuvent découvrir sur leur iPhone . Solution pour rechercher, télécharger et partager des idées en 3D sur Internet, 3DVIA va nous aider à promouvoir nos produits dans le monde entier », se réjouit Moez Regayeg.

Sopal a choisi V6 PLM Express pour ses qualités de manipulation et de visualisation réaliste de surfaces complexes haut de gamme, permettant à ses concepteurs de créer dans Catia V6 des formes complexes, pour offrir un design à la fois esthétique et reconnaissable à ses robinets. Pour sa part, la solution Delmia V6 Machining est utilisée pour créer l’équipement destiné à la fabrication et accélérer le processus dans sa totalité. Quant à 3DVIA Composer, il permet de  documenter rapidement et facilement le processus d’assemblage et le réaliser dans le cadre d’une expérience interactive en 3D enrichie de procédures animées. Sopal utilise les animations en 3D pour expliquer aux architectes, aux entrepreneurs du bâtiment ou au client final, comment installer ses produits ainsi que leur fonctionnement.

La plate-forme V6 assure la collaboration entre les différents services de Sopal et ses deux filiales et leur permet de travailler ensemble,  ce qui accélère le processus de développement, contribue à l’innovation et permet d’éviter les erreurs. « De plus en plus de personnes participent à un projet, partagent des idées et apportent des modifications. Elles doivent donc avoir la certitude qu’elles travaillent sur la version la plus récente d’un design », souligne Moez Regayeg. « La V6 répond à tous nos besoins de conception, de fabrication et de gestion documentaire sur la même plate-forme collaborative », conclut-il. Un déploiement multimarques de V6 PLM Express qui permet à Sopal de suivre chaque produit en temps réel, et à toute personne au sein de l’entreprise, de disposer de données à jour.

 

Des drains filtrants pour bloquer l’érosion du littoral

La protection des digues maritimes et la lutte contre l’érosion du littoral français qui est très exposé, ont montré toute leur importance lors de la tempête Xynthia : après son passage, sur les 1.350 km de digues côtières, un tiers nécessite d’être réparé pour un coût des travaux de restauration et de réhabilitation  estimé entre 1 à 2 millions d’euros le kilomètre. 

L’augmentation des risques côtiers s’est traduite depuis des années par la construction systématique d’ouvrages de défense rigides de type perrés, digues ou murs, ce qui a conduit à une artificialisation massive des côtes. Ces ouvrages de défense rigides protègent les terres de la submersion marine cependant, ils bloquent les échanges naturels entre la plage et la dune, modifient l’équilibre de la côte et aggravent l’érosion des sites sur lesquels ils sont situés et sur les sites adjacents. Au pied de ces d’ouvrages, le sable a tendance à s’éroder plus rapidement sous l’effet de la réflexion des vagues qui accroît la turbulence dans la zone de déferlement.

Le procédé Ecoplage de la société du même nom, à Sainte Luce-sur-Loire (44),  représente une solution complémentaire et écologique  aux actions de réhabilitation et de renforcement des digues. Il permet, sur une plage en amont d’une digue,  de diminuer la force de reflux des vagues en constituant une réserve de sable qui joue le rôle de stock tampon lors des tempêtes. En amortissant les effets de la houle, ce stock de sable additionnel constitue une barrière de protection naturelle qui freine les processus d’érosion de la digue. Cette technologie propriétaire a révélé  son efficacité sur la plage de Quend dans le département de la Somme. Avant la mise en place du procédé Ecoplage, cette plage perdait de 20 à 30.000 m3 de sable par an du fait de l’érosion. Le sable avait pratiquement disparu au pied de la digue laissant apparaître les structures d’appui. A marée basse, de l’eau stagnait constamment dans le creux laissé par la marée.

« Un an après la mise en place du procédé Ecoplage, la plage de Quend s’est rehaussée en sable de 80 cm à 1m en haut de plage. Cet afflux de sable a constitué un stock tampon qui a stoppé l’érosion marine de la digue qui avait du être restaurée en plusieurs endroits. A marée haute, la digue reste désormais la plupart du temps protégée par une bande de sable sec. L’ouvrage est renforcé par cette protection supplémentaire de sable totalement naturelle » souligne Jean-Yves Audrain, Directeur Général de la société d’Ecoplage. « Une fois installé, notre technologie permet de stopper l’érosion puis de reconstituer très rapidement et à moindre coût le cordon dunaire. Elle s’impose comme une alternative naturelle et efficace à la construction systématique de digues qui modifient considérablement les écosystèmes et les échanges naturels dune-plage sans régler le problème d’érosion des côtes », poursuit-il.

Une réponse aux enjeux environnementaux

Le procédé Ecoplage repose sur le principe physique du rabattement de la nappe phréatique par drainage gravitaire à l’intérieur de la plage. Le système draine l’eau contenue dans le sable favorisant le dépôt de sable naturel additionnel sur la surface de la plage. Il consiste en l’enfouissement d’un drain d’une longueur déterminée par une étude préalable à environ 2 m sous la plage pour optimiser l’infiltration de l’eau de mer et faciliter l’accrétion. Le drain filtrant est constitué en PVC perforé de 200 mm de diamètre, enrobé d’une chaussette géotextile et entouré d’un massif filtrant afin d’éviter qu’il ne se colmate. Enterré dans le sable parallèlement au trait de côte, il va permettre d’assécher la plage dans la zone de déferlement des vagues et éviter le retrait des sédiments lors du reflux des vagues. Les drains absorbent l’eau qui s’écoule par gravité vers une station de pompage. Le drainage diminue la pression interstitielle entre les grains de sable ce qui augmente leur cohésion et les rend plus résistants à l’érosion marine. De plus, il favorise le dépôt des sédiments contenu dans l’eau des vagues lors de l’infiltration à l’intérieur de la plage, accélérant les processus de ré-ensablement naturel. Ainsi, dès sa mise en marche, le système contribue à freiner l’érosion et à favoriser l’ensablement naturel de la plage.

Les canalisations sont reliées à une canalisation de collecte. L’eau s’écoule par gravité jusqu’à la station de pompage. L’eau de mer filtrée est pompée par la station pour être ensuite refoulée dans la canalisation de rejet. La société a breveté un enfouisseur de drain capable d’enterrer le drain et le massif filtrant en une seule opération. L’engin installe jusqu’à 300 m/h de drain, une installation complète du système pouvant être opérée en 3 mois pour une longueur de 1.000 m.

Le procédé Ecoplage génère une importante quantité d’eau de mer filtrée qui peut être valorisée de différentes manières en fonction des besoins des collectivités locales : production de chaleur ou de froid en association avec une pompe à chaleur, oxygénation des lagunes et des étangs de marinas, approvisionnement de piscines, alimentation de centres de thalassothérapie, de bassins piscicoles et conchylicoles, d’usines de dessalement… Il répond aux nouveaux enjeux environnementaux : il conserve un paysage littoral identique au site naturel, n’agit pas significativement sur le transit littoral, n’a aucun impact négatif sur l’environnement et participe directement à la protection des écosystèmes (confrontés à la disparition progressive de la superficie des plages, les estivants s’installent désormais aux pieds des dunes protégées et empiètent sur les écosystèmes des littoraux).

De plus, Ecoplage qui est installé sur 5 sites en France, s’intègre dans une gestion durable du littoral : la plage n’a plus besoin d’être engraissée par des apports de sable, la mise en place d’ouvrage de défense rigide devient obsolète, les opérations d’entretien sur les ouvrages rigides existants diminuent et les collectivités locales réalisent des économies globales dans la gestion de leur littoral (à Saint Raphaël, 2 épis en enrochement devenus inutiles ont été supprimés sur la plage d’Agay conjointement à l’installation du système, restituant les caractéristiques naturelles de ce site classé).

 

Le camion du futur pour le transport longue distance

Le transport longue distance de demain sera assuré par de longs camions à pilotage automatique circulant sans interruption en convois sur des autoroutes « vertes » reliant les différents continents. Telle est la vision qui sous-tend le projet Volvo Concept Truck 2020. Mais cette vision se matérialisera-t-elle d’ici dix ans ? « Telle est la vraie question, déclare Rikard Orell, directeur du design chez Volvo Trucks. Le progrès ne cesse de s’accélérer. De ce fait, notre vision pour demain ne semble pas si lointaine. La plupart des technologies du Volvo Concept Truck 2020 sont déjà disponibles, d’autres doivent encore être développées. Il faut véritablement lancer le débat, et définir les aptitudes et attributions de chacun. Aborder superficiellement la question risque d’annihiler les progrès initiés. »

Un transport commercial plus sûr et plus efficace

A mesure de son développement, le transport se doit d’être plus sûr et plus efficace. Le concept de Volvo qui a développé une maquette radiocommandée du Concept Truck 2020, donne des pistes pour atteindre ces deux objectifs. Certaines des idées du projet peuvent être intégrées en production dès aujourd’hui tandis que d’autres visent à susciter l’intérêt et à lancer la discussion.

L’une des idées les plus révolutionnaires consiste à relier des véhicules électroniquement dans de longs convois traversant les continents à 90 km/h. « Cela ne sera possible que lorsque les corridors verts envisagés dans le secteur du transport deviendront une réalité, explique Rikard Orell. Les poids lourds seront ainsi séparés des autres véhicules, circulant sur leurs propres voies, à l’image d’une voie ferrée mais sans rails. »

Ce concept présente de nombreux avantages. Il contribue à augmenter la sécurité routière, à limiter l’espace nécessaire aux services de transport et à réduire l’usure des routes. Il permet par ailleurs de réduire la consommation de carburant et les émissions de CO2, la traînée d’un véhicule étant réduite lorsqu’il se trouve dans le sillage d’un autre. En outre, le conducteur peut s’installer au volant tout en laissant le camion piloter. Ce temps pouvant être considéré comme un temps de pause, il en résultera des temps de transport plus courts, des livraisons plus rapides, et les conducteurs pourront alors profiter davantage de leurs famille et amis.

Un poste de conduite spacieux et aéré

Le concept de Volvo Trucks intègre de nombreuses idées sur le développement du poste de conduite. Sur le Volvo Concept Truck 2020, le poste de conduite est spacieux, aéré et ergonomique. « Nous avons remplacé le tableau de bord classique par un panneau à film mince affichant des informations personnalisées à la convenance du conducteur, explique Rikard Orell. Ce panneau fonctionne comme un pavé tactile, à l’instar d’un iPhone. Nous avons ainsi gagné énormément d’espace. »

Le siège conducteur aérodynamique avec son dossier mince et ventilé s’apparente davantage à un siège de bureau moderne qu’à un siège de camion, et contribue également à favoriser les gains de place. Derrière le conducteur est monté un sofa futon qui se transforme en confortable couchette une fois la nuit tombée. L’éclairage de la cabine est divisé en zones adaptées aux différentes tâches du conducteur ou aux périodes de repos.

Le conducteur est entouré de vastes surfaces vitrées lui offrant une excellente visibilité à l’intérieur et à l’extérieur du véhicule. Cette architecture favorise le contact visuel entre le conducteur et les autres usagers de la route, contribuant à limiter le risque d’accidents. La teinte des vitres et l’obscurcissement le soir sont commandés électroniquement.

Une protection anticollision aérodynamique

L’équipe de design a également cherché à optimiser la forme aérodynamique du camion afin de réduire la perception de sa taille. Les projecteurs et les clignotants à LED sont intégrés à l’avant du véhicule. Les rétroviseurs ont été remplacés par des caméras projetant l’image filmée sur l’intérieur du pare-brise.

La partie inférieure avant du véhicule présente une protection anticollision intégrée dépassant d’environ 50 cm. Ce « nez » atténue le choc en cas de collision frontale et contribue également à favoriser l’aérodynamique.
« Ce nez constituant un équipement de sécurité, nous ne l’avons pas pris en compte dans la longueur maximum autorisée, tout comme les rétroviseurs qui ne sont aujourd’hui plus intégrés dans le calcul de la largeur maximum autorisée », souligne Rikard Orell.

Certains éléments ont été reconduits. Le badge Globetrotter sur le pavillon a été conservé mais redessiné pour s’harmoniser avec les lignes du véhicule et réduire la traînée. Le conducteur peut changer le texte du bandeau depuis le tableau de bord.

La prochaine étape : l’arrière

Les travaux sur le design extérieur se focalisent largement sur l’aérodynamique. Mais dans quelle mesure est-il réellement possible de réduire la traînée sur un camion ? « Nous nous sommes pour le moment intéressés à l’avant du véhicule et avons conclu que des changements complémentaires à la forme de base n’apporteraient que des améliorations marginales, explique Rikard Orell. Néanmoins, il reste encore fort à faire au niveau du design de l’arrière du véhicule. Le potentiel aérodynamique inexploité à ce niveau est énorme. »
 

La conception des engrenages en plastique en toute sécurité

La conversion du métal vers le plastique est une tendance majeure et un progrès significatif dans la technologie de l’engrenage. Les engrenages en plastiques offrent beaucoup d’avantages par rapport au métal traditionnel, à commencer par une plus grande liberté de conception. La substitution de l’usinage par le moulage permet de nouvelles configurations tout en évitant les coûts d’opérations secondaires. La masse plus légère du plastique réduit aussi l’inertie, pour une plus grande efficacité de l’engrenage. En outre, les pièces en mouvement sont beaucoup plus silencieuses que celles en métal, contribuant ainsi à la réduction du bruit ambiant des machines.

« Toutefois, le manque de données fiables a mis un frein à la conception d’engrenages en plastique », précise le Dr Stefan Beermann, PDG de KISSsoft AG, éditeur suisse de logiciels. « Les calculs de dimensionnement pour engrenages en métal ne peuvent être appliqués à leur équivalent en plastique car les propriétés de performance du plastique peuvent varier avec la température. Le travail accompli avec SABIC Innovative Plastics a permis à KISSsoft d’incorporer les propriétés d’une grande partie des composés haut de gamme de l’entreprise dans notre logiciel de calculs, ce qui a radicalement simplifié le processus de conception d’engrenage. Que les engrenages soient destinés aux systèmes de funiculaires, au matériel de construction, aux transmissions pour Formule 1 ou aux engins spatiaux, les clients peuvent désormais choisir et évaluer les composés de spécialité de SABIC Innovative Plastics rapidement et avec précision» poursuit-il.

Tirer parti de l’avantage des engrenages en plastique

La socité KISSsoft applique désormais des calculs de dimensionnement d’engrenages pour 17 grades de composés de spécialité LNP de SABIC Innovative Plastics, spécialiste des solutions thermoplastiques techniques,  y compris des grades haute température, des grades lubrifiés de manière interne et des grades renforcés à la fibre de verre. Désormais, les ingénieurs et les concepteurs peuvent remplacer les essais et éviter les tâtonnements et les erreurs en utilisant des données validées selon des paramètres tels que la résistance, la résistance à la température et l’usure des flancs de dent, afin de rationaliser de manière significative le processus de conception d’engrenage.

Cette nouvelle solution peut aider un large éventail d’industries, allant du domaine de la santé et de l’automobile, à la restauration. Une solution qui tire parti des avantages des engrenages en plastique en vue de réduire les coûts du système, d’augmenter fortement la liberté de conception et d’offrir une meilleure performance.

Le premier ensemble de matériaux LNP de SABIC Innovative Plastics à être validé comprend les grades renforcés utilisant des fibres de verre et carbones courtes et longues, des technologies de lubrification variées et huit polymères de bases différentes. Les données pour ces grades comprennent les valeurs dépendant de la température pour le module, la résistance à la flexion statique et les valeurs d’usures caractéristiques pendant le fonctionnement à sec.

Par exemple, les composés Lubricomp LNP et Lubriloy LNP avec lubrification interne peuvent être utilisés dans des engrenages fonctionnant à sec pour des applications ne permettant par l’application externe d’huile et de graisse. Les secteurs de la santé et de la restauration sont les marchés clés pour ces matériaux, du fait des exigences en matière d’hygiène et de sécurité. D’autres avantages liés aux composés lubrifiés de manière interne tiennent à la réduction des coûts du fait d’un entretien moindre et une meilleure protection environnementale. Enfin, les grades renforcés en fibre de verre des composés de SABIC Innovative Plastics peuvent améliorer la résistance à l’usure et à la fatigue, et permettre la transmission de couples de serrage plus élevés.
 

Les liquides hydrauliques sous haute surveillance

La protection contre toute fuite d’huile des systèmes hydrauliques a encore gagné en importance en raison des nouvelles prescriptions relatives à la protection de l’environnement. Il est donc très important d’utiliser des joints neufs à chaque remplacement de composant, seule manière de parer aux défauts d’étanchéité des systèmes hydrauliques. Pour cette raison, Parker Hannifin, premier fabricant mondial des technologies du mouvement et du contrôle, propose le nouveau filtre sommet de réservoir PT qui se caractérise par sa construction brevetée: l’élément filtrant et le couvercle du corps du filtre sont déjà intégrés dans l’élément consommable. Le remplacement de l’élément filtrant commercialisé sous forme d’accessoire à monter sur le réservoir.est ainsi simplifié car il n’y a plus de pièces détachées qui doivent être de nouveau montées (de nouveaux joints sont ainsi utilisés à cet endroit critique à chaque fois que l’élément filtrant est remplacé).

Le filtre PT qui est conçu pour des débits atteignant 400 l/min à une pression de service pouvant atteindre 10 bar, est construit de telle sorte que l’huile coule de l’intérieur vers l’extérieur à travers le filtre. Ainsi, les impuretés filtrées restent à l’intérieur quand l’élément filtrant  est remplacé. Le système ne peut donc pas être encrassé de nouveau si des gouttes d’huile retournent dans le réservoir lors de la manipulation. Par ailleurs, l’air dans les liquides hydrauliques réduisant la puissance des pompes par cavitation, le diffuseur  Parker garantit que l’air ne pénètre plus dans les conduites de retour et que l’huile s’écoule ainsi plus facilement dans le réservoir. L’utilisation du filtre PT assure ainsi une performance optimale et une réduction des charges d’exploitation.

contrôler l’état du liquide hydraulique reste une nécessité

Autre innovation de Parker Hannifin : le nouveau filtre haute pression duplex EADPF qui autorise la commande à distance grâce à une électrovanne hydraulique intégrée. L’unité commute automatiquement sur le second élément filtrant quand le premier doit être changé. Elle envoie simultanément un signal d’avertissement au système de surveillance pour informer de la nécessité d’un changement de filtre. Pour éviter tout dommage dû à des pointes de pression, le système met automatiquement en fonction la ligne équipotentielle avant la commutation sur l’élément filtrant non encore utilisé du filtre double. Cette solution fait disparaître le risque de la commutation manuelle qui ne peut garantir l’utilisation correcte de la ligne.

En dépit de toutes ces précautions, il demeure important de contrôler l’état du liquide hydraulique afin de garantir un fonctionnement durable et fiable des systèmes hydrauliques. Pour ce faire, des échantillons sont généralement envoyés à des laboratoires externes. Une pratique relativement chère et qui prend du temps. Avec le  icount Mini-Lab de Parker monté sur un chariot, il devient possible de réaliser sur site, en peu de temps,  une analyse fiable du liquide hydraulique selon les normes ISO-4409:1999 et NAS1638, avec  une précision comparable à celle d’un laboratoire professionnel. Grâce à une technologie laser de comptage, un compartiment échantillon pressurisé grâce à un compresseur intégré  et un dispositif astucieux minimisant toute contamination croisée,  les tests et de contamination sont réalisés en trois étapes très simples : prélèvement d’un échantillon de liquide hydraulique sur le système, analyse de ce liquide durant trois minutes puis impression du rapport d’analyse.

 

Pôles de compétitivité: de nouveaux projets en énergie-environnement

Parmi les 216 dossiers présentés au 10 ème appel à projets du fonds unique interministériel par les pôles de compétitivité, 73 projets collaboratifs de recherche et développement  émanant de 52 pôles de compétitivité, ont été retenus pour un financement par l’État de 63 M€. La mobilisation des collectivités territoriales et des fonds communautaires (FEDER) sur la plupart de ces projets complète ces financements à hauteur de 60 M€. Ces nouveaux projets sélectionnés pour leur caractère innovant et pour l’activité économique qu’ils devraient générer, viennent s’ajouter aux 886 projets soutenus depuis 2005 pour un montant de dépenses de R&D de près de 4,6 milliards d’euros et un financement public de 1,7 milliard d’euros dont 1,1 milliard d’euros par l’État.

Un 11ème appel à projets sera lancé à l’automne et les projets seront sélectionnés en mars 2011. Par ailleurs, seront également lancés à l’automne les appels à projets de R&D structurants et de plates-formes mutualisées d’innovation des pôles de compétitivité financés à hauteur de 500 M€ par l’emprunt national dans le cadre du programme d’investissements d’avenir.
Parmi les 73 projets retenus qui concernent aussi bien technologies de l’information et de la communication que l’aéronautique, l’agro-alimentaire ou les biens de consommation, la santé et les biotechnologies, en voici quelques uns dans le domaine de l’énergie et de l’environnement.

Développement d’un nouveau  procédé de fabrication des batteries Lithium-ion

Le marché des batteries Lithium-ion a connu une très forte croissance ces 10 dernières années pour les applications portables. Aujourd’hui, cette technologie pénètre le marché des applications industrielles qui requiert des performances au moins équivalentes en termes d’énergie, de puissance et de coût, avec des exigences de durée de vie et de sécurité beaucoup plus élevées. Le projet GREENELION, des pôles PLASTIPOLIS, TENERRDIS, VIAMECA et ELASTOPOLE, a pour objectif de développer un procédé très innovant d’élaboration de batteries Lithium-ion. Ce projet doit répondre au double enjeu d’améliorer la performance des accumulateurs tout en concevant un procédé d’élaboration d’électrode respectueux de l’environnement.

Améliorer l’efficacité énergétique des bâtiments

Le projet Parex.it (PARement EXtérieur pour Isolation Thermique), des pôles TENERRDIS, AXELERA et CAPENERGIES vise à développer un enduit d’isolation thermique par l’extérieur. Cet enduit sera à base minérale et utilisera des super-isolants granulaires. Les façadiers en assureront la mise en oeuvre monocouche au moyen de machines mélangeuses et projeteuses du commerce.L’enduit issu des travaux de Parex.it sera utilisé :

  • en réhabilitation, où il participera à l’atteinte des objectifs du Grenelle de l’Environnement (complément d’isolation, rapidité de mise en œuvre) ;
  • sur les constructions neuves à isolation réparties (par exemple monomur) auxquelles il apportera la possibilité de labels BBC ;
  • sur les constructions neuves isolées par l’intérieur, où il réduira les ponts thermiques, tout en conservant le principe constructif habituel.

Réduire la pollution du transport routier de fort tonnage

Actuellement le seul carburant utilisable pour le transport routier de très fort tonnage est le gazole. Les constructeurs n’envisagent des solutions électriques et hybrides que pour les véhicules inférieurs à 12-14 t. Un moyen d’avoir des véhicules de fort tonnage sans diesel est l’utilisation d’une motorisation gaz performante dont les avantages sont : zéro rejet de CO2 avec du biogaz et moteur très performant et silencieux, très bien adapté à une hybridation.

Le projet MOGANO-VI (MOteur GAz Naturel eurO VI) du pôle LUTB a pour ambition d’apporter au monde du transport routier une solution alternative utilisant ce mode de motorisation. Il permettra d’améliorer la compétitivité de ces véhicules avec un coût carburant plus faible, moins de rejet CO2 (moins de taxe carbone), moins de bruit, sans particules, et dans le respect de la norme EuroVI.

Aider à la lutte tactique contre le feu  pour la cellule de crise des pompiers

Le projet TECHFORFIRE des pôles RISQUES et PEGASE a pour objectif  de mettre en place et de démontrer l’intérêt d’un service qui fournirait aux forces d’intervention une information aidant à la lutte tactique contre le feu. Ce servicecombinerait une acquisition d’imagerie haute résolution, une information précise, actualisée et spatialisée sur la situation réelle de l’incendie, une modélisation de la propagation du feu utilisant les dernières avancées scientifiques dans le domaine et enfin, une visualisation synthétique de l’ensemble des informations ainsi que des risques grâce à un système d’informations géographiques. L’innovation technologique principale réside dans la livraison en continu d’une information synthétique de haute qualité d’aide à la lutte tactique contre le feu pour la cellule de crise des pompiers.

Appréhender la complexité des modèles urbains

Le projet SUSTAINS du pôle ADVANCITY est un outil d’aide à la décision pour la planification urbaine et le choix des systèmes énergétiques. Cet outil doit permettre d’appréhender la complexité des modèles urbains (résidentiels, industriels, services public) dans ses dimensions sociales, économiques, énergétiques, de mobilité et de durabilité. L’intégration, la visualisation et la manipulation de ces dimensions dans une plateforme informatique opérationnelle de la ville vise à replacer les différents acteurs (élus, financeurs, société civile) au sein du processus de décision en se focalisant clairement sur deux enjeux : environnement et énergie. Ce projet est réalisé en collaboration étroite entre des praticiens de la ville, des experts du domaine de la production et de la distribution énergétique.

Dépolluer les sédiments avec des  textiles

Le projet  DEPOLTEX du pôle UP-TEX a pour objet la mise au point d’une méthodologie de conception de géotextiles fonctionnalisés ayant des propriétés de dépollution des sédiments et boues pollués aux métaux lourds. Les objectifs de ce programme sont notamment l’éco-conception et le développement au stade préindustriel de géotextiles fonctionnalisés, la mise en œuvre d’une unité mobile ou fixe capable de traiter les sédiments les plus pollués sur place pour leur réutilisation et valorisation sur site ainsi que la réalisation d’un outil de conception qui permettra de prédire le protocole de traitement à mettre en œuvre selon la concentration de polluants captés. Il s’agit donc d’apporter une réponse ciblée, à travers une solution de la filière textile, à un problème précis de traitement et/ou utilisation des sédiments de dragage qui doivent être gérés à terre, sur l’ensemble de la chaine de gestion des opérations de dragage.

Remplacer les composés d’origine pétrochimique par des composés bio-sourcés  renouvelables

Le projet FINATHER 3, des pôles INDUSTRIES ET AGRO-RESSOSURCES, PLASTIPOLIS, UP-TEX et I-TRANS, vise à développer des matériaux composites thermodurs innovants à base de fibre végétale (résine issue d’huile de lin époxydée et renforcée par des fibres naturelles comme le lin ou le chanvre). L’utilisation de ces matériaux dans le secteur des transports automobile, ferroviaire et des biens de consommation permettra un gain environnemental très important du à la diminution du poids des pièces et à la réduction des consommations énergétiques des véhicules.
 

Comment l’industrie manufacturière voit son avenir

Parrainé par Infor et IBM, le livre blanc d’IDC Manufacturing Insights constitue la plus importante étude sur l’industrie manufacturière au niveau mondial. Réalisé auprès de 722 PDG, Directeurs des Opérations et Directeurs Financiers, en France, en Angleterre, en Allemagne, au Bénélux, au Japon, aux Etats-Unis, en Chine et au Brésil,  il couvre 4 secteurs clefs: haute technologie et électronique,  automobile,  mécanique et matériel industriel, transformation des métaux.

D’après cette étude, les secteurs de l’automobile et du high-tech connaissent, depuis 5 ans, la plus forte croissance en termes de complexité, comme l’affirment respectivement 55,2% et 56,1% des personnes interrogées.
Réduire les coûts et améliorer la profitabilité constituent les priorités actuelles des entreprises mais la satisfaction client apparait comme le défi le plus important à relever pour atteindre ces objectifs, ce qui représente un changement radical par rapport à la priorité numéro 1 de l’industrie manufacturière en 2009, en pleine crise économique, à savoir la réduction des coûts.

L’étude met en évidence des différences significatives en matière d’initiatives clé pour combattre la récession, en fonction des différentes zones géographiques. En Europe de l’Ouest et aux Etats-Unis, la tendance stratégique repose sur un ‘retour aux fondamentaux’ pour conserver les clients existants et garantir la productivité, alors qu’au Japon et en Chine, l’accent est mis sur l’innovation et le développement de nouveaux produits (une stratégie expansionniste beaucoup plus agressive).

Un consensus existe en matière de coûts pour les quatre secteurs de l’industrie, cependant les coûts des matières premières sont plus critiques au sein de l’industrie métallurgique fortement exposée aux fluctuations des marchés des métaux ou du caoutchouc. Atteindre ses objectifs en termes de revenus est plus important au sein des industries orientées clients, comme le high-tech et l’électronique ou encore l’automobile.
C’est en matière d’anticipation de la demande et des prévisions que les différences sont les plus évidentes, si l’on en croit les personnes interrogées à propos des moyens à mettre en place pour atteindre l’excellence opérationnelle et évaluer leur performance actuelle au regard de celle à laquelle ils aspirent d’ici deux ans.

De manière générale, un manque de compétences, d’agilité professionnelle et d’accès à des informations fiables et en temps voulu constituent les obstacles les plus importants pour atteindre l’excellence opérationnelle. Ces différences sont à nouveau très marquées en fonction des régions géographiques, comme en France (manque de moyens et difficulté à prévoir les demandes des clients), en Allemagne (difficulté à collaborer avec les fournisseurs) ou en Chine (nombreux freins liés à des systèmes IT inefficaces et inadaptés).

Près de la moitié des personnes interrogées (44.6%) déclarent que la technologie représente un élément clé en matière d’excellence opérationnelle, alors que la prise de décision, la profitabilité et la réduction des coûts sont également cités comme les principaux domaines capables d’apporter de la valeur ajoutée.

Les priorités en matière d’investissement IT dans des solutions logicielles (au-delà des systèmes ERP) dénotent une différence de point de vue entre CEO et CIO, mettant en évidence d’éventuelles difficultés à concevoir une stratégie IT d’entreprise. De manière générale, les leaders de l’industrie manufacturière considèrent que l’amélioration de leur capacité décisionnelle constitue le premier atout découlant de leur investissement ERP.
 

Pourquoi le trou idéal n’est-il pas rond ?

En pratique, il s’agit par exemple d’enlever le maximum de matière d’un avion pour le rendre plus léger, tout en ne compromettant pas sa sécurité. Or, les trous ainsi faits dans la matière ne sont que très rarement circulaires, comme l’a démontré Ole Sigmund.

Comment rendre les avions de ligne et les voitures plus légers pour qu’ils consomment moins de carburant ? On peut arriver à ce résultat en utilisant des trous, diminuant ainsi la masse totale. Cependant, les trous doivent avoir la « bonne » forme, celle qui ne compromet pas la sécurité de l’avion ou de la voiture, en tenant évidemment compte des secousses, torsions ou vibrations auxquelles ils sont soumis.

L’identification du trou parfait nécessite des calculs précis par des superordinateurs. Le professeur Ole Sigmund travaille sur l’optimisation topologique, qui consiste en une série de systèmes d’équations avancés utilisant des calculs complexes sur ordinateur. « L’optimisation topologique permet de réduire le poids d’un mécanisme. Nous pouvons y faire des trous pour qu’il devienne le plus léger possible, tout en s’assurant que la construction peut résister aux charges auxquelles elle va être soumise » explique Ole Sigmund, qui travaille au Département d’Ingénierie Mécanique de DTU (Université Technique du Danemark). En janvier de cette année, il a reçu le prix Villum Kann Rasmussen, d’un montant de 340.000 euros.

Une structure optimisée

Le professeur Ole Sigmund travaille dans le domaine de l’optimisation topologique depuis 1992, et a supervisé le développement de méthodes de calcul complexes et de logiciels utilisés pour optimiser les constructions mécaniques. Ces méthodes sont aujourd’hui utilisées par Airbus et Audi. Le point commun des trous intégrés dans les mécaniques est qu’aucun d’entre eux n’est circulaire. « Je ne pense pas avoir déjà eu une forme optimale de trou qui était circulaire. On fait souvent des trous ronds car ils sont faciles à faire lorsqu’on perce. Mais quand on utilise de l’acide ou qu’on les coupe, on peut choisir la forme que l’on veut, explique Ole Sigmund, en montrant des images de trous dans les contreforts optimisés des ailes d’Airbus.

Et les trous ne sont effectivement ni ronds ni symétriques. Ils sont plutôt triangulaires, ou de la forme de polygones allongés, ce qui donne à la structure optimisée une apparence de squelette. « D’ailleurs, les squelettes humains ou animaux sont des exemples biologiques de cette optimisation, « explique Ole Sigmund, qui ajoute que « chaque os est également constitué d’un tas de trous, la porosité rendant l’os plus léger sans réduire sa force. La nature n’est pas folle : la nature optimise elle-même depuis longtemps ».

Source :

BE : http://www.bulletins-electroniques.com/actualites/62700.htm