Les 5 innovations qui vont changer les villes

Chaque année, 60 millions de personnes migrent dans les zones urbaines. Le monde connaît une urbanisation sans précédant et l’année 2008 a été marquée par un phénomène important : la population mondiale vivant dans les zones urbaines était pour la première fois majoritaire. Pour ces raisons, le quatrième rapport « 5 in 5 » d’IBM se focalise sur le thème de la ville.Les  » 5 in 5  » d’IBM se fondent sur les tendances du marché et de la société qui vont concourir à la transformation des villes. Ils mettent également en lumière les technologies issues des centres de recherche d’IBM dans le monde qui peuvent transformer ces prédictions en réalité. Dans les 5 prochaines années, les villes se transformeront dans les 5 domaines suivants.

Des systèmes de santé plus performants pour combattre les maladies transmissibles
La densité de population rend les villes très exposées aux maladies transmissibles. Mais à l’avenir, les officiels de santé pourront savoir précisément quand, où et comment les maladies se développent, et même les prochaines zones affectées. Les scientifiques fourniront aux responsables des municipalités, aux hôpitaux, aux écoles et aux entreprises les outils pour mieux détecter, suivre, se préparer aux infections telles que le virus H1N1 ou la grippe saisonnière, et les détecter. Un  » Internet Santé  » va voir le jour, où des informations médicales anonymes, contenues dans les dossiers médicaux électroniques, seront partagées de façon sécurisée pour réduire le développement des maladies et préserver la santé des habitants. IBM travaille déjà en collaboration avec des organisations pour standardiser les méthodes de partage d’informations et d’analyse de déclenchement des maladies infectieuses.

Des immeubles urbains capables de comprendre et réagir comme des organismes vivants
Tandis que l’emménagement dans les immeubles urbains atteint des taux record, ces bâtiments vont être conçus de façon plus intelligente. Aujourd’hui, la plupart des systèmes qui constituent un bâtiment – chauffage, eau, évacuation des eaux usées, électricité, etc. sont gérés indépendamment les uns des autres. A l’avenir, la technologie permettant de gérer ces immeubles fonctionnera à la manière d’un organisme vivant qui peut comprendre et réagir rapidement, pour protéger les citoyens, sauvegarder les ressources et réduire les émissions de CO2. Grâce à des milliers de capteurs inclus dans les bâtiments, les mouvements, la température, l’humidité et la lumière pourront être contrôlés. Les immeubles ne se contenteront pas de cohabiter avec la nature, ils seront à son service. Ces systèmes permettront de procéder à des réparations avant que quelque chose ne s’altère définitivement, aux unités d’intervention d’urgence de répondre rapidement avec les ressources nécessaires, et aux consommateurs et entreprises de suivre leur consommation d’énergies et leurs émissions de CO2 en temps réel et ainsi pouvoir les réduire. Déjà certains édifices permettent de réduire l’utilisation de l’énergie, d’améliorer l’efficacité opérationnelle, le confort et la sécurité pour leurs occupants. Le Hangzhou Dragon Hotel en Chine a choisi IBM pour construire un système de gestion interconnecté et intelligent dans le cadre de sa transformation en  » hôtel intelligent « .

Des voitures et les bus sans essence
Les voitures et les bus urbains fonctionneront de moins en moins avec des combustibles fossiles. Les véhicules vont commencer à utiliser une nouvelle génération de batteries qui n’aura pas besoin d’être rechargée pendant plusieurs jours ou mois, selon la fréquence d’utilisation. Les équipes scientifiques d’IBM et leurs partenaires mettent au point de nouvelles batteries qui permettront aux véhicules électriques de rouler 500 à 800 km avec une seule charge, à savoir 80 à 160 km de plus que ce qui est faisable aujourd’hui. Par ailleurs, les réseaux intelligents dans les villes pourraient permettre aux voitures d’être rechargées dans des lieux publics et utiliser de l’énergie renouvelable comme l’énergie éolienne pour ne plus dépendre des centrales à charbon. Les émissions seront ainsi réduites et la pollution sonore limitée. IBM et le consortium de recherche danois EDISON développent une infrastructure intelligente pour permettre l’adoption à grande échelle de véhicules électriques fonctionnant avec de l’énergie durable.

Des systèmes de gestion intelligents pour satisfaire les besoins en eau tout en réalisant des économies d’énergie.
Aujourd’hui, une personne sur cinq n’a pas accès à l’eau potable. En parallèle, les municipalités perdent d’énormes quantités d’eau, plus de 50 %, à cause des fuites dans les infrastructures. De surcroît, la demande en eau devrait être multipliée par 6 dans les 50 prochaines années. Pour répondre à ce challenge, les villes vont installer des systèmes intelligents de gestion de l’eau pour réduire le gaspillage de 50 %. Elles vont aussi installer des systèmes d’évacuation des eaux usées qui empêcheront la pollution des rivières et des lacs, mais aussi permettront de purifier l’eau pour la rendre potable. Grâce aux technologies avancées de purification d’eau, les villes pourront recycler et réutiliser l’eau localement, et réduire par là même de 20% l’énergie utilisée pour son transport. Des compteurs et les capteurs d’eau interactifs seront intégrés dans les systèmes de gestion de l’eau et de l’énergie, fournissant en temps réel une information précise sur la consommation d’eau pour permettre de prendre de meilleures décisions concernant son l’utilisation.

Des systèmes pour réagir à une situation de crise avant même de recevoir un appel d’urgence
Les villes pourront réduire et même prévenir les situations d’urgence, telles que les crimes et les catastrophes naturelles. IBM aide déjà les organismes chargés de faire appliquer la loi à analyser la bonne information au bon moment, pour permettre aux fonctionnaires de prendre des mesures proactives contre la criminalité. Les sapeurs-pompiers de New York ont choisi IBM pour construire un système sophistiqué destiné à recueillir et partager les données en temps réel, de façon à prévenir les incendies et protéger les sauveteurs. Par Marc Chabreuil

Quelles stratégies de traitement pour les déchets ?

Avant de se poser les questions d’un autre mode de production et d’un autre mode de consommation, voire même, d’une évolution des produits il faut au préalable identifier les stratégies et les outils techniques à notre disposition. Les stratégies de traitement des déchets sont au nombre de trois. La première solution est de dire : puisque ce produit pose problème, il n’y a qu’à l’interdire. C’est ce qui s’est passé avec l’amiante, mais le problème posé est le passif. Le désamiantage est un processus long, coûteux. Alain Navarro, Directeur scientifique du réseau coopératif de recherche sur les déchets (RECORD), témoigne de son expérience :  » j’ai été partie prenante après l’interdiction des transformateurs : il y en a toujours, et certains continuent de marcher. On a supprimé les fréons dans les bombes aérosols, mais on ne supprime pas le service : il y a toujours des gaz inflammables et explosifs dans ces bombes aérosols. On peut donc s’interroger sur l’utilité réelle des ces interdictions, et mettre en doute la qualité de la coordination dans ces actions.  »

Optimiser et innover

La deuxième stratégie pour traiter les déchets tient en deux mots : optimisation et innovation. C’est la stratégie employée par l’industrie préférentiellement aujourd’hui. Les réflexions orientées vers le développement durable sont en train de donner des pistes en matière de production, d’éco conception, de recherche et d’élimination des produits toxiques. Pour autant, il ne faut pas confondre production propre et produit propre. Une entreprise peut très bien posséder l’outil de production le plus propre de la planète et fabriquer avec des produits complètement inadaptés au retraitement, et contenant des substances dangereuses.  » Porter son regard sur l’outil qui produit et optimiser ses performances en matière de respect de l’environnement est bien indispensable. Porter son regard sur l’outil produit est tout aussi indispensable. C’est quelque chose qui n’est pas évident à comprendre, et les entreprises préfèrent souvent faire l’emphase sur le travail fait en amont du produit pour minimiser l’empreinte écologique « , précise Alain Navarro. La troisième grande stratégie pour gérer les déchets est la valorisation, qui se décline en plusieurs possibilités. La valorisation énergétique tout d’abord. On peut brûler les déchets pour en tirer de l’énergie tout en les éliminant. Plus dans les détails, des mécanismes permettent (pyrolyse, thermolyse) de traiter les déchets pour obtenir des substances adaptées à la combustion. Enfin, les processus biologiques, tels que la méthanisation ou la fermentation alcoolique permettent également de traiter les déchets, dans un premier temps, pour les transformer en substances qui sont adaptées à la combustion. Ces processus biologiques sont notamment ceux employés aujourd’hui pour produire certains biocarburants ou biogaz.

Créer une banque des matériaux

Dans la période actuelle marquée par des tensions sur l’énergie, ou le prix du pétrole reste une inconnue (bien que l’on sache que son niveau actuel, plutôt bas, remontera dès que la situation économique s’améliorera), la recherche de nouveaux moyens pour produire de l’énergie est presque une cause nationale. La valorisation des déchets trouve sa place ici, et toutes les opportunités méritent d’être consciencieusement étudiées.Ceci dit, il reste vrai que les déchets ne sont pas des combustibles classiques. Il est nécessaire de connaître les déchets que l’on brûle, pour que des substances dangereuses ne soient pas véhiculées par les fumées par exemple.Autre exemple, les farines animales. Après le scandale européen lié aux farines animales, il a fallu se débarrasser de ces farines. Ce sont les cimentiers qui ont utilisé ces farines, pour fabriquer du ciment. Un bel exemple de valorisation des déchets, alors que le casse-tête pour se débarrasser des farines animales, probablement avec un coût exorbitant, était bien réel.Deuxième type de valorisation, la valorisation matière. Dans la pratique, elle prend différentes formes :

  • extraction des matières organique naturelles et synthétiques ;
  • récupération des métaux et des matières minérales ;
  • élaboration de matériaux BTP ;
  • récupération du verre
  • récupération des plastiques
  • récupération des papiers cartons

Alain Navarro va plus loin :  » Il est très important de faire le lien entre matière et énergie. La matière ne peut être industriellement traitée qu’avec de l’énergie. Energie et matière sont un couple. Si on a pas accès à l’énergie, on ne transforme pas la matière.  »

Traiter les déchets de façon plus cohérente

 » Si on veut que les citoyens participent à récupérer au mieux l’ensemble des matériaux, il faut en même temps que le pays dispose des outils de recyclage et de traitements de ces matériaux. Il y a une incongruité à rassembler des tonnes et des tonnes de papier, de plastique, de verre, alors que l’on a pas d’industrie spécifique pour les traiter, et que l’on va les exporter par bateaux pour qu’ils soient traités à des milliers de kilomètres. Il est nécessaire, et c’est particulièrement vrai au niveau français, d’avoir les moyens de produire et de traiter les déchets de tous types. Ainsi, le périple du porte-avion Clémenceau est le parfait exemple de cette incohérence, au niveau français « , explique Alain Navarro. C’est même le problème fondamental. Il est nécessaire de repenser toute la chaîne de traitement des déchets, pour que celle-ci soit réellement efficace, et surtout cohérente. Le prix des matériaux a également son importance. En effet, nous l’avons encore vu récemment, l’institution d’un mode de régulation des prix des matériaux permettrait à des activités de recyclage de pérenniser. Ainsi, le prix de l’acier, très important il y a encore quelques mois, à donné lieu à un emballage incroyable. Des câbles de TGV ont été volés, ces derniers avaient une valeur marchande alors très importante. Aujourd’hui, le prix de l’acier a beaucoup baissé. Cette absence de régulation est un frein à l’installation de ce genre d’activités. Alain Navarro, lui plaide pour la mise en place d’instances de régulation :  » L’installation d’une banque des matières premières, qui n’est pas une idée nouvelle, pourrait permettre de régler ce problème. » Mais ce n’est pour l’instant pas le cas. Au contraire. Ainsi, depuis quelques mois, les pays de l’est ont instauré un embargo sur les usines, aujourd’hui désaffectées, qui ont fait la gloire de l’ancien régime soviétique. En effet, le fer, qui constitue un matériau de base de ces usines, se vendra très cher dans quelques années.

Etablir la frontière entre production de déchets et dysfonctionnement

La valorisation de l’agriculture est aussi une solution qui montre son intérêt depuis des années. On a beaucoup cru beaucoup au retour compost. C’est en effet une très bonne piste, même s’il est nécessaire de faire attention à son utilisation et à sa valeur énergétique, bien réelle mais parfois surestimée. La structuration des paillages est également une solution, car cette méthode évite d’abattre des arbres.Dans la même veine, la valorisation de l’alimentation animale présente un potentiel important, pour trois types de déchets :

  • déchets de restauration ;
  • déchets d’abattoir ;
  • déchets de laiterie.

Les déchets dans l’alimentation sont un sujet très vaste, complexe. Avec l’apparition de la dioxine, de l’ECB, les préoccupations vis-à-vis de ce type de déchets sont un peu passées au second plan.Enfin, une technique utilisée consiste également à la détoxication des déchets et à leur élimination. Quatre procédés existent :

  • procédés thermiques ;
  • traitements physico-chimiques ;
  • traitements biologiques ;
  • enfouissement.

Les déchets non valorisables, ou les déchets issus de la valorisation, doivent ensuite être supprimés. Il est alors possible de brûler les déchets non valorisables, cette technique a été employée pendant très longtemps. Comme on le voit, les possibilités d’action sont nombreuses. André Navarro, pour terminer, insiste sur la nécessité de trouver une cohérence dans les actions, sous peine de voir l’efficacité générale du processus amoindrie :  » Quand on voit, rien que dans les cantines scolaires par exemple, la quantité journalière de nourriture consommable gaspillée et mise aux ordures, le problème est même plus grave : il ne s’agit même plus de production de déchets mais d’un disfonctionnement criant, au regard du contexte économique actuel. Concrètement, pour des raisons d’hygiène, des tonnes de viande sont chaque jour détruites alors que de plus en plus de gens en France sont dans le besoin.  » Il ne s’agit pas ici de dénoncer ces pratiques, mais de souligner l’absence de coordination des acteurs, qui ne permet pas de tirer partie des déchets de la façon la plus efficace. Et c’est là tout le problème. Par Pierre Thouverez 

Déchets et développement durable : un virage nécessaire et total

La notion de déchet durable implique, au niveau des acteurs industriels comme des citoyens, un changement drastique aussi bien au niveau des pratiques que des mentalités. Considérer les déchets comme une activité à part entière est un premier pas nécessaire, mais pas suffisant. La route vers une gestion des déchets plus raisonnée et efficace est longue. Et elle passe par un changement au niveau des mentalités. Énormément de choses ont été dites et écrites sur cet aspect du problème des déchets.Cela s’explique simplement par le fait qu’en terme d’économie les déchets ont été et sont encore pour partie associés à des pertes et à de la non-valeur et que les coûts engendrés l’ont surtout été pour assurer l’hygiène et la salubrité. Déclassé économiquement, cet envers du décor que constituent les déchets l’est tout autant au plan social.Tout d’abord, comme le précise Alain Navarro directeur scientifique du réseau coopératif de recherche sur les déchets,  » il est important de se détacher des notions préétablies du sale et de l’impur. Créer du propre crée également du déchet. « 

Prendre conscience de la valeur économique des déchets

Ensuite, et cela est en train de rentrer dans la conscience collective depuis quelques années, tout ce qui est constitué de matière enferme de l’énergie. Aussi, l’énergie a de la valeur, de plus en plus même. Partant de là, il convient de considérer les déchets comme ayant une valeur à exploiter. Enormément de choses ont été dites et écrites sur cet aspect du problème des déchets.Cela s’explique simplement par le fait qu’en terme d’économie les déchets ont été et sont encore pour partie associés à des pertes et à de la non-valeur et que les coûts engendrés l’ont surtout été pour assurer l’hygiène et la salubrité. Déclassé économiquement, cet envers du décor que constituent les déchets l’est tout autant au plan social. » Tant qu’on continuera à penser que les métiers du déchet ne sont pas une activité spécifique à part entière, il y aura des lacunes importantes.  » Comme le dit Alain Navarro, le traitement des déchets doit être considéré comme une activité à part entière. Il y a quelques années encore, les métiers de collecte des déchets étaient souvent des professions exercées par du personnel non qualifié, voire socialement ou physiquement en difficulté. Du chemin a été parcouru depuis, mais tout n’est pas encore gagné, loin de là.

Dissocier information et communication

Ensuite, plus concrètement, la hausse de la production industriels et les progrès technologiques sont aussi à l’origine de l’augmentation des déchets, et même de la création de nouveaux types de déchets. Par exemple, le problème du jetable et du réparable est très important.Il y a clairement un problème considérable de perception du problème des déchets, quand on voit que l’on vend actuellement, en masse, des produits éco conçus, mais qui sont jetables et que l’on doit donc racheter régulièrement. « Ce type d’incohérence montre encore que le chemin vers une gestion durable des déchets d’un bout à l’autre de la chaîne de production et de consommation, est semé d’embuches », conclut le directeur scientifique du réseau coopératif de recherche sur les déchets.Le passage du statut de propriétaire vers celui de locataire, comme c’est le cas pour les Vélib et bientôt les Autolib, est peut être une solution d’avenir, puisqu’il favorise l’échange standard d’une pièce défectueuse sur le produit, plutôt que l’échange du produit dans son ensemble.

Un nouveau choix de société

Il faudra veiller aussi à quelque chose auquel l’homme n’a pas l’habitude de penser. Car il faut bien savoir que les choix à faire en matière de traitement de déchets sont drastiques. Ils impliquent notamment la construction d’usines, mais aussi la fermeture d’autres, créant et supprimant des milliers d’emplois. Le choix n’est donc pas uniquement d’ordre écologique, il s’agit clairement d’un choix citoyen.Il faut progressivement que l’implantation des systèmes de recyclage des déchets, partout, soit soumise au choix des citoyens. Il paraît incohérent d’installer une usine d’incinération géante en pleine campagne pour traiter les déchets des grandes villes situées beaucoup plus loin !Autre problématique, celle du recyclage des déchets. L’inconscient collectif à tendance à considérer la réutilisation des déchets comme une activité douteuse, voire dangereuse. Ainsi, l’introduction d’un matériau de substitution dans le monde économique soulève des obstacles autres que techniques. Le premier d’entre eux est la suspicion. Un produit qui a un passé est suspect : il subira ainsi des batteries de tests que l’on ne soumet pas à d’autres produits n’ayant pas de « passé ».

Le nucléaire et les nanotechnologies, un nouveau défi en termes de déchets

De plus, avant d’adopter des pratiques nouvelles en termes de recyclage, comme l’utilisation d’un nouveau matériau dans un process par exemple (en remplacement d’un matériau polluant par exemple), Il faut également qu’il y ait adéquation entre le marché et le gisement. Il faut qu’un deal soit passé entre le secteur qui traditionnellement fourni le marché en question et le nouvel arrivant qui prend le marché. Aujourd’hui, ces deux acteurs ne sont souvent qu’une seule et même société, ce qui facilite grandement les choses.Comme on le voit, la problématique des déchets lance un défi autant technique que sociétal. Mais comme le rappelle Alain Navarro, l’important est de commencer à faire évoluer nos pratiques :  » collectons au mieux, trions au mieux et traitons au mieux en n’oubliant pas qu’il y a suffisamment de possibilités offertes pour que chaque collectivité adopte la stratégie la mieux adaptée à son cas. Si le  » débat citoyen  » consistait à choisir entre plusieurs solutions possibles, il serait certainement plus riche que lorsqu’il est réduit à un simple oui ou non face à une proposition déjà élaborée. »Au-delà, dans une société en mutation permanente, les défis futurs se posent déjà. Un de ces grands défis est le démantèlement des centrales nucléaires. Recycler les millions de tonnes de béton, en contact plus ou moins prononcé avec des matières nucléaires va se révéler être un véritable casse-tête. D’un autre côté, les nanotechnologies, qui produisent des déchets infiniment petits, vont également constituer un défi, puisqu’on ne sait pour l’instant pas du tout comment traiter ces déchets. Bientôt, il faudra savoir.Par Pierre Thouverez

Des grains de corindon pour un meilleur collage

La projection de grains de corindon enrobés de silicate sur un composant forme un revêtement de surface qui améliore la stabilité et la reproductibilité des raccords collés (aluminium, magnésium, titane , polyoléfines…). La surface du composant est également mieux protégée contre la corrosion.De plus en plus d’éléments sont fabriqués à partir d’alliages d’aluminium dont la surface, résistant mal au vieillissement, est difficile à lier mais doit néanmoins être collée. La solidité des composants non traités diminue fortement lorsqu’ils sont exposés à l’humidité ou au sel. En effet, la surface de l’aluminium natif est instable, étant donné qu’elle est constituée d’oxyde d’aluminium, de liaisons des hydroxydes, de contaminants organiques et, dans certains alliages, d’agglomérats de magnésium localisés. Il en résulte alors une corrosion au cœur de la couche adhésive. Pour conférer à la surface une stabilité à long terme, la couche d’oxyde natif doit être supprimée et remplacée par une couche plus stable, sur laquelle le prétraitement de surface peut être réalisé. Si l’on ne crée pas cette nouvelle couche, une couche d’oxyde natif se reforme rapidement, compte tenu de la haute réactivité de l’aluminium. Dans les secteurs aéronautique et de la construction de véhicules, les méthodes chimiques/humides telles que les bains de décapage et d’oxydation sont les plus couramment utilisées.*Elles présentent cependant des inconvénients non négligeables en termes de sécurité pour le personnel et d’élimination, et conviennent surtout pour les grandes surfaces et les volumes importants. Il est pratiquement impossible de réaliser un prétraitement sélectif avec les bains de décapage mais d’autres techniques telles que le décapage SACO (SAndblast COating ou enrobage par sablage) ou le traitement au laser sont très efficaces

Une amélioration de la reproductibilité du raccord collé
La méthode SACO fournie par Delo, dont Syneo est le distributeur exclusif en France, convient non seulement pour la production en série mais aussi pour les petits et moyens volumes, pour lesquels il ne serait pas rentable d’investir dans un laser. Elle consiste à projeter des grains de corindon enrobés de silicate sur un composant, au moyen d’une sableuse. Ces grains rendent la surface du composant plus rugueuse, éliminent les particules libres et forment un revêtement de surface, tout cela en une opération unique. Lorsque le grain de corindon frappe la surface du composant, l’enrobage de silicate présent sur le grain se détache et adhère solidement sur la surface, grâce à la forte pression et à l’échauffement local.Cette technique améliore sensiblement la stabilité à long terme et la reproductibilité du raccord collé. La surface du composant est également mieux protégée, contre la corrosion par exemple. L’application d’un apprêt permet à l’adhésif de bien adhérer à la couche de silicate et représente donc un complément utile à cette méthode. SACO convient également pour réaliser un prétraitement sélectif des composants à coller, dans le secteur de la construction automobile par exemple. Elle peut aussi être utilisée pour effectuer des réparations. Un autre avantage de cette technique réside dans sa simplicité d’utilisation. La manipulation est facile et la surface traitée est visuellement reconnaissable. La technique SACO ne se limite pas au prétraitement de l’aluminium. Elle améliore aussi le collage de magnésium, de titane et de plastiques difficiles à lier tels que les polyoléfines. Elle est adaptée aux substrats en vue du collage de matériaux différents, comme cela peut être le cas avec des composants légers par exemple. Par Marc Chabreuil

Traitement des déchets : un changement nécessaire

Le traitement des déchets est devenu depuis des années une activité à part entière. Le déchet, qui garde une connotation très négative, est au fur et à mesure de l’industrialisation croissante devenu un objet de science. Les scientifiques ont pris conscience de l’existence de cycles dans la nature (carbone, azote), et donc de la place des déchets dans ces cycles.

A partir de là, le déchet ne devient plus l’élément final, mais une partie du cycle de vie de la matière. Les cycles naturels sont dynamiques, et trois acteurs assurent leur fonctionnement : les producteurs, les consommateurs et les décomposeurs. Aujourd’hui, la nature n’est pas en équilibre quand ces trois acteurs ne sont pas en état de remplir leur fonction correctement.

Cependant, la nature a un avantage par rapport à l’homme. Dans la nature, les tâches des trois acteurs sont d’importance égale. Un bon exemple est la disparition des vers de terre en Bretagne, qui rend plus longue et moins efficace la dégradation du fumier.

800 millions de tonnes de déchets en France en 2004

La révolution industrielle, qui a engendré l’augmentation de la consommation énergétique dans les pays industrialisés, avec le charbon, le pétrole, puis le gaz (on pourrait y ajouter l’uranium aujourd’hui), a également été le point de départ d’une augmentation drastique de la production de déchets, notamment d’origines industrielle, puis urbaine : les déchets ménagers.

Par la suite, la chimie de synthèse, utilisant massivement le pétrole, a ensuite permis de produire des produits plastiques, des tissus, des médicaments, des vernis… le monde des matériaux a alors complètement explosé. Assez rapidement, s’est posé le premier grand problème : que faire des tous les déchets inhérents à l’explosion de la production industrielle ?

Après avoir remarqué que les déchets n’étaient pas tous biodégradables, l’homme a pris conscience du risque biologique engendré par l’accumulation des déchets. Aujourd’hui, ce risque biologique a évolué, et on parle plus de risque chimique. Ces deux réalités sont très différentes

En effet, la société de consommation, avec l’explosion de la production, a terminé de faire des déchets une problématique à prendre sérieusement en compte. Les déchets sont depuis un élément de science, objet de nombreuses recherches et au centre de beaucoup de projets de grande envergure.

Le déchet : un champ d’investigation large pour les scientifiques

Les déchets ne sont pas une science, mais toutes les sciences sont nécessaires pour avoir une idée pertinente sur la marche à suivre quant au traitement des déchets. Les déchets sont un carrefour des sciences quelles qu’elles soient.

Ainsi, aujourd’hui, aucun scientifique n’est capable d’établir une liste précise des molécules qui constituent les déchets ménagers usuels qui se trouvent dans nos poubelles. Le champ d’investigation est donc large pour les scientifiques.

A un niveau français, la situation n’est pas meilleure qu’ailleurs. Loin s’en faut. La France n’est pas très douée pour mettre en place la pluridisciplinarité, notamment en termes de déchets. C’est pourtant de cela dont il s’agit, si on veut trouver des solutions efficaces. Ce n’est pour l’instant pas le cas en France. Mais il ne faut pas pour autant faire de la France un mauvais élève. Le problème est mondial (comme l’atteste bien le démantèlement du Clémenceau par exemple).

En termes de chimie, le déchet est très difficilement définissable. Ce que l’on sait, c’est que son accumulation pose problème.

Zéro déchet, une utopie

Une question à la mode depuis quelques années est de savoir s’il est possible de vivre avec zéro déchet. La réponse est non. Pour quatre raison fondamentales, le déchet est inévitable :

  • C’est une fatalité biologique ;
  • C’est une fatalité chimique (réaction chimique) ;
  • C’est une fatalité technologique (travail de la matière) ;
  • C’est une fatalité environnementale (plus on veut faire du propre plus on fait du sale).

Il est important de revenir sur cette quatrième raison. La recherche frénétique du propre conduit à l’accroissement du déchet (prendre plusieurs douches par jour par exemple). La volonté d’avoir des produits purs augmente la production de déchets. Zero déchet est donc bien une utopie. Et pour cause. L’ADEME estime (tableau ci-dessous) que la France a produit en 2004 plus de 800 millions de tonens de déchets, répartis comme suit :

 Type de déchet Quantité (en millions de tonnes) Estimation (en %)
 Déchets ménagers 34 4
 Déchets industriels  93 11
 Déchets BTP 340 40
 Déchets agricoles 365 43

Ces chiffres fluctuent d’un inventaire à l’autre car ils constituent des sommes de sous-catégories qui ne sont pas toujours aisées à comptabiliser. C’est le cas par exemple du BTP ou les chiffres varient de 130 à 340 millions de tonnes selon les estimations. De plus, pour chaque catégorie, les dangerosités et les possibilités de traitement sont très variables. On ne peut pas comparer les déchets agricoles presque tous biodégradables et les déchets des travaux publics presque tous minéraux et inertes. En fait, le plus surprenant est peut-être l’importance médiatique donnée aux déchets ménagers au regard de leur tonnage relatif.

On assiste à une délocalisation des déchets

Aussi, on assiste à une migrations des déchets, qui rend encore plus compliquée la tâche de les traiter efficacement. Par exemple, le déchet industriel n’est aujourd’hui pas forcément dans les usines, il est dans nos poubelles. L’augmentation des services à domicile a créé une augmentation et surtout une diversification des déchets ménagers présents dans nos poubelles. L’augmentation des soins médicaux à domicile est un bon exemple de transfert de déchets.

Mais les déchets ménagers ne sont pas le seul problème. Beaucoup de transferts se font d’un secteur sur l’autre. Les déchets nucléaires et leur traitement sont aussi un problème. Mais les termes de ce problème ne sont pas les mêmes que pour les autres types de déchets, autant en termes d’approche qu’en termes d’action.

Ainsi, les déchets, de toutes sortes, ont vu leur production augmenter drastiquement au cours du siècle dernier. Leur traitement n’est plus seulement un inconvénient mais une activité à part entière.

Par Pierre Thouverez

Intégrer la gestion des déchets sur l’ensemble des processus de production et de consommation

Les solutions pour traiter les déchets existent. Mais cela ne suffit pas. Une démarche cohérente, en termes de collecte des déchets, de choix du type de valorisation, entre autres, permettra de gérer de manière optimale la production mondiale, croissante, de déchets. Les pays développés disposent, actuellement, d’un arsenal de technologies de très bon niveau. La France est un pays qui est, potentiellement, tout à fait capable d’assumer les tâches liées au retraitement de ses déchets toute seule.

La deuxième chose, qu’il faut bien avoir à l’esprit, est la nécessité d’avoir une chaîne de traitement des déchets la plus complète possible. En effet, les déchets complexes doivent être triés et suivre des chaînes de traitement complètes si l’on veut les valoriser efficacement.

Troisième difficulté, la multiplicité des choix en matière de déchets. Il faut décider comment on traite le déchet : va-t-on privilégier tel ou tel type d’action selon les principes de rationalité économique, de préservation de l’écologique, de facilité technologique ? Beaucoup d’éléments entrent en jeu lorsque ce choix doit être fait.

Pour certains éléments, comme le verre, le choix s’impose tout seul. Le verre ne peut être transformé ou valorisé efficacement, on utilise donc les déchets à base de verre pour produire… du verre. Même chose pour le papier, bien que les spécialistes se demandent actuellement si il n’est pas plus écologique, finalement, de brûler le papier plutôt que de le recycler.

 » Les possibilités en termes de recyclage sont importantes « 

 » Lorsque l’on a des objets riches (matières plastiques, caoutchouc…), les possibilités en termes de recyclage sont importantes : pour le caoutchouc, on dénombre une vingtaine de possibilités de recyclage « , ajoute Alain Navarro, Directeur scientifique du réseau coopératif de recherche sur les déchets.

A l’heure actuelle, les autorités se perdent dans cette étendue de choix et aucune politique claire ne se fait ressentir. Il est vrai que les problématiques sont cornéliennes. Vaut-il mieux fabriquer des produits recyclables ? Où alors des produits biodégradables ? Doit-on laisser le plastique se dégrader dans la nature ou doit-on le récupérer pour le recycler ?

Ces problèmes sont à l’heure actuelle peu tranchés, et restent plus que jamais d’actualité. Si on en revient à la problématique des déchets en général, la problématique actuelle est plutôt simple : doit-on valoriser ou éliminer nos déchets ?

Pour répondre à cette question, le plus simple est de pratiquer des éco bilans. Ainsi, la valorisation de certains déchets peut revenir très cher. Aussi, la valorisation, peut, dans certain cas, être un processus qui va consommer trop d’énergie ou d’argent. L’éco bilan va permettre aux spécialistes d’avoir une idée précise des avantages et des inconvénients (au niveau financier, environnemental, au niveau de la faisabilité…) de chaque type de recyclage appliquée à un produit donné. Par un système de coefficients, on peut choisir ensuite de faire des éco bilans prenant en compte les préférences des acteurs de ce recyclage, en fonction des priorités requises.

Social, économie et environnement

Les ingénieurs travaillant dans le recyclage des déchets sont face à des choix cornéliens : ils doivent, dans leurs choix, pondérer trois exigences primordiales : l’économie, le social et l’environnement. Aujourd’hui, la problématique environnementale est incontournable dans les choix des décideurs pour le traitement des déchets. L’épuisement des ressources devient un problème de plus en plus pressant. Il prend quatre formes qui sont toutes, pour différentes raisons, d’épineux problèmes :

  • épuisement des ressources non renouvelables, non recyclables (valorisation énergétique) ;
  • épuisement des ressources non renouvelables, recyclables (recyclage métaux et matières minérales) ;
  • épuisement des ressources non renouvelables (gestion rationnelle des déchets biomasse)
  • épuisement de l’espace (décharges et maîtrise des rejets dans les milieux naturels).

Depuis quelques années la donne est simple. Le pétrole, dont les réserves sont ponctionnées aujourd’hui, sera bientôt épuisé, de même que le gaz et le charbon. Ces matières font l’objet d’une valorisation énergétique. Aussi, on voit que la gestion et le stockage des déchets sont une des sources principales de pollution et de nuisance. Quelques exemples :

  • l’effet de serre et le réchauffement climatique ;
  • destruction de la couche d’ozone stratosphérique ;
  • la toxicité ;
  • l’éco toxicité ;
  • acifidification (pluies acides) ;
  • formation de photo-oxydants ;
  • eutrophisation des milieux aquatiques ;
  • stockage et gestion des déchets ;
  • radioactivité ;
  • pollution thermique ;
  • bruit ;
  • odeurs.

Les déchets apparaissent à deux niveaux. Le stockage des stocks de déchets a un effet négatif sur l’environnement, cela est une certitude. Ensuite, à partir des déchets, quand on veut recycler, se pose le problème de la création de nouveaux déchets. C’est là que les choix doivent se faire. Jusqu’à peu, le critère strictement économique a toujours prévalu, mais petit à petit les hommes commencent à murir ces choix au-delà d’un aspect économico économique.

Organiser une chaîne de traitement des déchets cohérente et efficace

Mais Alain Navarro va plus loin :  » nous avons eu un gros problème de relation entre déchet et santé. Effectivement, un certain nombre de pratiques (mise en place de décharges sauvages, valorisation mal conduite…) ont des conséquences catastrophiques, et notamment sur la santé. Aujourd’hui, la multiplication des produits devient un véritable casse-tête de santé publique. La déshumanisation des installations, et notamment au niveau des décharges, est un fait vraiment dommageable. Même si l’exemple paraît insignifiant, il est révélateur de la nécessité d’organiser une chaîne de traitement des déchets cohérente et efficace. » Tout est dit.

Les solutions en ce qui concerne le traitement des déchets sont légion. Toutes peuvent être bonnes, selon le contexte, à conditions d’être mises en œuvre dans des conditions correctes. Il est donc primordial d’avoir des stratégies de gestion des déchets cohérente. Quatre voies sont suivies :

  • l’élimination ;
  • l’élimination écologique (prise en compte des phénomènes de santé publique) ;
  • la gestion plus durable : le recyclage ;
  • les non-déchets.

La priorité pour les citoyens est d’éliminer les déchets, on ne peut bien sûr pas les laisser. Maintenant, il s’agit donc de rendre l’élimination de ces déchets plus écologique, plus sanitaire : cela n’est pas simple. Il faudrait prendre en compte tout le système, en partenariat avec les producteurs de déchets, pour arriver à la meilleure solution. Le cheminement entre la production, l’approvisionnement en ressources et la fabrication elle-même d’un produit rend parfois l’analyse presque impossible, et les choix qui suivent sont forcément sujet à caution.

 » Actuellement, pour les déchets de nos villes, je suis persuadé qu’éviter de mettre un certain nombre de choses dans nos poubelles serait plus utile que d’essayer de trier ce qu’on y a mis. Si on avait la possibilité de faire sortir de ce système tout ce qui le pollue et le tue, ce serait plus souhaitable que de privilégier la matière utile. Cependant, on imagine mal installer des réceptacles au coin de chaque rue pour récolter les éléments dangereux « , rapporte Alain Navarro.

Des incohérences entre les attentes de chacun

Le choix du recyclage est également très en vogue aujourd’hui. Que ce soit en énergie, que ce soit en matière, il faut que l’industrie du recyclage devienne une industrie à part entière, un véritable service public. Il faut avoir conscience que les déchets ne sont pas des marchandises comme les autres. Ils constituent en quelque sorte  » l’envers du décor « , et doivent donc être appréhendés autrement.

Par exemple, en ce qui concerne les pots catalytiques. On fixe des métaux précieux sur les pots catalytiques, dans la matrice, pour rendre le produit de meilleure qualité. En bout de chaîne, il devient très difficile de récupérer ces métaux précieux. De même, également dans l’automobile, on rêve de voitures pouvant se démonter par clipage, mais personne ne fabriquera des voitures selon ce principe, pour des raisons évidentes de sécurité.

Pour résumer, les incohérences entre les attentes des uns, en début de chaîne, et celle des autres, en fin de chaîne, ne sont pas les mêmes. Et rien n’existe, ou si peu, pour faire collaborer ces acteurs et trouver des compromis. Les logiques d’un côté et de l’autre ne sont pas les mêmes, et les concessions paraissent souvent relever d’une douce utopie.

L’idéal, ce sont les non déchets. Ce sont les non déchets qui permettent d’aborder le problème sous une dimension plus économique. En matière de gestion des déchets, le consommateur n’est qu’un acteur en bout de chaîne. Sa marge de manœuvre existe (tri, choix de consommation…), mais elle reste assez faible. C’est vers l’amont de la consommation et de la production qu’il faut se tourner si on veut réellement agir sur un levier important de la chaîne de production des déchets.

Par Pierre Thouverez

Le solaire photovoltaïque à concentration mis sous la loupe

http://www.bulletins-electroniques.com/actualites/60815.htm

En plus des modules au silicium et à couche mince, il existe une troisième technique de captation d’énergie solaire photovoltaïque (PV) : les concentrateurs. Ce sont des systèmes qui concentrent la lumière, élèvent ainsi la densité de flux énergétique, et produisent de l’électricité. Les systèmes de concentrateurs pourraient assurer la réduction des coûts en photovoltaïque [1]. Divers concepts sont en concurrence, développés notamment par des entreprises américaines ou allemandes.
La Silicon Valley est le bastion des techniques informatiques. Pourtant depuis longtemps, c’est l’industrie photovoltaïque qui est le domaine réellement porteur d’innovations. Par exemple, l’entreprise Solaria de Fremont démarre actuellement la production de modules de concentration d’un nouveau genre : les spécialistes de Solaria coupent des cellules PV en petites bandes et couvrent les espaces vacants avec des conducteurs de lumière coniques en plastique.

Ceux-ci concentrent la lumière du soleil, qui rencontre ensuite les bandes de silicium avec une intensité lumineuse doublée. Ainsi, selon Solaria, des économies sont réalisées sans perte d’efficacité. « Avec un rendement de 12 %, nous nous trouvons au même niveau que les modules standards, mais grâce à l’épargne réalisée en semi-conducteurs nous pouvons produire des cellules PV avec des économies de 15 à 30 % », affirme Philipp Kunze, chef de Solaria Allemagne. L’entreprise veut fabriquer cette année des modules avec une puissance de crête totale de 1 MW, pour atteindre en 2010 une capacité de 25 MW.

Une concurrence importante

Pour les cellules courantes, le silicium recouvre la surface totale du module et capte ainsi la lumière sur tout le domaine. « Avec notre procédé, nous n’avons besoin que de la moitié de ce silicium et pouvons donc produire deux cellules polycristallines au lieu d’une », selon l’explication de Kevin Gibson, membre de la direction technique de Solaria. Même s’il semble improductif de scier des modules déjà constitués et de les réassembler, cette approche permet d’économiser de l’argent, selon Mr.Gibson, les coûts totaux pour le plastique et les nouvelles phases du processus étant réduits par rapport aux cellules conventionnelles.
La concurrence est importante pour Solaria. De nombreuses entreprises travaillent sur des techniques de concentration de la lumière, dont la plupart des concepts repose sur une concentration beaucoup plus élevée de la lumière. Ainsi, la société Concentrix Solar de Fribourg fabrique des modules dans lesquels les lentilles de Fresnel [2] guident la lumière amplifiée 385 fois sur des cellules multiples minuscules avec un rendement supérieur à 37 %. « Dans les pays à fort ensoleillement, la technique se révèle jusqu’à 20 % plus avantageuse économiquement que pour les systèmes PV conventionnels », affirme Hansjörg Lerchenmüller, chef de Concentrix Solar.
Cependant, la production est coûteuse : afin que le focus de chaque lentille soit réalisé sur la cellule respective, les deux éléments doivent être alignés au millimètre près. Concentrix peut donc employer des cellules plus petites qu’un ongle et ainsi se permettre d’incorporer des cellules multiples relativement chères sur trois couches absorbantes superposées. Comme les lentilles ne fonctionnent que par rayonnement direct, elles sont montées sur des systèmes de poursuite, nommés « trackers solaires » [3]. Les hauts rendements du système légitiment l’investissement : sous le soleil du sud, la technique transforme 25 % de la lumière incidente en électricité, soit deux deux fois plus que dans les centrales solaires conventionnelles. Actuellement, Concentrix fabrique ainsi ses premières centrales en Espagne et aux USA.

Rendement contre économie des coûts

L’entreprise canadienne Morgan Solar [4] promet, par l’intermédiaire de son chef Eric Morgan, de proposer une technique produisant dans les régions ensoleillées de l’électricité jusqu’à 70 % moins chère que les modules standards actuels. La clé de ces prix réduits serait l’optique de direction de la lumière : au lieu de lentilles à coût élevé, Morgan emploie une plaque acrylique, qui rassemble la lumière et la dirige sur un verre spécial, qui concentre la lumière avec un facteur 1.000, et conduit le faisceau lumineux vers une cellule multiple. Les systèmes que Morgan Solar veut mettre sur le marché en 2010 devraient atteindre une efficacité de 21 %.
Pour les concentrateurs solaires, de nombreuses jeunes entreprises cherchent à pénétrer le marché. Les miroirs paraboliques de l’entreprise australienne Solar Systems capturent la lumière du soleil. Ils envoient leur lumière sur une cellule multiple disposée à proximité de leur foyer avec un rendement proche de 40 %. L’entreprise espagnole Guascor Fotón emploie une optique complexe de lentilles, qu’elle combine cependant avec des cellules silicium courantes. Ainsi, s’ils se contentent d’un rendement du système réduit à 16 %, ils économisent les coûts.

Malgré la concurrence, Solaria voit de bonnes chances de pénétration sur le marché : « La technique fonctionne aussi sans incidence directe du soleil », affirme Kunze, chef de Solaria Allemagne. Les modules de Solaria pourraient aussi être installés dans des régions peu ensoleillées comme l’Allemagne. Kunze envisage un potentiel de développement technique encore supérieur : les développeurs de Solaria veulent à l’avenir équiper les collecteurs de lumière de plastiques très concentrateurs, ou bien réaliser les raccordements électriques au verso des modules, afin que les dispositifs de contact ne gênent pas en interceptant la lumière. Mais le prochain défi de l’entreprise est la production en série.

 

[1] Dans un module solaire PV, lecomposant le plus cher est, de loin, la cellule PV. En intercalant undispositif concentrateur entre le soleil et la cellule, on peututiliser une surface de cellule beaucoup plus petite, et ainsi utiliserdes cellules à rendement très supérieur.

[2] Voir article de Wikipédia sur les lentilles de Fresnel : http://fr.wikipedia.org/wiki/Lentille_de_Fresnel
[3] Tracker : type d’héliostat, dispositif pour orienter toute lajournée les rayons solaires vers un point ou à une petite surface fixe,à l’aide de miroirs. Un exemple de centrale utilisant un champd’héliostats en France est la centrale solaire Thémis qui a fonctionnéde 1983 à 1986 et fait l’objet d’une nouvelle expérimentation depuis2008. Voir http://fr.wikipedia.org/wiki/H%C3%A9liostat
[4] http://www.morgansolar.com/

Origine :

BE Allemagne numéro 455 (15/10/2009) – Ambassadede France en Allemagne / ADIT – http://www.bulletins-electroniques.com/actualites/60815.htm
 
Claire Vaille est rédactrice pour la rubrique énergie des bulletins électroniques de l’ambassade de France en Allemagne.

Télésurveillance des installations photovoltaïques

Surveiller en permanence l’état de ses constituants d’une installation photovoltaïque, détecter le plus rapidement possible tout défaut et déclencher, dans les meilleurs délais une intervention de maintenance adaptée accélèrent le retour sur investissement de l’installation et améliorent le Taux de Rentabilité Interne (TRI) de l’exploitation.Vieillissement électrique des panneaux solaires, rupture de lignes, dysfonctionnement de cellules, fin de vie d’un parafoudre…Ne serait-ce que pour obtenir un meilleur retour sur investissement d’une installation photovoltaïque, il est donc primordial de surveiller en permanence l’état de ses constituants, de détecter le plus rapidement possible tout défaut et de déclencher, dans les délais les plus courts, l’intervention de maintenance adaptée.Ce sont les objectifs de la gamme Transclinic de Weidmüller. Une solution, indépendante des fabricants d’onduleurs qui permet à l’exploitant de mieux suivre sa production, tant sur le plan de son efficacité énergétique que sur sa maintenance. Et d’optimiser le rendement de son installation photovoltaïque.

Complémentarité et indépendance
Les produits Transclinic assurent le télé-contrôle et la télé-surveillance de l’installation photovoltaïque en mesurant la tension de chaque panneau photovoltaïque, la tension des strings (« chaînes » de panneaux montés en série), la température des coffrets de regroupement de strings et l’état du ou des parafoudres, sans oublier la protection contre le vol et les effractions. Toutes les données mesurées sont envoyées par radiofréquence et/ou par liaison filaire RS485 (version Modbus ou Ethernet). Etant ouvert, le protocole peut être exploité directement par l’installateur dans un système SCADA, un automate ou tout autre équipement de surveillance. Les solutions de contrôle de Weidmüller sont complémentaires de celles des fournisseurs d’onduleurs et/ou de composants, tout en étant indépendantes de leurs mesures.  Marc CHABREUIL

Maurice va utiliser l’eau de mer pour refroidir des centres de données infomatiques

L’île Maurice a décidé d’adopter la technologie SWAC pour le refroidissement d’un nouveau centre de données informatiques qui va s’installer sur cette île qui en compte déjà beaucoup.C’est la technologie SWAC que l’île Maurice a décidé d’adopter pour le refroidissement d’un nouveau centre de données informatiques qui va s’installer sur cette île qui en compte déjà beaucoup. « Au moins 260 entreprises se sont implantées à Maurice dans le secteur des centres de données informatiques et nous sommes le premier pays au monde à proposer de refroidir ces centres de données à partir de l’eau de mer », a déclaré le ministre des Technologies informatiques, Asraf Dulull.Le but de ce projet est de tirer avantage du positionnement géographique de Maurice pour utiliser au maximum les technologies renouvelables marines dans le cadre du programme Land-Based Oceanic Industry (LBOI) mis en place par le gouvernement mauricien et qui devrait débuter en 2010.La première phase de ce projet prévoit donc l’exploitation d’un système de refroidissement d’un centre de collecte de données informatiques de 10.000 mètres carrés dans l’ouest de l’île grâce à la technologie connue sous le nom de SWAC (Sea Water Air Cooling). Rappel de cette technologie SWAC : l’eau de mer (ou de certains lacs) profonde constitue une source quasi-inépuisable de matière liquide froide utilisable pour le refroidissement de bâtiments situés sur le littoral. À titre d’exemple, si la température de l’eau se situe en été en Méditerranée aux alentours de 13 °C par 50 mètres de fond, elle est de l’ordre de 4 °C par 1.000 mètres de fond dans les océans.Pour ce projet, une somme de 1 milliard de roupies mauriciennes (un peu plus de 22 millions d’euros) sera investie par le Board of Investment (BOI), principal investisseur en partenariat avec la State Investment Corporation avec la participation du Ministère des Technologies informatiques.

Le secteur des nouvelles technologies en croissance
A la base de cet investissement, une étude du cabinet britannique Boardgroup spécialisé dans les centres de données informatiques et l’un des problèmes economico-énergétiques les plus essentiels qu’ils posent : leur refroidissement. Cette étude pointe les différents concurrents de l’île Maurice en matière de data-centre. Il en ressort qu’installer un centre de données sur l’île Maurice revient en moyenne à 0,10 dollar le KWh, soit la seconde position sur le marché, juste derrière Bahreïn avec 0,04 dollar. Les lieux les plus prisés restent encore l’incontournable place de Londres, mais aussi Singapour et l’Inde. Steve Wallage, directeur de gestion de Boardgroup consulting, précise que « l’île Maurice est un peu en retard face à des concurrents tels que Londres, mieux placés géographiquement. Pour autant, au niveau de la gestion des risques ou de la préservation de l’environnement, l’île arrive dans le peloton de tête ».Si le secteur des nouvelles technologies représente actuellement 8 % du PIB de l’île Maurice, le gouvernement compte continuer sur sa lancée et atteindre l’objectif de 15 % fixé pour 2015. « Nous voulons faire mouvoir notre économie vers le numérique », a précisé le ministre Dulull. Le refroidissement à l’eau de mer n’est pas un concept nouveau, bien entendu, mais bien qu’utilisé dans le nautisme ou dans l’hôtellerie, il n’a jamais été appliqué dans le refroidissement d’un centre de données informatiques. 

Source :
Les énergies de la merFrancis Rousseau est rédacteur en chef de plusieurs blogs portant sur l’environnement et les énergies renouvelables, dont un spécialisé dans les énergies marines : Les Energies de la mer. Ces blogs sont réalisés pour 3B Conseils, cabinet conseil en communication scientifique et technique et bureau d’études, organisateur des Entretiens Science et Ethique.

C’est le moment de migrer vers les réseaux Gigabit Ethernet

Auparavant, le texte représentait la majorité du contenu des sites Web, accompagné ici et là d’une ou deux images. Aujourd’hui, ce rapport s’est inversé : les sites font la part belle aux images animées, vidéos et autres données d’une grande richesse. Ainsi, une étude montre que la taille d’une page Web typique a plus que triplé depuis 2003, passant de 93,7 ko à plus de 312 ko. Selon une étude, la visualisation de vidéos en ligne a bondi de 130 % en un an. Les utilisateurs se servent de plus en plus de leur réseau local pour visionner des clips vidéo et d’autres données multimédias dans le cadre, par exemple, de formation produits ou de présentation de clips institutionnels.Fort heureusement, la bande passante pour accéder à Internet a également augmenté, de sorte que nombre d’entreprises et de particuliers peuvent surfer à des débits supérieurs à 20 Mbits/s. Avec l’arrivée imminente d’une nouvelle technologie haut débit, ce débit pourrait être multiplié par 20, avec à la clé une amélioration considérable de la navigation.Mais dans la mesure où ces connexions haut débit plus rapides transporteront des contenus plus riches, les réseaux locaux devront traiter un plus grand volume de données. En effet, les utilisateurs enverront et recevront d’imposantes pièces jointes, accèderont à des sites Web toujours plus riches, téléchargeront des fichiers pesant plusieurs Mo, utiliseront Internet pour téléphoner avec le protocole IP et consulteront des bases de données de plus en plus complexes. En clair, les réseaux locaux (LAN) sont soumis à une pression de plus en plus forte.Or, la plupart des réseaux actuels utilisent encore le protocole Ethernet standard à 100 Mbits/s, le problème étant que la poignée d’internautes qui effectuent d’importants téléchargements ou visionnent des vidéos peut rapidement  » monopoliser  » la bande passante, les autres utilisateurs étant contraints de patienter. Heureusement, il existe une solution immédiatement disponible. Il est plus que jamais intéressant de faire passer son réseau au débit supérieur en optant pour le Gigabit Ethernet, une technologie solidement établie qui convertit instantanément et en toute transparence un réseau existant en un réseau de hautes performances. Dix fois plus rapide, la technologie Gigabit Ethernet aidera les entreprises à gagner du temps et de l’argent. Nombre de sociétés optent pour le Gigabit Ethernet afin de satisfaire aux exigences de performances et de transmission des environnements réseau actuels. La production de commutateurs Gigabit Ethernet a fortement progressé depuis 2008 et ces produits devraient à terme sonner le glas des commutateurs 10/100 Mbits/s au cours des prochaines années. Selon l’étude de marché consacrée par le Gartner Group, les ports Gigabit Ethernet représenteront près de 67 % du parc de ports installés dès 2012.Mais si l’on en parle depuis 2001, pourquoi a-t-il fallu autant de temps pour que la technologie Gigabit Ethernet puisse enfin prendre son essor ? Son coût élevé est l’une des raisons de ce lent décollage. Jusqu’à présent, la technologie Gigabit n’était pas vraiment économique pour les entreprises, notamment dans la mesure où l’Ethernet à 100 Mbits/s permettait de faire face à la majorité des besoins de connectivité. Mais aujourd’hui, le Gigabit Ethernet affiche un rapport prix/performances optimum.Récemment encore, peu de PC étaient compatibles avec le Gigabit Ethernet, ce qui nécessitait des investissements supplémentaires au niveau de l’interface client. Or, la plupart des ordinateurs modernes, acquis au cours des cinq dernières années, disposent en standard d’un port Gigabit Ethernet, une intégration qui évite toute dépense supplémentaire au niveau du PC. L’économie est donc triple : pas de surcoût au niveau matériel, pas de remplacement des PC clients et aucune interruption de service pour les utilisateurs. On assiste également à l’apparition d’autres solutions pourvues d’une interface Gigabit Ethernet, telles que les périphériques de stockage en réseau NAS et SAN. La technologie Gigabit Ethernet représente également une progression naturelle depuis la connectivité 10/100 Mbits/s, évitant tout investissement supplémentaire en matière de formation.

Une résine plus résistante aux frottements que l’aluminium galvanisé

Grâce à l’incorporation de fibres de carbone, de graphite et de PTFE, une résine hautes performances offre une résistance exceptionnelle aux frottement validée par une société spécialisée dans les études tribologiques.Dans la nouvelle génération de pompes à huile à vitesse variable fabriquées par Schwaebische Huettenwerke (SHW), une résine se comporte mieux à l’usure et au glissement que l’aluminium galvanisé. Il s’agit de, l’Ultrason KR 4113 de la gamme de polyéthersulfones (PESU) de BASF qui, comparé à toutes les versions antérieures de résines hautes performances BASF, offre une résistance aux frottements jusqu’alors inédite. Cette propriété est obtenue en incorporant des fibres de carbone, du graphite et du PTFE (polytétrafluoroéthylène). Cette résistance aux frottements a, pour la première fois, été mesurée précisément à l’aide d’instruments ultra-sophistiqués par NanoProfile GmbH, une société allemande créé en 2008 à la suite d’un essaimage de l’institut des matériaux composites (Institut für Verbundwerkstoffe GmbH) implanté à l’université technologique de Kaiserslautern. Elle est spécialisée dans les études tribologiques, c’est-à-dire les essais de frottement et d’usure proches des conditions réelles de polymères hautes performances.

Une grande stabilité dimensionnelle

Alors que le taux d’usure de l’Ultrason E 2010 classique est d’environ 420 (10-6 mm³ N-1 m-1), celui de l’Ultrason E 2010 C6 renforcé de fibres de carbone n’est que de 3,0 et celui de l’Ultrason KR 4113 de 1,5 seulement. Pour le mesurer, les spécialistes de NanoProfile ont effectué des essais d’usure par glissement unidirectionnel basés sur le principe de la  » bague contre plateau. »Lors de ce test, un échantillon de matière plastique soumis à une forte contrainte glisse à une vitesse déterminée et sans lubrification contre un élément antagoniste en forme de bague, en acier chromé et trempé. La valeur mesurée correspond à la pénétration du contre-élément dans l’échantillon d’essai. Outre les caractéristiques de résistance à l’usure et aux frottements qui ont été mesurées précisément et confirmées par un organisme indépendant, l’Ultrason KR 4113 offre les avantages de la gamme Ultrason : résistance à l’huile, grande stabilité dimensionnelle et stabilité thermique jusqu’à 200 °C. Ces caractéristiques en font le matériau de prédilection d’applications particulières.

Par Marc Chabreuil

La programmation des processeurs massivement parallèles, pas à pas

David B. Kirk, NVIDIA Fellow et ex-chief scientist, et Wen-mei Hwu, président du développement informatique et électrique du laboratoire scientifique, co-directeur du centre de recherche informatique parallèle et principal acteur du centre de l’excellence CUDA de l’Université de l’Illinois, se sont associé pour rédiger « Programming Massively Parallel Processors : A Hands-on Approach« . Un manuel de 256 pages qui a pour objectif de donner aux étudiants et aux professionnels les concepts de base de la programmation parallèle et des architectures GPU. Publié par Morgan-Kauffman, il explore les différentes techniques pour construire des programmes parallèles et il passe en revue plusieurs cas d’école.

Avec l’informatique CPU traditionnelle, on ne peut plus progresser en performances et les défis du calcul gagnant en complexité, le besoin d’un traitement massivement parallèle n’a jamais été aussi important. Les GPU possèdent des centaines de cœurs capables d’apporter des augmentations de performances sur un nombre important de défis portant sur le calcul. La montée des architectures multi-cœur a suscité le besoin d’enseigner aux programmeurs une nouvelle méthode indispensable : la programmation des processeurs massivement parallèles.

« Je voudrais remercier personnellement David et Wen-mei pour avoir écrit un livre aussi complet et permettre aux générations d’étudiants-programmeurs de comprendre et d’exploiter l’architecture massivement parallèle des GPU « , a déclaré Bill Dally, chief scientist de NVIDIA et ancien directeur du département informatique scientifique de l’Université de Stanford. « En tant qu’ancien professeur, j’ai déjà vu à quel point ce genre de manuel transforme tout un domaine. Je m’attends à voir l’informatique se transformer au rythme de l’inspiration des étudiants, guidés vers la maîtrise du GPU Computing grâce à ce livre ».

2009 Gasification Technologies Conference : l’avenir du méthanol comme carburant

La conférence 2009 sur les technologies de gazéification a réuni début octobre toute l’industrie du gaz à Colorado Springs aux Etats-Unis autour des tendances et des nouvelles avancées du marché. Robert Rapier revient sur la présentation du procédé « methanol to gasoline » (MTG) par Exxon Mobil.L’une des présentations les plus intéressantes à la conférence est celle d’Exxon sur une technologie différente de charbon liquéfié ou CTL (Coal to Liquid). Ce procédé implique généralement la conversion du charbon en syngaz par gazéification, suivie de sa transformation en carburant par réaction Fischer Tropsch. Le procédé d’Exxon est différent : après gazéification du charbon, celui-ci est transformé en méthanol. Mais le processus ne s’arrête pas là. Le méthanol est déshydraté en di-methyl-ether (DME , un bon carburant). Le DME transite ensuite par un catalyseur et est converti en essence avec un rendement de 90%. Ce procédé est désigné par l’acronyme MTG (methanol-to-gasoline).Le procédé existe depuis pas mal de temps mais est passé relativement inaperçu. Dans les années 1980 et 1990, Exxon possédait une usine de 14.500 barils/jour en Nouvelle Zélande. La fiabilité de l’usine tout au long de son activité a atteint 95 %. A la suite du choc pétrolier dans les années 1990, l’usine a arrêté de transformer le méthanol en essence, arrêtant le processus au méthanol. Les avantages du procédé sont son coût d’investissement faible par rapport au procédé Fischer Tropsch et le fait que le produit final est de l’essence, pour laquelle la demande est très élevée aux Etats-Unis. L’inconvénient est que le procédé produit relativement peu de diesel et de kérosène. L’armée et les compagnies aériennes portent justement un grand intérêt à Fischer Tropsch pour sa capacité à produire ces carburants d’un intérêt primordial.Exxon a annoncé qu’une nouvelle usine, basée sur la seconde génération de la technologie avec une meilleure intégration de la chaleur et un taux d’efficacité supérieur, avait été construite au Shanxi en Chine. Avec 2.500 barils/jour, l’usine est plus petite que la précédente en Nouvelle-Zélande, mais Exxon a vendu la licence à deux sociétés aux Etats-Unis. DKRW a annoncé en 2007 avoir l’intention d’utiliser le MTG au sein d’une usine d’une capacité de 15.000 barils/jour à Medicine Bow dans le Wyoming. Synthesis Energy Systems a également déclaré en septembre 2008 désirer acheter la licence pour ses projets de charbon liquéfié.Si Exxon semble se concentrer sur la transformation du charbon en essence, rien n’interdit de transformer le gaz naturel ou la biomasse (GTL et BTL). Cette technologie pourrait être complémentaire du procédé Fischer Tropsch pour assurer à la fois la production d’essence et la production des carburants utilisés dans l’aviation, la marine, le transport par camions sur de longues distances et l’armée.Lors des questions réponses, quelqu’un a toutefois demandé pourquoi Exxon ne construisait pas soi-même ces usines si le procédé était si intéressant. La réponse d’Exxon est qu’il n’est pas expert et souhaite seulement vendre la licence.Lire l’article original en anglais dans son intégralité et la présentation de Mitch Hindman, d’ExxonMobil Research & Engineering Co, à la rencontre 2009 Gasification Technologies : ExxonMobil Methanol to Gasoline (MTG) Technology – An Alternative for Liquid Fuel Production.

Source :
R-Squared Energy BlogRobert Rapier a consacré sa carrière à l’énergie. Il a travaillé sur l’éthanol de cellulose, la production de butanol, le raffinage du pétrole, la production de gaz naturel et le GTL. Il était auparavant directeur ingénierie chez Accsys Technologies et se trouve actuellement à Hawaii où il participe à la création d’une société sur la bioénergie.Articles liés :– Combien faut-il de miracles pour que la voiture à pile à combustible devienne réalité ?– La bioénergie : le temps des compromis– Les bons élèves de la deuxième génération de biocarburants

Une nouvelle approche de l’ingénierie assistée par ordinateur

Le logiciel SimulationX modélise l’interaction des composants d’un système multi-physiques pour en simuler le comportement dynamique et/ou statique et propose une solution globale pour la conception et le test de systèmes mécatroniques.Destiné aux ingénieurs-concepteurs de l’industrie (automobile, aéronautique, énergie, transports, machine outils, engins de travaux publics, médical…), SimulationX, logiciel de modélisation multi-physiques de ITI, est dédié au développement, à la conception et à l’optimisation des systèmes, sous-systèmes et composants, Il permet de modéliser l’interaction des composants d’un système multi-physiques pour en simuler le comportement dynamique et/ou statique. Il intègre également les lois de contrôle (continu ou discret) du système étudié, ce qui le différencie des autres approches en CAE (Computer aided engineering ou Ingénierie assistée par ordinateur).Basé en intégralité sur le langage de programmation scientifique Modelica, SimulationX offre une plateforme ouverte et globale intégrant tous les éléments physiques issus des domaines de la mécanique (1D et multi-corps), de l’hydraulique, de la pneumatique, de la transmission de puissance, de l’électromécanique, de l’électrique, de l’électronique, du magnétique, du thermique et de la thermodynamique. Grâce à ces librairies de modèles prédéfinis, il est ainsi possible d’étudier, d’analyser et d’optimiser des systèmes technologiques complexes.

Optimiser des systèmes technologiques complexes
Pouvant être exporté sur les principales plateformes temps réel, la version 3.3 de SimulationX, disponible en mode « On Demand », intègre, entre autres, les fonctionnalités suivantes :
  • un éditeur ergonomique de code Modelica avec correcteur automatique de syntaxe ;
  • un enrichissement des librairies métiers (nouveau modèle moteur, contact came, engrenage conique…) ;
  • un export du code C sur plateforme temps réel intégrant le solveur à pas fixe de SimulationX ;
  • l’intégration des modèles dans les plateformes de test et de simulation temps réel LabVIEW et NI VeriStand de National Instruments, ce qui facilite et accélère les phases de test et de prototypage, sans pour autant modifier l’intégrité du modèle utilisé. En effet, fort de son positionnement sur le marché de l’ingénierie des systèmes virtuels, ITI a signé un partenariat technologique avec NI, spécialiste de l’instrumentation virtuelle, pour proposer une solution globale de conception et de test de systèmes mécatroniques. SimulationX permet ainsi d’optimiser la productivité du cycle de conception de nouveaux systèmes et de réduire leur temps de mise sur le marché.
Par Marc Chabreuil

Comment Safran adapte sa gestion des FDS aux exigences de REACH

Entrée en vigueur le 1er juin 2007 afin d’assurer un niveau élevé de protection de la santé humaine et de l’environnement, REACH, la nouvelle législation européenne sur les substances chimiques, introduit de nouvelles exigences pour les producteurs et importateurs de produits chimiques en Europe (préenregistrement et enregistrement des substances, modification des Fiches de Données de Sécurité – FDS – pour intégrer, entre autre, les scénarii d’expositions, etc).Mais REACH induit également de nouvelles obligations pour les utilisateurs en aval de ces mêmes produits. Ils doivent entre autres :

  • identifier les produits chimiques qu’ils utilisent, qu’ils soient dangereux ou non, de manière à anticiper l’évolution des connaissances et des classifications ;
  • spécifier aux fournisseurs la manière dont ils utilisent leurs produits afin qu’ils puissent définir des scénarii d’expositions ;
  • identifier les produits chimiques composés de substances les plus préoccupantes afin de les mettre sous contrôle renforcé et de les substituer à terme ;
  • s’assurer que les mesures de gestion des risques préconisées par les FDS correspondent à celles mises en place.
Un chantier auquel Safran, équipementier positionné sur les marchés de l’aéronautique, de la défense et de la sécurité, s’est attelé dès 2007. Bertrand Fiol, rattaché à la direction du développement durable du groupe Safran et en charge des programmes risques chimiques, revient sur le dispositif mis en place par le groupe pour gérer les FDS, devenues avec REACH l’outil principal de communication et d’échange technique avec ses fournisseurs de substances chimiques. Il reviendra sur toutes ces questions dans le cadre du rendez-vous du risque chimique du 29 mars 2010 à Lyon intitulé  » SGH et FDS étendue : comment réussir la transition ? « , organisée par Techniques de l’Ingénieur en partenariat avec Quick-FDS (voir l’encadré).

Mutualiser pour plus d’homogénéité
Alors que les contours du règlement européen sur les substances chimiques se précisent, la direction du développement durable du groupe Safran prend la décision en 2007 de mutualiser la gestion des FDS. Objectifs : mettre un terme à l’hétérogénéité des dispositifs mis en place par les différentes sociétés qui composent le groupe industriel depuis 2005, améliorer la mise à jour des FDS grâce à une gestion automatisée et externalisée, enfin, disposer d’une vision globale des différents produits utilisés, y compris par les sous-traitants.  » Nous voulions non seulement avoir une vision exhaustive sur la base de données des FDS et des produits chimiques utilisés sur nos différents sites, mais aussi sur ceux employés à l’extérieur du groupe par nos prestataires, explique Bertrand Fiol. Au-delà, il fallait également que cette base soit vivante, pour refléter la réalité et pouvoir être mise à jour facilement. « Autant d’objectifs dont la matérialisation est confiée, courant 2007, à un groupe de travail composé de coordinateurs santé – sécurité – environnement, d’acheteurs du groupe et d’acteurs techniques. Leur réflexion débouche quelques mois plus tard sur un cahier des charges fonctionnelles sur lequel est lancé un appel d’offre que remporte la société Quick FDS.

Un an pour inventorier tous les produits chimiques
Commence alors le travail d’inventaire. Il s’agit de collecter toutes les FDS liées à l’usage de produits chimiques, et parallèlement, pour ne rien oublier, de faire l’inventaire de toutes les substances chimiques appelées dans les spécifications des produits du groupe. Et ceci, à la fois en interne et chez les sous-traitants. Or, si la collecte des FDS des produits chimiques utilisés en interne est presque exhaustive, le groupe Safran ne dispose pas nécessairement de celles de ses prestataires.Il faudra un an, c’est-à-dire toute l’année 2008, pour parvenir à réunir dans une base de données accessible via le Web, toutes les FDS relatives aux produits chimiques utilisés par Safran et ses sous-traitants. Soit à ce jour, 8.000 fiches de données de sécurité environ. » C’est beaucoup, admet Bertrand Fiol. Mais je pense qu’assez rapidement, nous allons réduire ce nombre d’environ 10 % en raison de l’existence probable de doublons. Nous avons d’ailleurs déjà, grâce à l’inventaire, éliminé un certain nombre de FDS car elles étaient périmées. « 

Substances mais aussi usages
Restait ensuite à renseigner les usages. En effet, les usages recommandés par les fabricants devront, au fil des enregistrements imposés par REACH, figurer sur les FDS. Or, il revient à l’utilisateur de signaler au fabricant l’usage qu’il a de son produit afin que ce dernier le prenne en compte dans son dossier d’enregistrement et prévoit des mesures de sécurité adaptée. Un travail de longue haleine, parfois semé d’embuches, puisque dans le circuit de commercialisation d’un produit, les utilisateurs ne sont pas toujours en contact direct avec les fabricants. » Nous avons consacré toute l’année 2009 à renseigner, dans notre base de données, les usages pour chacun des produits chimiques que nous utilisons, explique Bertrand Fiol. Nos descriptifs ont été adressés par courrier et par mail en janvier 2010 à nos fournisseurs. Nous commençons à avoir des réponses, mais nous ne savons pas si nos usages seront pris en compte, car rien n’oblige les fabricants à le faire. « Il reviendra alors à Safran, lorsque les nouvelles FDS lui parviendront, de comparer ses propres usages aux prescriptions des fabricants, tout en intégrant les nouvelles recommandations.

Compartimenter pour gérer les différentes langues
Autre difficulté, la gestion des langues. Safran étant un groupe international, ayant néanmoins opté pour une gestion centralisée de ses FDS, il était nécessaire que toute entité basée dans un autre pays que la France puisse accéder à une interface Web et des FDS rédigées dans sa langue. Ce qui a nécessité des développements supplémentaires, d’une part, pour traduire les interfaces ainsi que pour bien compartimenter le site, ce qui a été fait en interne ; et d’autre part, pour extraire les données pertinentes des FDS, travail qui a été externalisé.  » Actuellement, le site et la base sont bilingues, anglais – français, précise Bertrand Fiol. Mais ils pourraient bientôt être déclinés en d’autres langues selon les besoins des sites. « 

Traçabilité des substances et gain de temps
A présent opérationnelle, la base de données ne cesse pourtant d’évoluer. Ne serait-ce que pour intégrer de nouveaux produits chimiques utilisés par le groupe. Mais cette étape n’est plus chronophage et, au contraire, permet à l’équipementier de gagner du temps sur l’ensemble du processus d’introduction des produits sur site grâce au couplage avec un workflow d’homologation des produits chimiques.Autre avantage de cette base de données mutualisée : en recensant tous les produits chimiques qu’il utilise, le groupe Safran est capable d’identifier, très rapidement, quels produits emploient telle substance chimique, les sites et les sous-traitants concernés ainsi que la nature du procédé utilisé. Ce qui permet une très grande réactivité au cas où une substance change de classe, de pouvoir interroger rapidement le fournisseur et de prendre les mesures appropriées. Une bonne manière d’anticiper ! Formation Techniques de l’IngénieurBertrand Fiol reviendra sur toutes ces questions dans le cadre du rendez-vous du risque chimique du 29 mars 2010 à Lyon intitulé  » SGH et FDS étendue : comment réussir la transition ? « , organisée par Techniques de l’Ingénieur en partenariat avec Quick-FDS. Pour plus d’information, cliquez ici.A.L B

La Haute Disponibilité au service de la virtualisation

Une solution de haute disponibilité optimisée à la fois pour les environnements virtualisés critiques et les environnements physiques permet la reprise des opérations en un temps record, que le matériel ou le logiciel soit l’origine de la défaillance.Les bénéfices de la virtualisation sont multiples et reconnus : optimisation de l’utilisation des ressources, flexibilité, réduction des coûts… Cependant, la consolidation de plusieurs systèmes virtuels sur un même serveur hôte physique présente des risques. Une panne de serveur physique peut bloquer des opérations vitales en perdant de nombreux systèmes virtuels qui exécutent en même temps des applications et des données critiques. C’est pourquoi intégrer une solution de continuité de service pour les applications et données critiques, capable d’assurer la haute disponibilité globale et la récupération après désastre, est aujourd’hui un élément essentiel pour toute consolidation des systèmes virtuels.Les fonctionnalités de Haute Disponibilité des solutions de virtualisation sécurisent les serveurs virtuels. Cependant, ces fonctions effectuent seulement une surveillance active des serveurs virtuels et, malheureusement, elles ne contrôlent pas la couche applicative. Or, selon une étude Microsoft, les défaillances d’application représentent environ 24 % de toutes les causes d’interruption de système, et ces options ne peuvent pas rétablir les opérations suspendues en cas de défaillance d’application.

Répondre aussi aux besoins de continuité des systèmes physiques
Il existe plusieurs solutions de continuité de service, de l’utilisation de logiciels de secours et de protection des données au niveau du stockage, aux serveurs à Tolérance de Panne (Fault Tolerant). Parmi elles, la solution de haute disponibilité NEC ExpressCluster de NEC Computers SAS, optimisée pour les environnements virtualisés, permet la reprise des opérations en un temps record, quelle que soit l’origine de la défaillance : matérielle ou logicielle. Si une défaillance du serveur est détectée, les applications sont basculées sur un serveur de secours, tout en évitant la perte des données.Capable de contrôler une large gamme de ressources système (application, OS, matériel et réseau) et de rétablir rapidement les opérations au cas où une défaillance se produit au niveau de l’une de ces ressources, ExpressCluster, qui supporte aussi bien les solutions VMware vSphere, Microsoft Hyper V que Citrix XenServer, répond aussi aux besoins de continuité des systèmes physiques. Une nécessité car la plupart des centres de données qui exécutent des systèmes virtuels, exécutent aussi de nombreux systèmes physiques conventionnels. Par Marc Chabreuil

Le premier sac de ciment biodégradable et compostable

Grâce à sa combinaison exclusive, le BioSac by Calcia bénéficie du label OK Compost qui garantit une décomposition à 96,3 % de sa matière en seulement 12 semaines, et ce, en situation de compostage industriel. Une solution 100 % environnementale qui répond à la cible n° 6 de la démarche HQE des professionnels du bâtiment.Grâce à sa combinaison exclusive, le BioSac by Calcia bénéficie du label OK Compost qui garantit une décomposition à 96,3 % de sa matière en seulement 12 semaines, et ce, en situation de compostage industriel. Une solution 100 % environnementale qui répond à la cible n° 6 de la démarche HQE des professionnels du bâtiment.Depuis le début des années 90, Ciments Calcia a initié une démarche volontaire et pionnière en termes d’environnement. Elle s’est concrétisée, entre autre, par le lancement d’innovations produits majeures : la gamme TX basée sur le principe de la photocatalyse (béton dépolluant TX Aria et béton autonettoyant TX Arca), Effix Design (mortier dépolluant ou autonettoyant).Aujourd’hui, l’entreprise met sur le marché le tout premier sac de ciment biodégradable et compostable : BioSac by Calcia. Une solution concrète pour tous les artisans et entreprises du bâtiment confrontés à la problématique et à l’enjeu de la gestion des déchets de chantier. A titre d’exemple, en 2008, le marché national du ciment en sac a généré près de 35.000 tonnes de déchets d’emballage, qui sont traités comme des déchets banals, déposés simplement en site de classe II ou incinérés.En effet, les sacs de ciment « traditionnels » sont constitués d’une double couche de papier type Kraft pour la résistance et d’un « free film » en polyéthylène (PE) pour la conservation du produit. Mais cet assemblage de matières de natures différentes ne permet pas une valorisation immédiate de l’emballage

Développer un véritable outil industriel
Développée en collaboration par les groupes Barbier, Limagrain, Mondi et Ciments Calcia, l’innovation de BioSac by Calcia réside dans la composition de son « free film », qui utilise désormais une matière 100 % naturelle issue de la farine de maïs, le Biolice. Celui-ci est fabriqué selon un procédé unique à partir de grains entiers de céréales, principalement issus du maïs et de blés dérivés de plusieurs variétés spécifiques Limagrain.Ce produit est basé sur la combinaison de fractions de céréales et d’un polymère biodégradable. Les produits Biolice, une fois utilisés et jetés, vont se dégrader sous l’action des micro-organismes. On obtiendra ainsi de l’humus utilisable par les jardiniers et les agriculteurs. Depuis la fin 2005, Limagrain Céréales Ingrédients a transféré son savoir-faire en passant du stade de la production pilote à un véritable outil industriel développé en collaboration avec la société Clextral.

Le label OK Compost (ici l’agrément S145 attribué par le bureau d’études belges AIB Vinçotte à BioSac by Calcia) garantit que le produit est conforme à la norme Erelative aux emballages valorisables par biodégradation et compostage (voir ci-dessous).
 

 
 Grâce à sa composition exclusive, BioSac by Calcia répond à la norme EN 13 432, relative aux emballages valorisables par biodégradation et compostage, et s’est vu attribuer le label OK Compost (N° d’agrément S145). Notons que la compostabilité, selon la norme, se vérifie au niveau de 4 critères :
  • la biodégradation : il s’agit de la dégradation par l’action d’enzymes spécifiques entraînant une modification significative de la composition chimique (avec dégagement d’eau, de CO2, de méthane et de chaleur) ; le seuil minimum de biodégradabilité, en centre de compostage devant être de 90 %, dans un délai maximum de 6 mois ;
  • la fragmentation s’illustre par la décomposition physique de la matière en fragments de petite taille ;
  • les métaux lourds avec la vérification du niveau de présence de certains métaux tels que le mercure, le plomb, le cadmium…
  • l’écotoxicité qui consiste à confirmer l’absence d’effet néfaste sur la croissance des plantes.
BioSac by Calcia a passé tous les tests avec succès, garantissant une décomposition à 96,3 % de sa matière en seulement 12 semaines, et ce, en situation de compostage industriel. Ces résultats ont été contrôlés par le bureau d’études belge AIB Vinçotte. Ainsi, grâce à BioSac by Calcia qui sera commercialisé sur le marché de l’Ile-de-France dès le mois de mars, les professionnels du bâtiment bénéficient d’une solution 100 % environnementale qui répond à la cible n° 6 de la démarche HQE. 

Marc CHABREUIL

Un récupérateur d’énergie marine cycloïdal inspiré des techniques de l’aérospatiale

La NSF (National Science fondation) s’est fait l’écho de la présentation des travaux d’une équipe d’ingénieurs de l’US Air Force Academy faite lors de la 62e réunion annuelle du Département de dynamique des fluides de l’American Physical Society qui s’est déroulée le 24 novembre 2009, à Minneapolis.Les chercheurs Tiger Jeans et Thomas McLaughlin de l’US Air Force Academy, menés par Stefan Siegel, ont fait savoir lors de la présentation de leurs travaux à Minneapolis que leur équipe travaillait dans le domaine de la recherche fondamentale depuis de nombreuses années déjà. Stefan Siegel, se référant principalement aux travaux de mesure des fluides effectués grâce à l’installation de capteurs sur les ailes d’avions et les pales d’éoliennes a déclaré : « Dans le domaine aéronautique, quand vous contrôlez le flux aérien, vous gérez mieux les commandes de vol, comme celle par exemple, d’atterrir sur une piste plus courte ».La façon dont Siegel fut conduit à s’intéresser aux technologies d’énergies marines doit tout au hasard et au fait qu’un de ses collègues, après avoir lu un article sur ce sujet dans un magazine, lui en ait parlé. C’est alors que Siegel et son équipe réalisèrent qu’ils pouvaient appliquer à un récupérateur d’énergie des vagues, par exemple, les mêmes concepts de contrôle des fluides que ceux qu’ils avaient développés pour les avions.Soutenus par une subvention de la Fondation nationale des sciences, les chercheurs ont développé un système qui utilise une turbine cycloïdale dont on trouvera le résumé des détails techniques fait par les auteurs précités eux-mêmes (ICI). « Tous les avions volent grâce à ce type de turbine » a précisé Siegel, « Si vous comparez un moulin-à-vent ancien avec une éolienne moderne, vous comprendrez vite que c’est la maîtrise de la dynamique des fluides qui a permis que les éoliennes ne soient pas déchiquetées par les tempêtes comme l’étaient autrefois les moulins-à-vent. Les mêmes principes peuvent être appliqués à l’énergie des vagues ».

Une poussée identique dans toutes les directions
Entre autres astuces innovatrices, les chercheurs ont modifié l’orientation de l’hélice en la faisant passer de l’horizontale à la verticale, ce qui permet une interaction directe avec le mouvement de bas en haut des vagues. Plus intéressant, les chercheurs ont développé des systèmes de contrôle individuel pour chaque aileron de l’hélice, ce qui permet des manipulations complexes permettant de maximiser ou minimiser les performances en cas d’orages ou de tempêtes et d’interagir encore plus étroitement avec la nature même de l’énergie fournie par les vagues.L’objectif final est de conserver un sens de circulation et une orientation de la lame qui soit la plus constante et la plus régulière possible de façon à alimenter en continu des génératrices capables de convertir l’énergie des vagues en énergie électrique.La poussée est contrôlable, en direction (0-360°) comme en puissance. Une poussée identique peut être produite dans toutes les directions. L’un des avantages de ces dispositifs serait d’être monté sur des flotteurs ne nécessitant pas d’amarrage, ce qui est important dans le cas d’éventuels emplacements en haute mer. Les zones qui recèlent le plus formidable potentiel d’énergie des vagues sont actuellement hors de portée des technologies existantes. Alors que le dispositif commercial pourrait mesurer 40 mètres de diamètre, les modèles de laboratoire sont prévus pour faire actuellement moins d’un mètre de diamètre. Une plus grande version du système sera testée courant 2010 dans le bassin de simulation des vagues de tsunami de la NSF for Earthquake Engineering Simulation (NEES) de l’Oregon State University (OSU). Ce sera une expérience décisive pour prouver l’efficacité de ce concept.Accessoirement les intrépides chercheurs de l’US Air Force Academy veulent aussi utiliser la même approche pour mettre au point un hydroglisseur construit avec des hélices cycloïdales. Là du coup c’est moins nouveau que pour les récupérateurs d’énergie des vagues et on ne saurait trop conseiller à nos ingénieurs, avant de se lancer, d’aller faire un petit tour du côté de chez VoithTurbo !!!En effet, ce principe propulse déjà actuellement bon nombre de remorqueurs, ferries et autres navires qui ont besoin d’être d’une grande manœœuvrabilité. L’idée de ce système de propulsion et de manœuvre a été inventée en effet par l’ingénieur autrichien ErnstSchneider en 1926. Elle a été développée et mise au point par Voith, au début des années 1950. Le système appelé Voith Schneider Propeller (VSP) permet à une poussée de n’importe quelle puissance d’être produite dans n’importe quelle direction, rapidement, avec précision et de façon continue. Il combine la propulsion et la direction dans une seule unité. C’est en fait un système très proche de celui-ci que les chercheurs américains essaient d’appliquer en le portant à grande échelle à l’énergie des vagues. Astucieux. 

Source :
Les Energies de la mer

Authentification biométrique : visage, voix et paroles vérifiés simultanément

Un logiciel fait appel simultanément à 3 procédures qui génèrent 12 processus de vérification biométrique, avant d’accorder l’accès à toutes les applications protégées par un mot de passe.Pour permettre aux entreprises de protéger dorénavant plus efficacement leurs fichiers et applications protégés par mot de passe, stockés localement ou sur serveur, ainsi que des applications internet, l’éditeur suisse Biometry.com AG propose le logiciel BIOMETRYsso. qui utilise simultanément 3 procédures de vérification biométriques: la reconnaissance de la personne autorisée d’accès s’effectue grâce à son visage, sa voix et par la parole. Pour le processus d’authentification, seuls une webcam et un microphone sont nécessaires.Le logiciel qui peut être téléchargé s’installe en quelques minutes. Toutes les applications protégées par mot de passe associées sont listées dans une banque de données. Dès que l’utilisateur, possesseur doté d’un PC équipé d’une webcam et d’un micro, accède à la première application protégée, il doit répéter à haute voix les chiffres affichés à l’écran et tourner son regard vers la webcam. Le logiciel vérifie alors le visage, la voix et la parole. S’ils sont conformes aux modèles préenregistrés, BIOMETRYsso accorde l’accès à toutes les applications protégées par mot de passe.

Toutes les procédures biométriques ont leurs avantages et leurs inconvénients
Pour protéger les données pendant tout le temps de travail, il est possible d’activer l’authentification permanente. Celle-ci fait fonctionner la vérification biométrique du visage en tâche de fond de manière automatique. Le logiciel vérifie alors à intervalles réguliers que la personne travaillant à l’ordinateur est bien la personne autorisée. Si l’utilisateur n’est pas reconnu, par exemple, parce qu’il détourne son regard de l’écran ou parce qu’il a quitté son poste de travail, toutes les applications protégées sont fermées. Au moment où l’utilisateur retourne à son poste, il est reconnu automatiquement et toutes les applications sont à nouveau visibles une seconde plus tard.L’administrateur peut décider librement du chiffrement cryptographique qu’il souhaite utiliser pour rendre illisible à des tiers les modèles biométriques. De la même manière, il peut choisir librement l’endroit de stockage des modèles et du fichier de sauvegarde dans le cache. Si un pirate informatique essaie de fermer BIOMETRYsso à travers le panneau de configuration pour accéder aux données protégées, toutes les applications se ferment automatiquement.« Toutes les procédures biométriques ont leurs avantages et leurs inconvénients. La première est facilement falsifiable (les empreintes digitales), la deuxième nécessite du matériel coûteux (la reconnaissance de l’iris) et la troisième n’est pas acceptée par une grande partie de la population (la reconnaissance de la rétine). Avec BIOMETRYsso, les 3 procédures lancées simultanément génèrent 12 processus et garantissent ainsi une sécurité maximale. L’usurpation de l’identité devient ainsi impossible », déclare Werner Blessing, PDG de Biometry.com AG.Par Marc Chabreuil

L’avenir de notre industrie

Alors que l’industrie occidentale est en perte de vitesse, Jacques Leger livre dans son dernier ouvrage un plaidoyer pour l’innovation et la valeur « client » qui, seules, permettront de se distinguer au plan mondial et propose au lecteur de réinventer l’offre à travers des cas concrets.

Nouvelle révolution industrielle au profit des pays émergeants, crise économique avec ses annonces quotidiennes de fermetures d’usines, aujourd’hui l’industrie française et occidentale, a du mal à faire face à la mondialisation de l’économie. L’ouvrage « L’avenir de notre industrie » soulève des problématiques et donne des solutions pour sortir de l’eau une industrie en perte de vitesse. Son auteur, Jacques Leger, Directeur financier du groupe Valeo, Directeur général de la branche Valeo transmissions, Directeur technique de CarnaudMetalbox, Président des activités Food Europe et Directeur industriel du groupe Alstom, livre ici un véritable plaidoyer pour l’innovation et la valeur « client » qui seules permettent de se distinguer sur l’échiquier mondial.

La mondialisation ne laisse plus le choix : il est temps de réagir et d’agir pour une performance durable de l’industrie, voie dans laquelle cet ouvrage novateur propose d’accompagner le lecteur. Mais comment ? Une alternative s’offre aux industriels :

  • réactiver les capacités industrielles par l’innovation, la technologie, la qualité, le travail et le sens de la responsabilité ;
  • ou nous battre coût contre coût avec les pays émergents et détricoter le système social construit au cours des dernières décennies.

Créateur d’Operexcel société dédiée à l’excellence opérationnelle, de CVC pour la Création de Valeur Client ainsi que de Kinep dédiée à la formation des Managers européens (afin de mieux comprendre la Chine sur place), Jacques Leger guide le lecteur en lui apprenant à réinventer l’offre à travers plusieurs cas :

  • la Logan High tech pour les uns et Low cost pour les autres, illustre l’approche des Lean products ;
  • la Global integration propose d’offrir davantage de valeur client par une approche système ;
  • le captage et le stockage du CO2 illustre le potentiel de création de valeur environnementale.

Dans chacun de ces cas, l’auteur propose des clés pour l’avenir de l’industrie avec des outils utilisés et appliqués suggérant plusieurs stratégies.

Le développement d’applications robotiques simplifié

Un environnement logiciel unique permet, sans savoir-faire particulier, de contrôler et d’intégrer chaque aspect d’un système robotisé, de la manipulation de pièces détachées jusqu’aux mesures avancées en vision industrielle et aux interfaces homme-machine.Face à la tendance actuelle à la production d’un petit nombre de produits à partir de nombreux composants, la pression est forte pour réduire les coûts et raccourcir le temps de développement. Ainsi, pour accroître la productivité et les performances des applications de production, de recherche et de test automatisé, National Instruments et DENSO Robotics ont décidé de collaborer pour intégrer la technologie de mesure et de vision de NI avec les bras robotisés de DENSO.La nouvelle bibliothèque LabVIEW de fonctions graphiques permet aux ingénieurs et aux scientifiques de répondre à ces deux préoccupations en intégrant tous les aspects d’un système robotisé au sein d’une seule et même application NI LabVIEW sans avoir besoin d’un savoir-faire particulier en programmation robotique. « Encourager les clients à utiliser LabVIEW pour contrôler des robots DENSO va permettre d’accroître leur efficacité tout en réduisant leur temps de mise sur le marché » affirme Toyohiko Ito, directeur de DENSO WAVE, filiale du groupe DENSO qui développe et fabrique des robots industriels.

Multiplier par dix la cadence d’analyse
Développée par la société ImagingLab, partenaire Alliance de NI, la bibliothèque de robotique ImagingLab pour DENSO, communique directement avec les contrôleurs DENSO pour commander et contrôler les bras robotisés via le logiciel LabVIEW. C’est un ensemble simple d’emploi de fonctions graphiques qui offrent la possibilité d’utiliser un environnement logiciel unique afin de contrôler et d’intégrer chaque aspect d’une machine, de la manipulation de pièces détachées et du contrôle de robots jusqu’aux mesures avancées à vision industrielle.Ainsi, les ingénieurs qui n’auraient pas utilisé auparavant des robots industriels, peuvent désormais les intégrer dans leurs applications pour automatiser les laboratoires, assembler de façon précise les composants et tester les pièces complexes.« Nous avons utilisé LabVIEW pour intégrer un robot VS-6577 DENSO avec des analyseurs de spectre dans une station de test analytique entièrement automatisée sans avoir besoin d’apprendre un autre langage de programmation robotique, précise Dylan Jones, chercheur chez Genzyme. La bibliothèque de robotique ImagingLab pour DENSO était une solution standard pour intégrer le bras robotisé. Nous pensons qu’avec ce genre de station de test, nous arriverons à multiplier par 10 la cadence d’analyse. »La bibliothèque de robotique ImagingLab pour DENSO fonctionne avec les systèmes LabVIEW Real-Time, qui combinent la programmation graphique de LabVIEW à la puissance d’un système d’exploitation temps réel, permettant ainsi aux ingénieurs et aux scientifiques de construire des applications temps réel. La bibliothèque fonctionne aussi avec les caméras intelligentes de NI pour l’association robotique et vision et avec le matériel d’acquisition de données NI pour les applications de mesure aussi simples que complexes.

Data Mining et statistique décisionnelle – L’intelligence des données

Le data mining et la statistique sont de plus en plus répandus dans les entreprises et les organisations soucieuses d’extraire l’information pertinente de leurs bases de données, qu’elles peuvent utiliser pour expliquer et prévoir les phénomènes qui les concernent (risques, consommation, fidélisation…). Une tendance qui explique pourquoi Stéphane Tufféry, docteur en mathématiques, en charge de la statistique et du data Mining dans un grand groupe bancaire français , et enseignant de data Mining à l’université Rennes 1 à l’ISUP (Institut de Statistique de l’Université de Paris), vient de publier la troisième édition de  » Data Mining et statistique décisionnelle – L’intelligence des données « . Cette nouvelle édition, actualisée et augmentée de 170 pages, fait le point sur le data Mining, ses méthodes, ses outils et ses applications, qui vont du scoring jusqu’au Web Mining et au text Mining. Nombre de ses outils appartiennent à l’analyse des données et à la statistique classique (classification automatique, analyse discriminante, régression logistique, modèles linéaires généralisés, régression régularisée…) mais certains sont plus spécifiques au data Mining, comme les arbres de décision, les réseaux de neurones, les SVM, l’agrégation de modèles et la détection des règles d’associations. Ces outils sont disponibles dans des logiciels de plus en plus puissants et conviviaux. Autre nouveauté : l’enrichissement conséquent du chapitre destiné à aider le lecteur à se diriger dans cette offre logicielle et à comprendre les fonctionnalités des trois principaux : SAS, IBM et SPSS et aussi R. Ces logiciels sont aussi utilisés pour illustrer, par des exemples, de nombreuses explications théoriques. Une nouvelle partie de 50 pages est consacrée à une étude de cas complète de  » credit scoring « , qui va de l’exploration des données jusqu’à l’élaboration de la grille de score.Les aspects méthodologiques vont de la conduite des projets jusqu’aux facteurs de réussite et aux pièges à éviter, en passant par l’évaluation et la comparaison des modèles, leur intégration dans les processus opérationnels, sans oublier les contraintes juridiques dès que l’on traite des données à caractère personnel.Par Marc Chabreuil

Ruckus Wireles récompensé pour ses innovations en matière de Wi-Fi

En 5 ans, depuis sa création en 2004, Ruckus Wireless a reçu 34 récompenses consécutives, dont la toute dernière, celle d ‘Everything Channel, Centre de tests indépendant du groupe CRN. Le prix  » Everything Channel Tech Innovator Company of the Year  » honore les entreprises qui ont présenté de nouvelles solutions technologiques durant l’année écoulée. Des centaines de solutions ont été passées en revue par le Centre de tests Everything Channel avant de remettre les distinctions de l’année 2009. Et c’est dans la catégorie  » Réseaux sans fil  » que Ruckus Wireless, société innovante dans la technologie des réseaux sans fil, vient d’être distingué.Ruckus Wireless développe, fabrique et commercialise des produits  » Smart Wi-Fi « , réseaux sans fil intelligents – uniques, basés sur une technologie brevetée, qui sont distribués en France par Connect Data. Son point d’accès Wi-Fi ZoneFlex 7962 bi-bande 802.11n a été récompensé pour sa capacité à délivrer des connexions ultra rapides aussi bien que fiables. La borne ZoneFlex 7962 est la seule du marché bi-bande 802.11n à prendre en charge simultanément le multiplexage spatial, le maillage adaptatif et le rejet automatique des interférences via l’utilisation de la technologie Smart Wi-Fi avec beamforming dynamique. Le beamforming permet de concentrer, en temps réel, le signal Wi-Fi là où il est utile, c’est-à-dire vers les clients PC, pour réaliser enfin des réseaux Wi-Fi intelligents.A la différence des autres points d’accès 802.11n, la borne ZoneFlex 7962 permet aux entreprises de construire des réseaux sans fil très haut débit pour délivrer des services dont les performances et la fiabilité sont comparables à ceux des réseaux filaires, tout en y ajoutant la couche non négligeable de la mobilité pour un coût intéressant et avec une facilité de déploiement. Cet équipement est tout spécialement destiné aux hôtels, écoles et entreprises désirant fournir la voix sur IP de base, la vidéo haute définition et le transfert de données et ce, avec fiabilité et sur une infrastructure sans fil unique.

Le ZoneDirector peut être déployé n’importe où au sein d’un réseau IP de niveau 2 ou 3. Tous les points d’accès ZoneFlex découvrent automatiquement le ZoneDirector et sont automatiquement configurés par ce dernier © Ruckus Wireless
 » Au départ technologie d’appoint, le Wi-Fi est en train de devenir un service omniprésent indispensable et nous sommes fiers d’y contribuer « , indique David Callisch, Vice Président Marketing chez Ruckus Wireless. La plupart des vendeurs n’ont qu’un intérêt de pure forme pour le Wi-Fi. Ils ne font rien pour contrôler la façon dont les signaux sont propagés, contrôlés et gérés dans l’environnement où les choses changent pourtant constamment. Nous avons porté nos efforts sur ce point dès le premier jour. Ce qui était autrefois considéré comme un produit de luxe est en train d’évoluer, grâce à nous, vers un outil de développement global au sein de l’entreprise et des marchés des opérateurs et du haut débit « , conclut David Callisch.Par Marc Chabreuil

Comment établir une fiche d’exposition des salariés

Chaque mois, Techniques de l’Ingénieur s’associe aux Editions Tissot, spécialiste depuis 35 ans en droit du travail, pour faire le point sur une question particulière relative à la gestion des risques chimiques (voir l’encadré). Ce mois-ci, focus sur les fiches d’exposition des salariés. Quels éléments prendre en compte ? Quels principes et étapes respecter ? Le point.  Trois documents sont associés à la gestion du risque chimique pour permettre une traçabilité des expositions :

  • la liste des salariés exposés aux produits chimiques dangereux ;
  • la fiche d’exposition des salariés exposés aux produits chimiques dangereux ;
  • la fiche des salariés exposés en cas d’incident ou d’accident.

Comment les établir ?

Détails de la procédure

Etape 1 – Etablir la liste des salariés exposés aux produits chimiques

L’employeur doit établir et tenir actualisée une liste des salariés exposés aux produits chimiques dangereux :

  • très toxiques ;
  • toxiques ;
  • nocifs ;
  • corrosifs ;
  • irritants ;
  • sensibilisants ;
  • ainsi qu’aux produits cancérogènes, mutagènes et toxiques pour la reproduction (CMR).

Pour établir cette liste, il est nécessaire d’avoir au préalable établi un inventaire exhaustif des produits chimiques de l’entreprise et d’avoir identifié les caractéristiques de ces produits (toxiques, cancérogènes, etc.) sur la base des fiches de données de sécurité et des étiquettes.La liste des salariés exposés aux produits chimiques précisera, au minimum :

  • le nom des salariés ;
  • le poste de travail ;
  • la nature de l’exposition, sa durée, ainsi que son degré, tel qu’il est connu par les résultats des contrôles que vous auriez effectués (ex. : mesure d’air ambiant).

Etape 2 – Etablir la fiche d’exposition des salariés exposés aux produits chimiques

Pour chaque salarié qui figure dans la liste des salariés exposés, l’employeur doit établir une fiche d’exposition contenant les informations suivantes :

  • le poste de travail et ses caractéristiques (aménagement du poste, protection individuelle et collective, etc.) ;
  • la nature du travail effectué ;
  • les caractéristiques des produits utilisés ;
  • les périodes d’exposition (date d’affectation au poste, durée d’exposition, etc.) ;
  • les autres risques du poste de travail (risque chimique, physique, biologique) ;
  • les dates et les résultats des contrôles d’exposition (ex. : mesure d’air ambiant) ;
  • la durée et l’importance des expositions accidentelles.

Une fiche d’exposition est également établie pour les salariés exposés uniquement en cas d’incident ou d’accident.Il n’y a pas de périodicité de mise à jour des fiches d’exposition mais étant un outil de suivi des expositions, elles doivent être renseignées au fur et à mesure des expositions successives. Ce sont les caractéristiques de l’exposition qui sont importantes : pour un salarié qui utilise tous les jours le même produit pour la même activité et en même quantité, il sera établi une fiche d’exposition qui précise le début et la fin de l’exposition (date) et les caractéristiques de l’exposition. En cas de changement de produit utilisé, de durée d’utilisation du produit, de protection, etc., il sera nécessaire de mettre à jour la fiche d’exposition tout en conservant l’historique de l’exposition.Les fiches d’exposition doivent être tenues à la disposition du CHSCT.

Etape 3 – Etablir une attestation d’exposition

Lors de son départ de l’entreprise quel qu’en soit le motif (retraite, démission, etc.), un salarié peut demander une attestation d’exposition aux produits chimiques s’il a été exposé. Ce document lui est indispensable pour qu’il puisse bénéficier d’une surveillance médicale à la charge de la Caisse primaire d’assurance maladie (CPAM). Il peut également être utilisé comme élément d’un dossier de reconnaissance de maladie professionnelle. L’attestation d’exposition sera établie sur la base des informations contenues dans les fiches d’exposition. Elle est établie par l’employeur et le médecin du travail.

Notre conseil

Archivez les fiches d’exposition

Le médecin du travail constitue et tient un dossier médical contenant une copie de la fiche d’exposition aux produits chimiques dangereux. Ce dossier médical doit être conservé au moins cinquante ans après la fin de la période d’exposition. La durée d’archivage de vos fiches d’exposition peut donc être calée sur cette durée de conservation.Source : Schémas commentés santé sécurité au travail > Les fiches d’exposition des salariés

Ce sujet vous intéresse ?

– Lisez aussi notre dossier consacré au CHSCT : la réduction des accidents de travail et des maladies professionnelles ;
– Consultez notre article  » En cas de doute, le salarié peut-il formuler une demande de visite médicale ?  » [demande visite médicale] ;
– Découvrez notre programme formation sécurité et santé au travail.
– Participez à la conférence SGH et FDS étendue… Comment réussir la transition (29 mars 2010)

En partenariat avec les Editions TissotSpécialiste en droit du travail depuis 35 ans, les Editions Tissot vous proposent de découvrir leurs publications en santé sécurité au travail et les conventions collectives relatives à votre domaine d’activité. Découvrez également les programmes de formation santé sécurité au travail.

Exemple de fiche d’exposition

I. Identification

Identification de l’entreprise : ……
Identité salarié (nom, prénom, 5 premiers chiffres du n° de Sécurité sociale) : ……
Identification du médecin du travail et coordonnées du service médical : ……

II. Nature de l’exposition

– Nature de l’exposition chimique : …… (caractéristiques des produits)
– Description du ou des postes : ……
– Dates de début et de fin d’exposition : ……
– Nature des équipements de protection individuelle mis à disposition du salarié : ……
– Description des équipements de protection collective : ……
– Dates, lieux et résultats des contrôles d’exposition au poste de travail : ……
– Nom de l’organisme de contrôle : ……

III. Autres risques

Autres produits chimiques : produits de traitement, colles, produits de finition (présenter les fiches de données sécurité correspondant à ces produits).
Risques physiques : bruit, manutention manuelle de charges.

« Pour les opposants au débat, les nanotechnologies ne sont qu’un prétexte »

Le 23 février prochain, le débat public sur les nanotechnologies prendra fin. Mais pour éviter d’ultimes débordements, elle ne sera accessible que sur invitation. Pourquoi ce débat a-t-il généré autant d’opposition et de quelle nature est-elle ? Dominique Grand, adjoint au directeur du CEA de Grenoble, revient sur les enjeux de cette consultation.

Techniques de l’Ingénieur : Le débat sur les nanotechnologies a été émaillé par de nombreux incidents, pourquoi une telle opposition ?

Dominique Grand :  » L’opposition émane d’un groupe restreint mais très déterminé et irrespectueux des règles de base de notre société. Par Internet, il mobilise ses réseaux, quelques dizaines de personnes dans les différentes villes où se tiennent les débats. En réalité, ils s’opposent aux fondements de notre société – la libre expression de chacun et à la représentation des citoyens à travers les élections – et les nanotechnologies ne sont qu’un prétexte.

En quoi ce débat suscite une opposition différente de celle qu’ont suscitée les OGM ou le nucléaire ?

Les opposants sont en partie les mêmes mais les questions sont très différentes. Pour les nanotechnologies, l’opposition porte surtout sur des représentations de science fiction que malheureusement beaucoup de gens prennent au premier degré.

En quoi les nanotechnologies posent-elles de nouveaux problèmes ou des questions différentes ?

Il existe un questionnement légitime sur l’éventualité d’une toxicité de certaines nanoparticules que les scientifiques cherchent à mieux connaître. Les nanoparticules existant dans la nature en grande quantité, c’est l’introduction de nouvelles nanoparticules, intentionnellement fabriquées, qui pourrait présenter un risque pour les humains et l’environnement. Dans l’attente des résultats d’un travail d’évaluation toxicologique long et laborieux, on applique le principe de précaution dans la recherche, la fabrication et le cycle de vie.

Ne faudrait-il pas un comité d’éthique sur ces questions ?

Tout dépend des questions. Les nanotechnologies irriguent des technologies diverses (énergie, médecine, produits grand public) ; c’est donc au niveau des organismes de régulation en aval que des questions éthiques pourraient éventuellement se poser. Ainsi tout ce qui concerne les nano-biotechnologies s’appliquant à la santé humaine est règlementé par les comités d’éthique existants qui doivent maîtriser les connaissances nouvelles associées aux nanotechnologies pour les intégrer dans leurs cadres éthiques voire règlementaires.

Finalement, n’a-t-on pas organisé ce débat trop tôt ?

Il ne m’appartient pas de porter un jugement sur l’opportunité du débat. Pour nous, chercheurs, il était l’occasion de présenter nos recherches au public et nous regrettons qu’il ait été, en partie, pris en otage.

Qu’aurait-il fallu faire ?

Ce qu’a fait la CNDP – mettre en accès sur Internet des informations sur la diversité des nanosciences et nanotechnologies – est déjà un grand pas dans la bonne direction. Nos concitoyens peuvent s’y référer et se tenir informés des différentes opinions qui s’expriment sur ce thème.

D’autres pays ont-ils organisés ce même type de débat et là aussi, a-t-il aussi été très contesté ?

Il y a eu des réunions, des conférences de citoyens et des débats dans quelques pays d’Europe. Certains, comme les pays anglo-saxons par exemple, ont une ancienne culture du débat, qui leur permet de le mener d’une manière plus sereine et mieux argumentée ce qui permet une démarche plus constructive. En France, nous avons encore quelques leçons à apprendre sur ce sujet.

Si ce débat devait se solder par un échec, quelles seront les conséquences pour la recherche ?

Un débat ne se solde jamais par un échec car sa fonction est d’informer et de laisser les avis s’exprimer. Ce qui est toujours positif.  » Le parcours de Dominique Grand Ingénieur de l’Ecole des Mines de Nancy, Dominique Grand est également Docteur d’Etat en physique (Grenoble). Pendant 25 ans, il mène des travaux de recherche au sein du CEA dans le domaine de la thermo-hydraulique appliquée aux réacteurs nucléaires. D’abord chercheur, il devient ensuite responsable de laboratoire de modélisation et simulation numérique, avant de diriger le service de thermo-hydraulique en charge d’expérimentations et développement de logiciels. Depuis 2000, il travaille auprès de Jean Therme, directeur de la Recherche technologique du CEA et du CEA Grenoble en tant qu’adjoint pour le développement régional (relations avec les partenaires d’enseignement supérieur et de recherche et les collectivités territoriales de Rhône-Alpes) et depuis 2007 sur la mission de dialogue science-société au sein du projet Giant. Parallèlement, il est Professeur Associé à l’IEP de Grenoble. En savoir plus Les deux dernières réunions du débat public qui devaient se dérouler les 9 et 16 février respectivement à Montpellier et Nantes ont été annulées. Elles ont été remplacées par deux ateliers-débats auxquels seront conviés tous ceux impliqués dans cette consultation ainsi que les intervenants prévus à Nantes et Montpellier. Le thème de ces derniers ateliers : l’éthique et la gouvernance, sujet qui sera également enrichi par les réponses des internautes à un questionnaire en ligne. Le public pourra suivre en direct et de manière interactive, les échanges par vidéo transmission sur le site du débat public à partir de 20 heures. La réunion de clôture aura lieu le 23 février sur invitation. Elle sera également retransmise en direct sur Internet. C’est lors de cette réunion que seront présentés et soumis à discussion les points forts qui pourraient être retenus dans le compte rendu du CPDP. Propos recueillis par Anne-Laure Béranger

Des diodes LED révolutionnaires issues de la recherche spatiale

Une jeune société girondine, Luxener, commercialise un système d’éclairage par diodes LED mis au point par des ingénieurs électroniciens, spécialistes de l’électronique spatiale embarquée. Elle offre la réponse la plus avancée en matière d’économie et d’écologie pour l’éclairage public, industriel et commercial.Protégée par plusieurs brevets, une LED Luxener ressemble à un simple circuit imprimé. Lorsque le courant passe, il produit une lumière instantanée agréable, d’une grande intensité, une lumière, froide ou chaude selon la demande du client et sans rayonnement UV. » Au cours de ma formation au Laboratoire de micro électronique de Bordeaux I, j’ai appris que, pour diminuer l’immunité aux chocs, au lieu d’utiliser des composants discrets pré câblés dans des boîtiers avec un câblage ‘ large ‘, métrique ou millimétrique, il faut diminuer la taille, adopter un câblage micrométrique, voire nanométrique. Nous avons donc diminué la taille jusqu’à atteindre celle du ‘ chip ‘, principe qui miniaturise tout ce qui peut l’être, pour éviter les pannes essentiellement dues aux chocs mécaniques et aux vibrations. Nous sommes également en train de développer avec l’aide d’ingénieurs, de nouvelles technologies destinées à améliorer le vieillissement de ces produits et leur conférer une longévité supérieure. A ce stade de notre expérimentation je ne peux en dire davantage « , précise Hervé Finan, gérant de Luxener. 

Pour éviter les pannes dues aux chocs et aux vibrations, Luxener a joué la carte de la miniaturisation des composants et du câblage ©Luxener
Conjuguant économies d’énergie et performances, les éclairages Luxener allient :
  • une faible consommation : à lumière égale, ces LED économisent de 50 à 92 % d’électricité, selon le cas, par rapport à une lampe classique ;
  • une grande durée de vie : plus de 50.000 h, ce qui équivaut à 10 ans pour un éclairage journalier de 10 h ;
  • une protection de l’environnement et de l’homme : la lumière des LED Luxener n’engendre aucun dégagement de chaleur et ne présente ainsi ni risques de brûlures, ni risques d’incendie. Leur lumière ne produit pas d’UV, néfastes pour la peau et les yeux. L’absence de mercure dans leur fabrication supprime les éventuelles vapeurs toxiques. Enfin, leur système d’allumage ne génère pas de rayonnements électromagnétiques, contrairement aux lampes fluo-compactes ;
  • des performances économiques : l’équipement d’un éclairage à LED Luxener s’amortit selon la société en moins de 2 ans, générant 56 % d’économie sur 3 ans.
 » Depuis déjà 3 ans, contrairement à tous les LED qui sont actuellement sur le marché, nous sommes à 100 lm/W en sortie de la diode (très exactement 96,66 certifié par le CSTB), et bientôt nous atteindrons plus de 120 lm/W au niveau de la source lumineuse.., voire 130 d’ici 3 mois ! A titre de comparaison l’éclairage à l’incandescence sort, au mieux, à 11 lm/W et le fluo compact entre 50 et 70. Nous sommes donc largement au dessus, avec une consommation moindre et sans pollution puisque la lumière est vraiment électronique, sans gaz, sans mercure, sans rayonnement nocif, sans UV… la sécurité est donc accrue grâce à la lumière froide en sortie « , affirme Hervé Finan. Il précise toutefois :  » la seule réserve que nous faisons actuellement concerne la taille de certaines lampes pas encore assez miniaturisées pour un usage domestique. Mais d’ajouter : les tailles vont être réduites dans un futur très proche car… la recherche avance très vite. « Par Marc Chabreuil     

Un traitement de surface issu des nanotechnologies

Créée en 2005, membre du pôle de compétitivité Mov’eo, Quertech Ingenierie, une entreprise de 17 personnes qui compte parmi ses clients Valeo, Renault, PSA, Hutchinson… a mis au point le procédé Hardion+, une nanotechnologie de surface pour une amélioration exponentielle des propriétés. Ce traitement de surface à destination des métaux, céramiques et polymères issu de la physique des particules apporte notamment des gains en dureté, améliore le frottement et offre aux matériaux une forte tenue à la corrosion.Cette innovation est issue des travaux de Quertech Ingénierie sur la modification de la matière grâce à l’implantation d’ions issus d’un faisceau produit par un accélérateur de particules, pour lui donner des nouvelles caractéristiques. Dans un contexte de raréfaction et de surenchérissement des matières premières, ce procédé permet de réduire la quantité d’alliages coûteux utilisée pour la fabrication de certaines pièces. Sans effet polluant, ce traitement garantit un mode de production respectueux de l’environnement.Hardion+ est un procédé  » à froid  » de traitement de surface des alliages métalliques, ou des polymères, par implantation d’ions gazeux multichargés, multi-énergies. Il apporte une dureté superficielle jusqu’à une profondeur de 10 µm, une amélioration du frottement, une meilleure tenue à l’usure comme à la corrosion, la durée de vie du matériau pouvant atteindre un facteur 100 :

  • dureté : jusqu’à 800 % d’augmentation selon le matériau ;
  • élasticité : forte augmentation du module d’élasticité ;
  • rigidité : augmentation sensible ;
  • corrosion : résistance très fortement accrue ;
  • frottement : diminution du coefficient de frottement (0.14 – 0.17).

Quertech Ingénierie met en oeuvre des accélérateurs de particules qui génèrent un faisceau d’ions à même de pénétrer la matière. Le choix des ions implantés permet d’obtenir la formation en surface d’un ré-alliage, d’une amorphisation, d’une nano-restructuration ou d’une réticulation dans le cas des polymères.Hardion+ s’applique à différents matériaux utilisés, notamment dans le domaine du transport pour en améliorer la performance : pièces des industries de l’automobile (motorisation), de la plasturgie (moules), de l’outillage de production (forêts, outils de coupe ou d’emboutissage), de l’horlogerie, de la prothèse, de la connectique… Avec ce procédé, l’aluminium acquiert la dureté de l’acier, le cuivre de la connectique résiste à la corrosion, les élastomères des essuies glaces améliorent leurs propriétés d’essuyage…Les principaux avantages d’Hardion+ sont :

  • l’utilisation de différents gaz avec un impact différent sur la surface du matériau traité ;
  • la flexibilité et la performance grâce à des équipements légers ;
  • le faible coût du procédé ;
  • l’absence de modification des côtes de la pièce.

La réduction des coûts de production associée à l’amélioration de la performance constitue pour les industriels un élément décisif pour maintenir leur production en France. Ainsi, Quertech Ingénierie est aujourd’hui présent sur plusieurs plans de relances et sur des projets collaboratifs, parmi lesquels le projet Ribeg porté par Valeo, pour la production de balais d’essuie-glaces plus performants (essuyage, durabilité, bruit).Par Marc Chabreuil

Comment le LHC gère sa ventilation et son refroidissement

Le LHC (Large Hadron Collider), ou grand collisionneur de hadrons, est le plus puissant accélérateur de particules jamais construit à ce jour. Pour réaliser des expériences, il nécessite pas moins de 9.300 aimants refroidis à -271,3°C (1,9K) grâce à 10.080 t d’azote liquide et à 130 t d’hélium liquide, via un gigantesque système de distribution cryogénique. Une telle installation nécessite également un système de ventilation qui garantit une atmosphère adaptée à la fois aux personnes y travaillant et aux équipements installés dans les zones d’expérience. La ventilation du LHC assure également des fonctions d’extraction de fumée froide et de pressurisation des zones de survie souterraines. Pour la gestion des systèmes de ventilation et de refroidissement du LHC, le CERN avait besoin d’un progiciel de supervision adapté au dimensionnement d’une telle application, dans laquelle prennent place plus de 200 équipements automatisés. Par ailleurs, ce logiciel devait présenter un prix et surtout un coût total d’utilisation intéressant. La solution proposée devait enfin respecter les contraintes réseau, mais également les contraintes de disponibilité.  » Dans l’architecture retenue par le CERN, le nombre de clients connectables au système en simultané est proche de 30, ce qui implique qu’il doit fonctionner quasiment en temps réel. La contrainte de disponibilité est donc très forte. C’est pourquoi nous avons appliqué le principe de redondance « , explique Lionel Diers, chef de projet chez Assystem France, le prestataire en charge du projet.

Une infrastructure virtuelle
Le CERN a porté son choix sur le logiciel PcVue développé par la société ARC Informatique.  » Outre l’adéquation des performances et du prix de la solution PcVue avec notre cahier des charges, ce produit présente également l’avantage d’être bien connu des intégrateurs de systèmes qui en possèdent une bonne expertise pour sa mise en oeuvre « , assure Mario Batz, chef de projet dans le groupe de refroidissement et ventilation du département d’ingénierie du CERN. » Compte tenu du dimensionnement de l’application du LHC, la mise en place d’une infrastructure virtuelle s’est soldée par une limitation drastique du nombre de machines physiques utilisées avec à la clé une consommation énergétique réduite, une grande facilité d’utilisation et une adéquation avec l’architecture informatique du CERN « , précise Lionel Diers. La supervision de la ventilation de LHC (PcVue gère 80.000 variables dont 66.000 archivées, 1.200 synoptiques et 600 objets) n’a ainsi nécessité que deux machines physiques contenant chacune 12 Go de mémoire vive et 6 disques durs de 250 Go. Ces deux serveurs physiques redondés se répartissent les charges de supervision. Le premier assure les fonctions de serveur d’acquisition PcVue n°1, de serveur Web (utilisateurs via Internet) et de serveur de base de données (pour l’archivage de données), alors que le second remplit les fonctions de serveur d’acquisition PcVue n°2 et de Terminal Server.Les postes d’acquisitions sur sites, au nombre de 8 (1 par zone d’expériences), sont des postes serveurs à écran tactile destinés aux opérateurs de maintenance locaux. Les zones d´intervention étant séparées d’environ 2 km, ces postes sont indispensables et permettent par ailleurs de prendre la main sur les installations de ventilation au cas où l’un des deux serveurs centraux rencontrerait un problème.

Représentation par PcVue d’une zone d’expérience et de ses unités de ventilation. © ARC Informatique
Priorité à la notion d’arborescence
 » La particularité de PcVue par rapport à d’autres outils existant sur le marché est la notion d’arborescence. Il s’agit ici de faciliter l’instanciation d’objets, et donc de limiter le développement. Ainsi, pour plusieurs équipements de type ‘Moteur à vitesse variable’, par exemple, il suffit de créer un objet ‘Moteur à vitesse variable’ et de l’instancier autant de fois que cet équipement existe dans le process « , souligne Lionel Diers d’Assystem France.D’autres outils sont également particulièrement intéressants dans le logiciel PcVue tels que l’archivage HDS (Historical Data Server), qui gère l’interface entre le système de supervision et la base de données d’archives, ou la fonctionnalité ‘Terminal Server‘, qui permet, grâce à une fonctionnalité Windows, d’utiliser sur la même station plusieurs sessions PcVue. Dans un environnement tel que celui rencontré au LHC, cette fonctionnalité est très avantageuse en terme de souplesse d’utilisation et de déploiement, car le site est vaste et les ‘clients’ nombreux. Dans le but de faciliter le déploiement et de réduire les coûts d’exploitation des systèmes de supervision de process, PcVue supporte également l’environnement virtuel Vmware qui permet de faire fonctionner sur une seule machine plusieurs systèmes d’exploitation séparément les uns des autres comme s’ils fonctionnaient sur des machines physiques distinctes. Ce procédé de virtualisation remplace ainsi plusieurs machines réelles réparties sur le site à superviser, qui sont généralement sous utilisées et rapidement obsolètes, contre un seul PC qui simule autant de machines virtuelles que nécessaire en allouant à chacune d’elle une partie de ses ressources.Par Marc Chabreuil

Un logiciel gratuit pour modéliser la CEM des circuits électroniques

Dans le cadre de formations et de leurs activités de recherche centrées sur le thème de la compatibilité électromagnétique (CEM) des circuits intégrés, deux enseignants chercheurs de l’INSA de Toulouse, Alexandre Boyer et Etienne Sicard, ont développé un logiciel gratuit (baptisé IC-EMC), permettant de simuler, d’une part les perturbations électromagnétiques émises par les circuits électroniques et, d’autre part, leur susceptibilité aux perturbations émises par des circuits proches. Ce logiciel en ligne permet, en particulier, de modéliser la CEM des circuits en cours de développement, et de tester d’emblée des solutions de correction, ce qui réduit d’autant la phase de prototypage.Le package complet, incluant l’outil, les librairies et la documentation peut être téléchargé sur www.ic-emc.org, un site dédié à la compatibilité électromagnétique (CEM) des circuits intégrés. L’outil intègre un éditeur de schémas électriques, permettant de générer des fichiers de simulation compatible avec le simulateur WinSPICE (www.winspice.com). IC-EMC propose un ensemble d’outils facilitant la génération de modèles dédiés à la simulation de la CEM des circuits, le traitement des résultats de simulation et la validation des modèles par la comparaison avec des mesures. Il est adapté à la modélisation et à la prédiction de :

  • l’émission conduite et rayonnée des circuits intégrés ;
  • l’émission en champ proche des circuits intégrés ;
  • la susceptibilité conduite et rayonnée des circuits intégrés ;
  • la réponse des dispositifs passifs (simulation de paramètres S et Z).

IC-EMC permet à la fois de simuler les perturbations électromagnétiques émises par les circuits électroniques et leur susceptibilité aux perturbations émises par des circuits proches © INSA
IC-EMC inclut une librairie de dispositifs courants en CEM (modèles de composants passifs, coupleurs, atténuateurs, sondes de mesures, …), une liste d’exemples de modèles basés sur des cas réels, et des outils dédiés à l’extraction de modèles CEM tels que :– un éditeur de fichier IBIS ;– un viewer de données de scan champ proche au format XML ;– un générateur de modèles 3D de boîtiers et un extracteur de modèles électriques ;– un extracteur de modèles électriques d’interconnexions ;– un générateur de modèles d’émission de circuits basés sur le standard ICEM (IEC62433-2).
Par Marc Chabreuil

L’usine numérique et la simulation

Dassault Systèmes et Sogeti High Tech viennent de publier en commun un livre dont l’objectif est d’expliquer comment une entreprise peut augmenter ses bénéfices en utilisant des techniques de simulation et d’usine numérique. Les deux leaders détaillent cette révolution en cinq chapitres montrant comment un environnement industriel qui intègre informatique, fabrication numérique, simulation, robotique et production physique n’est pas un simple concept, mais une réalité permettant de réaliser des profits tangibles. » Ce livre parle des défis et des possibilités passionnantes qu’offrent l’usine numérique et la simulation pour aider les entreprises à être rentables en utilisant des méthodes qui relevaient du rêve il y encore quelques années. À court terme, l’expérience réaliste et l’usine numérique étendue seront au cœur-même des entreprises industrielles de pointe « , déclare Philippe Charlès, Directeur général DELMIA, Dassault Systèmes.L’usine numérique et la simulation sont les moteurs qui permettent de bénéficier de ces avantages. L’usine numérique offre en effet la possibilité de définir et de simuler avec exactitude la manière dont un produit sera fabriqué dans le cadre d’un environnement collaboratif mondial.La simulation joue un rôle clé dans de nombreuses activités, et son utilisation continue à se développer à un rythme élevé, en s’appuyant sur les mathématiques modernes, les technologies de l’information et les interfaces graphiques pour créer une expérience 100 % réaliste. À partir de la représentation 2D, la 3D et les maquettes numériques, nous entrons à présent dans l’ère de l’usine numérique. Elle s’appuie sur une suite intégrée d’outils conçus pour définir et simuler l’ensemble des activités et des ressources de fabrication dans le contexte d’un produit et d’un site de production. La simulation numérique moderne permet aux ingénieurs de valider et d’optimiser les processus de fabrication. » La réalité économique actuelle oblige les entreprises à étudier de près leurs stratégies et leurs pratiques en matière de fabrication. L’usine numérique et la simulation modernes présentent un fort potentiel d’amélioration, que ce soit sur le plan de l’efficacité ou de l’innovation. Pour atteindre ces objectifs, il est toutefois impératif de faire tomber des barrières. Ce livre (http://www.virtual-real.com) s’intéresse aux défis comme aux avantages de cette approche en jetant les bases de l’état de l’art d’un environnement de fabrication à la pointe « , indique Dominique Lafond, Directeur général, Sogeti High Tech.  

Les auteurs de « Virtual concept, real profit » Yves Coze, Vice-président, Ventes & Marketing Europe du Sud DELMIA chez Dassault Systèmes – Nicolas Kawski, Directeur technique au sein du département Simulation de Sogeti High Tech en France ; Torsten Kulka, responsable du développement commercial au sein du département PLM et Maquettes Numériques de Sogeti High Tech en Allemagne ;Philippe Sottocasa, à la tête du département Simulation de Sogeti High Tech en France ; Jaap Bloem, analyste senior VINT (Vision Inspiration Navigation Trends), l’institut de recherche de Sogeti.

 Par Marc Chabreuil