Un contrôle périodique renforcé pour les installations classées soumises à déclaration

Pour mémoire, l’article 210 de la loi n°2010-788 du 12 juillet 2010, dite loi Grenelle 2, a modifié l’article L 512-11 du code de l’environnement, en prévoyant qu’un décret précisera les conditions dans lesquelles les résultats des contrôles périodiques résultats sont soit tenus à la disposition de l’administration, soit, lorsque des non-conformités majeures sont détectées, transmis à l’administration. C’est dans ce cadre juridique qu’intervient le décret n°2011-1460 du 7 novembre 2011, qui modifie les articles R 512-56 et suivants du code de l’environnement.

Installations concernées 

Les installations classées soumises à l’obligation de contrôle périodique sont fixées par la nomenclature des installations classées pour l’environnement (cf. l’annexe de l’article R 511-9 du code de l’environnement). Sont concernées, par exemple, les installations dans lesquelles sont manipulés des produits très toxiques, contenant de l’ammoniac, du chlore, des poudres et explosifs, des gaz et liquides inflammables.

Toutefois, les installations classées ainsi désignées par la nomenclature ne sont pas soumises à l’obligation de contrôle périodique lorsqu’elles sont incluses dans un établissement qui comporte au moins une installation soumise au régime de l’autorisation ou de l’enregistrement.

Sont également dispensées les installations enregistrées selon le référentiel EMAS (système européen de management environnemental et d’audit, en application du règlement CE n° 1221/2009 du 25 novembre 2009 concernant la participation volontaire des organisations à un système communautaire de management environnemental et d’audit), sous réserve que la déclaration environnementale établie couvre la conformité des installations classées pour l’environnement à la réglementation applicable.

Un nouveau calendrier de mise en œuvre

Le calendrier, lié au premier contrôle périodique à réaliser, était jusqu’alors fixé par le décret n°2009-835 du 6 juillet 2009. Ce calendrier est modifié par le décret n°2011-1460 du 7 novembre 2011.

Les exploitants des installations mises en service avant le 1er janvier 1986 ont en principe procédé au premier contrôle avant le 30 juin 2010, et celles mises en service entre le 1er janvier 1986 et le 31 décembre 1991, avant le 30 juin 2011.

Restent les échéances suivantes :

  • Le 30 juin 2012, pour les installations mises en service entre le 1er janvier 1992 et le 31 décembre 1997 ;
  • Le 30 juin 2013, pour les installations mises en service entre le 1er janvier 1998 et le 31 décembre 2003 ;
  • Le 30 juin 2014, pour les installations mises en service entre le 1er janvier 2004 et le 30 juin 2009.

Cependant, le décret n°2011-1460 du 7 novembre précise que, pour les installations présentant des risques plus importants que prévus, l’arrêté ministériel de prescriptions générales peut fixer un calendrier plus resserré que celui précité.

Une fois le premier contrôle périodique réalisé, les contrôles suivants doivent être effectués tous les cinq ans, ou tous les dix ans si l’installation est certifiée ISO 14001 par un organisme de certification accrédité par le Comité français d’accréditation (COFRAC) ou par tout autre organisme d’accréditation signataire de l’accord de reconnaissance multilatéral établi par la coordination européenne des organismes d’accréditation (European Cooperation for Accreditation ou EA).

Si une installation autorisée ou enregistrée au préalable devient éligible au régime de la déclaration avec contrôle périodique (DC) en raison d’une modification de son activité ou de la nomenclature, elle bénéficie d’un délai de cinq ans pour réaliser un premier contrôle.

S’agissant d’une installation existante non classée ou à déclaration simple, qui vient à être soumise au régime DC pour les mêmes motifs, ce délai est porté à deux ans.

Signalement des non-conformités majeures à l’autorité administrative

Les arrêtés ministériels de prescriptions générales doivent fixer, pour chaque catégorie d’installations, les prescriptions dont le non-respect constitue « une non-conformité majeure entraînant l’information du préfet ». L’absence d’un système de traitement des rejets ou de détection incendie ou de cuvette de rétention est généralement jugée comme une non-conformité majeure.

Lorsque le rapport de visite de l’organisme agréé fait apparaître une ou plusieurs non-conformités majeures, l’exploitant doit adresser à cet organisme, dans un délai de trois mois, un échéancier des dispositions qu’il entend prendre pour y remédier.

Après avoir pris ces dispositions, et dans un délai maximal d’un an à compter de la réception du rapport de visite initial, l’exploitant doit solliciter un second contrôle auprès de l’organisme agréé. Ce dernier effectuera ce contrôle complémentaire dans un délai de deux mois après la demande de l’exploitant, et devra adresser un rapport complémentaire dans un délai d’un mois.

L’organisme agréé doit informer le préfet de département de l’existence de non-conformités majeures dans trois cas :

  • il n’a pas reçu l’échéancier de mise en conformité dans les délais ;
  • il n’a pas reçu de demande écrite de contrôle complémentaire dans les délais ;
  • le contrôle complémentaire fait apparaître que des non-conformités majeures persistent.

Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement

 

À lire aussi :

Le dispositif des certificats d’économies d’énergie (CEE) se renforce

ICPE : deux dispositions jugées contraires à la Constitution

 

 

Pour aller plus loin :

Téléchargez gratuitement la nomenclature ICPE ici

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

 

Qu’est-ce qu’un Cloud Management Center ?

L’éditeur devient aussi un prestataire de service. Il ne s’agit pas simplement d’héberger une solution logicielle sur le Cloud, mais aussi de garantir contractuellement au client que le service sera disponible souvent au minimum à 99,9 % du temps en 24/7 sous peine de pénalités. A ceci, s’ajoute des engagements draconiens de sécurité, de montée en charge, de maintenance (curative et préventive), d’évolutivité (souvent plusieurs mises à jour par an).

Pour réussir, l’éditeur de logiciels du 21ème siècle doit se doter d’une organisation, de processus, de compétences, d’outils particuliers, rassemblés dans un Cloud Management Center (CMC). Le CMC a pour principale vocation de garantir la fourniture du SaaS de manière industrielle en tenant compte des problématiques de volumétrie, de localisation et de sécurité. Il complète, ainsi, la notion historique de NOC (Network Operations Center) qui, lui, se limite à la gestion de l’infrastructure physique et des services associés.

En effet, plus les clients sont nombreux à utiliser l’application en mode SaaS plus la gestion pour l’éditeur devient compliquée. Afin de faciliter cette administration, de nombreux éditeurs SaaS ont choisi de mettre à disposition de leurs clients une unique plateforme mutualisée (multi-tenant) alors que d’autres proposent un environnement dédié où chaque client est en mesure de gérer à la demande ses montées de version par exemple (single tenant). Quel que soit l’organisation choisie, le CMC est garant de la qualité de service indépendamment du nombre de clients.

Mettre en place un CMC, c’est pouvoir tenir compte aisément de problématiques légales de ces clients au niveau mondial. De nombreux pays imposent à leurs entreprises une réglementation sur la localisation de leurs données. C’est pourquoi, le CMC doit répondre avec agilité et souplesse à l’ouverture de nouveaux services quel que soit la localisation de son nouveau client et ce, dans un délai qui se situe 1 et 5 jours.

Mettre en place un CMC, c’est aussi se doter d’un outil qui permet à l’éditeur SaaS de justifier la qualité du service rendu à ses clients mais également tenir ses engagements contractuels. Cependant, Il est intéressant de noter que le CMC a également un rôle de conseil auprès de ses clients car pour la plupart, ils mettent en place pour la première fois un service SaaS.

Qu’est qu’un CMC ?

Le CMC ou encore « Cloud Management Center » est un service chargé de :

  • L’administration du réseau et de l’infrastructure d’hébergement,
  • De la mise en œuvre des nouveaux services SAAS (Software As a Service),
  • Garantir la fourniture de services imposés par les contraintes normatives (ISO 27 001 / 27002) et celles plus spécifiques des clients.

Sa raison d’être est de s’assurer de la disponibilité du service, de vérifier et contrôler que les services sont rendus conformément aux engagements pris par le fournisseur de services. Un CMC est d’abord un lieu sécurisé, mais aussi : des hommes, des outils et des procédures. Ces quatre éléments sont indissociables. Afin d’être le plus performant possible, le CMC doit être géré comme un service industriel.

Les engagements du CMC et ses composantes

Mettre à disposition une application en mode SaaS c’est prendre l’engagement de délivrer à son client un service de A à Z tant en termes d’hébergement de la solution, de disponibilité, de qualité, de sécurité, de provisionning maintenance. Afin de répondre à ces engagements, la mise en place d’une infrastructure technique et d’une équipe dédiée permet de s’assurer que le service est rendu et est disponible 24h/24 et 7j/7.
Si l’on devrait décrire un CMC en quatre mots, ils seraient les suivants :
 

  • Les Hommes

Le CMC rassemble plus de 50 pôles d’expertise allant des serveurs physiques, du réseau, des baies de stockages, de la virtualisation à la sécurité en passant par la messagerie , le DNS et l’application mais exige également de la rigueur et une excellente capacité de communication. Les techniciens du CMC doivent avoir une parfaite connaissance de l’environnement c’est-à-dire de l’architecture technique mise en place, mais également des procédures du CMC qui découlent des bonnes pratiques ITIL et de la norme ISO. Cette équipe est d’ailleurs spécialiste de l’installation de solutions en mode SaaS et à l’obligation de suivre une formation continue qui leur permettra d’être efficace et conserver de hauts niveaux de qualité de services auprès de leurs clients.

  • Confidentialité et intégrité du système d’information

La sécurité est une préoccupation permanente pour Le CMC. Dans les faits, elle se traduit par la mise en place d’un local entièrement sécurisé et autonome en tous points (exemple : son propre réseau etc…) pour pouvoir réagir, en cas d’anomalie, immédiatement. En plus de cette sécurité physique, s’ajoute la nécessité de garantir la confidentialité et l’intégrité du Système d’information tant en termes de procédures que d’accès à l’information. La mission du CMC s’étend alors, au-delà de son périmètre et s’intègre dans les phases de conception de la solution SaaS afin d’assurer une parfaite cohérence entre sécurité, fonctionnalités et performance.

  • Des outils

Savoir si le service est rendu et bien rendu au quotidien nécessite la mise en place d’outils permettant de réaliser souvent plusieurs millions de tests automatisés par jour sur toutes les plateformes et composants du CMC.
Le suivi est réalisé par des outils dédiés de monitoring dont le rôle est à la fois d’alerter immédiatement en cas d’anomalies mais également de construire des indicateurs qui permettent de produire des rapports afin de détecter les tendances invisibles en temps réel comme par exemple :

  • la disponibilité des services,
  • la performance moyenne d’ouverture des pages web,
  • l’accès aux ressources publiées par le client comme les serveurs LDAP ou de fourniture d’identité (SSO).
  • Des procédures

Un CMC gère de quelques centaines à plusieurs milliers de machines virtuelles pour ses clients ce qui nécessite une organisation sans failles. Cette problématique de volumétrie implique donc la mise en place de procédures industrielles écrites, de préférence basées sur les bonnes pratiques ISO et ITIL, qui décrivent tous les incidents qui pourraient survenir et la manière de les résoudre. L’improvisation est interdite car elle peut remettre en cause les engagements de l’éditeur SaaS. Néanmoins, le CMC est dans une démarche d’amélioration continue et une revue régulière des processus accompagnée d’audits est indispensable pour la pérennité de la qualité de service.

 

A lire égaelment :

 

Après les gratte-ciels, le futur avènement des « gratte-sols » ?

Il pourrait bien être temps de dire adieu aux traditionnels gratte-ciels, et de saluer l’arrivée future des « gratte-sols ». Plutôt que de se demander « jusqu’à quelle hauteur pouvons-nous aller ? », BNKR Arquitectura, un cabinet d’architecte mexicain, a décidé de prendre la tendance à contre-pied en posant la question suivante : « jusqu’à quelle profondeur pouvons-nous descendre ? ». Fort de ce précepte, le cabinet mexicain a présenté son projet de « Earthscraper » (« gratte-sol », par opposition au « skyscraper », le « gratte-ciel ») pour la ville de Mexico, en plein cœur de la mégalopole.

Dissimulant 35 étages sous la ville, le « gratte-sol » défie tous les tenants de l’architecture actuelle et l’obsession du « toujours plus haut ». Épousant la forme d’une pyramide inversée, le Earthscraper pourrait accueillir une mini-cité de près de 775 000 mètres carré, tout en préservant la place piétonne déjà présente en surface, qui se verrait toutefois réaménagée avec une base translucide, laissant la « skyline » de la ville inchangée.

Cet hommage à peine dissimulé aux pyramides aztèques serait organisé de manière stratifiée autour d’un immense puits de lumières laissant filtrer la lumière du jour, traversé par de nombreux ponts. Un musée dédié aux Mayas et aux Aztèques y aurait déjà sa place dans les dix niveaux les plus proches de la surface, les niveaux inférieurs abritant bureaux, commerces et habitations, et ce jusqu’à près de 300 mètres sous terre, profondeur retenue pour le projet. Reste à savoir comment le risque sismique, très élevé à Mexico, interviendra dans le développement du projet.

Par Rahman Moonzur

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Étude des dangers : identifier les risques d’origine interne

Un glacier artificiel géant en Mongolie pour rafraîchir la capitale

C’est ce mois-ci que la Mongolie est sur le point de se lancer dans une aventure à la fois ambitieuse et surprenante, mettant la géo-ingénierie à l’honneur : la capitale mongole, Oulan-Bator, devrait se doter d’un glacier artificiel géant, dont la formation pourrait permettre de rafraîchir la ville durant les mois d’été. Oulan-Bator, ville très polluée de plus d’un million d’habitants, voudrait profiter de sa position de capitale la plus froide du monde (des températures moyennes de – 10° Celsius à – 24,6°C du mois de novembre au mois de mars) pour « stocker » du froid pendant le long et rude hiver, et le redistribuer durant les mois d’été.

Comme le rapporte le quotidien anglais The Guardian, les scientifiques, qui sont derrière cet ambitieux projet à 1 milliard de tugriks (plus de 500 000 euros), font le pari que ce glacier émettra suffisamment d’air frais pour être pompé dans toute la capitale pendant l’été, tout en fournissant de précieuses ressources en eau potable et pour l’irrigation, tandis que la glace fondra progressivement avec la hausse des températures (plus de 21°C de juin à août).

La société d’ingénierie mongole ECOS & EMI entamera la « construction » du glacier en formant des couches de glace d’un mètre d’épaisseur en hiver, à partir du gel progressif du suintement de l’eau douce de la rivière Tuul, qui arrose Oulan-Bator. Couche après couche, la méthode sera répétée durant les mois suivants, produisant finalement un glacier à part entière.

Ces couches, appelées « naleds », ont déjà servi à de nombreuses reprises dans des projets de construction, notamment de routes et de ponts en Corée du Nord, ou par l’armée américaine dans l’Arctique. Si l’expérience est couronnée de succès, des projets similaires pourraient bien voir le jour dans d’autres villes partageant de rudes hivers, alternatives bon marché et écologiquement intéressantes.

Par Rahman Moonzur

 

À lire aussi :

Quel rôle la géo-ingénierie doit-elle jouer dans la lutte contre le changement climatique ?

« Géo-ingénierie du climat : science, gouvernance et incertitude »

Le matériau le plus léger au monde

Une collaboration entre les chercheurs des laboratoires HRL, de CalTech et de l’Université de Californie, à Irvine, a permis de réaliser le matériau le plus léger au monde. Tellement léger qu’il détrônerait même les plus légers aérogels, matériaux semblables à un gel où le gaz remplace le composant liquide, et remarquables pour leur capacité isolante.

Ce matériau miracle est une structure de micro-treillage, dont seulement 0,01 % est à proprement parler solide, se composant de tubes creux d’une centaine de nanomètres d’épaisseur. Il possèderait une densité de 0,9 milligrammes par centimètre cube (mg/cc), le plaçant devant l’aérogel le plus léger, atteignant 1,1 mg/cc. Et il n’a pas que sa légèreté pour lui : il est également extraordinairement solide et amortit les chocs à la perfection, notamment grâce à tout l’air dont il est composé : il peut se compresser à un taux de 50 %, et retrouver complètement sa forme initiale, ce qui est très inhabituel pour un matériau qui est en partie métallique.

L’équipe de chercheurs explique que ce matériau innovant est « d’inspiration architecturale », regardant du côté du Golden Gate Bridge de San-Francisco ou de la Tour Eiffel, structures extrêmement légères pour leur taille. Le projet a été réalisé, sans surprise, sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Les utilisations de ce matériau pourraient être très nombreuses, dans le même champ d’action que l’aérogel, allant de la composition des électrodes de batteries à celui d’amortisseurs énergétiques en tous genres, en passant par l’isolation.

Par Rahman Moonzur

 

À lire aussi :

Les isolants de demain

Toujours plus de propriétés pour le graphène

L’isolation : trouver les réponses dans l’innovation

De nouveaux outils pour lutter contre les contaminations virales de l’eau potable

Pour rendre l’eau potable en assurant une très bonne qualité sanitaire, les professionnels du traitement de l’eau recourent de plus en plus à une filtration par des membranes, barrières physique qui permettent de retenir les bactéries et virus et de limiter l’utilisation du chlore. Mais une surveillance rapprochée est indispensable, car, dans des cas limites, des virus peuvent parvenir à franchir ces barrières. En cas d’irruption massive de virus lors d’une épidémie de gastroentérites par exemple, lorsque les installations de traitement de l’eau sont vieillissantes ou que la pression varie de manière trop brutale, il peut arriver que des virus passent dans l’eau potable. Pour limiter au maximum ce type d’incidents, les professionnels testent régulièrement l’efficacité de leurs filtres, afin de prendre des mesures correctrices. Mais jusqu’à présent, les tests existants ne pouvaient être effectués qu’en dehors des systèmes en activité, dans des contextes très simplifiés.

Pour aider les industriels à prévenir les problèmes et à les repérer plus vite lorsqu’ils se produisent, Corinne Cabassud, chercheur à l’INSA de Toulouse, et son équipe du Laboratoire d’ingénierie des systèmes biologiques et des procédés (INSA de Toulouse/INRA/CNRS), ont mis au point de nouveaux outils. « Nous avons manipulé des virus désactivés, donc inoffensifs, pour les rendre très réactifs à certains composés chimiques que nous savons mesurer très rapidement. Comme nous sommes certains qu’ils ne présentent pas de danger, nous pouvons les injecter directement dans l’eau et repérer ensuite s’ils traversent ou non les membranes », explique Corinne Cabassud.

Son équipe utilise actuellement ces tests à l’échelle du laboratoire et des applications semi-industrielles pour essayer de mieux comprendre dans quelles conditions les virus sont susceptibles de traverser les membranes. Des expériences très utiles pour les industriels qui doivent choisir les membranes et les conditions de traitement d’eau les plus fiables pour leurs installations. Grâce à ces tests, ils pourront également, à terme, détecter un problème en l’espace de quelques minutes et comprendre son origine, ce qui leur permettra de réagir rapidement et de manière plus adaptée.

Par Marc Chabreuil

Un radar pour analyser le nuage de pollution au-dessus d’une ville

;Sur quelle technologie le radar à pollution s’appuie-t-il ?

CityScan utilise des spectromètres à imagerie novateurs et des détecteurs photosensibles rapides à transfert de charges (CDD) pour analyser la lumière du soleil avec un niveau de détails sans précédent. Le logiciel transformant en 3D les informations du spectre en concentrations de gaz possède un certain nombre de composants avec des algorithmes complexes développés à l’Université de Leicester. Ceux-ci distribuent correctement les concentrations en gaz en des endroits donnés. Le spectromètre à imagerie conçu par Surrey Satellite Technologies Ltd (branche innovante de l’Université du Surrey, spécialisée dans la conception et la fabrication de petits satellites), à la conception concentrique novatrice, était originellement destiné à l’industrie spatiale. Il est aujourd’hui intégré dans ce système opérationnel de surveillance de la qualité de l’air. Les systèmes de capteurs à haute vitesse utilisés dans cet instrument sont le fruit de dix années de recherche à l’Université de Leicester dans le domaine des capteurs électroniques au sol et dans l’espace.

Quels sont les avantages de CityScan sur les instruments de mesure de la qualité de l’air actuellement disponibles ?

Ces derniers mesurent la concentration en gaz tels que le NO2 en un point donné, généralement en aspirant de l’air dans un instrument. De telles techniques fournissent des informations précises en un point donné mais ne permettent pas d’obtenir une vision d’ensemble précise des concentrations variables en zones urbaines. On utilise généralement des modèles pour combler les trous entre les différents points de mesure dans la ville. CityScan sonde l’atmosphère au-dessus d’une localité et prend des mesures en chaque point, ce qui donne une mesure instantanée des concentrations de gaz comme le dioxyde d’azote. Ces relevés vont nous permettre de mesurer directement les émissions au-dessus de zones données, de suivre leur parcours à travers la ville et dans une certaine mesure, de suivre la trace des changements chimiques induits dans l’air.

Deux nouveaux instruments pour créer une carte en 3D des gaz atmosphériques sont actuellement développés à l’Université de Leicester. Dans quelle mesure ces nouveaux outils peuvent-ils contribuer à une politique de santé publique dans les villes ?

Ces deux instruments fourniront des informations sur les émissions, le trajet et la chimie des gaz qui affectent la qualité de l’air dans un environnement urbain. Pour les politiques, des cartes précises des émissions dans une ville sont un outil décisif primordial, de concert avec une compréhension de la façon dont ces gaz se comportent, poussés par les vents, d’un point de vue à la fois chimique et dynamique. Les mesures fournies par CityScan peuvent apporter de nombreuses informations supplémentaires pour aider les politiques à identifier et à classer par priorité les sources d’émissions pouvant avoir un impact sur la qualité de l’air et la santé des résidents en certains points de la ville. De telles informations sont capitales lorsqu’il s’agit de mettre en balance les bénéfices sociétaux de certains projets et les maux potentiels engendrés par la pollution produite.

En savoir plus

Roland Leigh est chercheur au sein du « Earth Observation Science Group » de l’Université de Leicester qui, avec Surrey Satellite Technology Ltd et EADS Astrium, est à l’origine de ScityScan.

 

Lutte contre la pollution atmosphérique et les émissions de gaz à effet de serre

Constatée globalement à la fin du siècle dernier, la pollution de l’air est un phénomène ancien, en grande partie d’origine naturelle (éruptions volcaniques, érosion…). L’activité moderne de l’homme a cependant introduit dans l’atmosphère des substances aux conséquences préjudiciables pour la santé et pour l’environnement. Ces substances sont émises par différentes sources, fixes ou mobiles (industries, transports, etc.). Les polluants émis sont ensuite dispersés par le vent, dilués par la pluie, ou restent bloqués lorsque l’atmosphère est stable.

Cette forme de pollution s’est accrue depuis le milieu du XXe siècle, et les autorités publiques, internationales puis nationales, se sont penchées sur la question de l’air à partir du constat de « pollution » de celui-ci. Les premières réglementations internationales visant à réduire ce phénomène transfrontière ont été adoptées à la fin des années 70. Plus récemment, un autre phénomène a été constaté, celui de l’incidence des émissions de gaz à effet de serre sur le climat. Fruit d’un accord international inédit, un dispositif réglementaire spécifique a été adopté dans les années 90 visant à réduire les émissions de ces gaz et limiter leur fort impact environnemental.

Cet article présente le cadre réglementaire international et communautaire mis en place pour lutter contre la pollution atmosphérique et les émissions de gaz à effet de serre.

Lire la suite

Lutte contre la pollution des eaux – Valorisation énergétique des boues

Les boues de stations d’épuration sont des résidus de l’assainissement des eaux usées d’origine industrielle ou domestique. L’élimination des boues par épandage agricole est la principale voie de valorisation en France.

Lorsque leur recyclage s’avère impossible en agriculture, les boues constituent un déchet humide difficile à brûler et à valoriser par voie thermique. La valorisation énergétique regroupe différentes technologies permettant de convertir la fraction organique des boues en énergie. La valorisation énergétique peut être une voie d’élimination complémentaire ou alternative à la valorisation matière en agriculture.

Les technologies de valorisation énergétique des boues de station d’épuration permettent de tirer profit de la nécessité d’éliminer et de détruire les boues. La valorisation des boues, sur le site de la station d’épuration, permet d’améliorer le bilan environnemental en diminuant le transport des boues et en produisant une énergie (chaleur, électricité) directement consommée sur la station.

Ces technologies sont pour certaines relativement nouvelles et ne bénéficient encore que de retour d’expérience ponctuel. Il s’agit cependant d’alternatives sérieuses à l’incinération classique présentée bien souvent comme la seule voie thermique possible.

Les premiers critères de choix sont le gisement de boues (quantité) et l’impossibilité technique d’une valorisation agricole des boues (qualité). Pour envisager une valorisation énergétique, le gisement de boues doit être significatif, au minimum pour les stations d’épuration de plus de 50 000 équivalents habitants soit environ 750 tonnes de matière sèche.

 

Lire la suite

La photocatalyse : dépollution de l’eau ou de l’air et matériaux autonettoyants

La photocatalyse est une technologie d’oxydation avancée émergente qui trouve de nombreux domaines d’application, en particulier au Japon. La plupart d’entre eux utilisent des matériaux à base de dioxyde de titane (TiO2). Dans le présent article nous ne présentons que les applications environnementales de ces matériaux pour la purification de l’air ou de l’eau ou pour les applications autonettoyantes. Les applications dans le domaine de l’énergie par des systèmes capables de stocker l’énergie solaire, telles que les cellules solaires (cellules photovoltaiques sensibilisées par des colorants pour la production d’électricité ou DSSC [D 3935] [BE 8579] [BE 8578]) et la production d’hydrogène par scission photocatalytique de l’eau (fuel cells [BE 8565]), ne seront pas abordées, de même que les propriétés photo- ou électrochromes ou de capteurs [P 4031] [R 2385].

Le principe de la photocatalyse repose sur l’activation d’un semi-conducteur par la lumière, et les données énergétiques et thermodynamiques qui régissent les réactions d’oxydo-réduction photo-induites sont précisées. Les propriétés de différents semi-conducteurs susceptibles d’induire des réactions photocatalytiques sont évoquées, avant de décrire de façon plus approfondie celles du dioxyde de titane. Les applications pour le traitement de l’eau, bien que moins développées que pour le traitement de l’air, couvrent les polluants inorganiques et organiques. La désinfection (de l’eau ou de l’air) par photocatalyse (élimination de micro-organismes tels que bactéries, virus, champignons) est un domaine très exploré dans de nombreux laboratoires de recherche, même si la compréhension des mécanismes d’action contre les micro-organismes doit encore être approfondie. Les principales applications pour le traitement de l’air concernent l’élimination des oxydes d’azote NOx en extérieur par des matériaux photocatalytiques de type béton, ciments, céramiques et peintures, et le traitement des COV pour l’air intérieur avec des dispositifs actifs (ventilateurs photocatalytiques, traitement de l’air conditionné) ou passifs (revêtements, peintures, carrelages… photocatalytiques). Enfin, l’origine des propriétés autonettoyantes de surface recouvertes de dioxyde de titane est rappelée, et les différents domaines d’application de ces matériaux résumés.

Lire la suite

Suie et lumière solaire : un duo nocif pour l’atmosphère

La suie est un ensemble de composés chimiques issus de la combustion incomplète de combustibles fossiles (essence, gazole, fioul, kérosène) ou de biomasse (bois, végétaux). Elle est également associée à la pollution issue des milieux urbains. Lorsqu’elle est produite, les particules solides de la suie se nichent dans l’atmosphère où elles demeurent en suspension (aérosols).

Depuis 20 ans, la communauté scientifique s’accordait sur le faible impact de la suie dans l’atmosphère. Associée à la pollution urbaine, ce polluant est en effet très vite inhibé par le milieu oxydant de l’atmosphère, limitant son impact. Pourtant, selon une équipe internationale de chercheurs, pilotée par l’Institut de recherches sur la Catalyse et l’Environnement de Lyon (CNRS / Université de Lyon 1), la réactivité des particules de suie change et surtout s’accroît de manière très marquée sous l’action directe de la lumière solaire. A tel point que des réactions jusque là jugées sans intérêt se produisent de façon très efficace.

Par exemple, sous irradiation solaire, le dioxyde d’azote, un des polluants à l’origine de la production photochimique d’ozone, réagit avec la suie sur des temps très longs et produit efficacement de l’acide nitreux (HNO2). Ce dernier est en zone urbaine le précurseur principal d’un radical hydroxyle (OH), surnommé le détergent atmosphérique car il est à l’origine de la dégradation de presque tous les polluants. Néanmoins, les sous-produits de cette réaction (oxydes d’azote) demeurent des précurseurs d’ozone. Par contraste, cette chimie est inhibée dans l’obscurité au bout de quelques dizaines de minutes.

L’impact de cette photochimie des suies ne s’arrête pas là. En effet, la lumière induit également la formation de composés, appelés nitro-HAP (Hydrocarbures Aromatiques Polycycliques), connus pour être extrêmement toxiques pour la santé. Ces composés vont emprisonner les oxydes d’azote à la surface de la suie. Ces  » pièges  » à oxydes d’azote vont ainsi subsister toute la nuit et pourront voyager sur de longues distances par le jeu des déplacements de masses d’air, et libéreront leur emprise sous l’effet de la lumière du jour. Ces oxydes d’azote produiront ainsi de l’ozone dans des zones initialement non polluées.

Un des exemples importants de l’impact d’aérosols venant de l’activité humaine est le Nuage Brun Asiatique (de l’anglais « Asian Brown Cloud« ) qui trouve ses origines dans les émissions en Chine et en Inde. Ce nuage, principalement constitué de suie, est une immense masse d’aérosols qui plane sur l’Océan Indien et qui a des effets potentiels de grande envergure sur toute la population vivant autour de cet océan (soit plus de 1 milliard d’habitants) dans de nombreux champs : visibilité, climat, santé publique, agriculture…

« Il faut s’attendre à des seuils de rejets COV encore plus faibles »

En 2010, la France doit atteindre un niveau de 1.050 Kt de rejets de composés organiques volatils. Et ce seuil devrait encore baisser dans l’avenir. Tous les émetteurs doivent donc se mobiliser. Mais comment se mettre en conformité et parvenir à réduire ses émissions ? Le point avec Christine Delahaye, ingénieur chimiste, qui reviendra sur toutes ces questions dans le cadre de la formation intitulée « COV – Etablir son diagnostic et réduire ses émissions » organisée par les techniques de l’ingénieur le 28 janvier 2010.

ETI : Quelles sont les principales obligations de la France et des entreprises françaises en matière de COV aujourd’hui ?

Christine Delahaye : La France, à travers le protocole de Göteborg signé en 1999, s’est engagé à réduire ses émissions de COV non méthanique (COVNM). A cela, est venu s’ajouter en novembre 2001, la directive NEC (National Emission Ceilings) qui fixe des plafonds d’émissions à l’horizon 2010, notamment pour les COVNM. Résultat, la France doit réduire ses émissions, pour atteindre un niveau de 1.050 Kt en 2010. C’est pourquoi, des efforts doivent être menés dans les différents secteurs émetteurs de COV.

Voici pour les objectifs généraux. Concernant les obligations faites aux entreprises, voici les principaux éléments à retenir. Les installations industrielles ICPE (Installations Classées pour la Protection de l’Environnement) soumises à autorisation doivent respectées les prescriptions de l’arrêté ministériel du 2 février 1998 pour les émissions de Composés Organiques Volatils (COV). Les installations soumises à déclaration doivent respecter les prescriptions des arrêtés types. Dans tous les cas, ces textes réglementaires prévoient des valeurs limites de rejets COV.

Côté chiffres justement, les industriels consommant plus de 1 tonne de solvant annuellement doivent rédiger un Plan de Gestion de Solvants (PGS) qui comprend, à la fois, la quantification des différentes entrées et sortie de solvants, dont les émissions de COV, et les dispositions mises en œuvre pour réduire ces rejets COV et atteindre les valeurs limites mentionnées ci-dessus. Lorsque l’exploitant consomme plus de 30 tonnes de solvants par an, le Plan de Gestion de Solvants (PGS) doit être transmis à l’administration. Le PGS doit être mis à jour tous les ans. Petite précision, toutes ces obligations étaient à respecter au 31 octobre 2005.

Y-a-t-il des nouveautés dans ce domaine ou que se prépare-t-il ?

Oui. Comme je viens de le dire, la réduction des émissions de COV fixée dans le cadre du protocole de Göteborg signé en 1999, visait la période allant jusqu’en 2010. Pour la période suivante, on peut prévoir que les seuils seront encore abaissés et que des améliorations seront à réaliser par les industriels.

De plus, dans le cadre de l’application de la Directive IPPC de l’Union européenne, relative à la prévention et à la réduction intégrées de la pollution, certaines activités sont soumises à des seuils d’émissions plus contraignants que ceux de l’arrêté ministériel du 2 février 1998, ce dont peu d’industriels ont conscience à ce jour.

Quelles sont les mesures à mettre en place ?

D’abord, il faut quantifier les émissions de COV et réaliser un Plan de Gestion de Solvants (PGS). Cette démarche permet d’avoir une image précise des principaux points de rejets et de se focaliser sur les sources les plus importantes de pollution qui seront traitées en priorité.

Ensuite, il faut étudier toutes les possibilités de réduire les émissions COV, soit en travaillant sur des réductions à la source, soit en mettant en place un traitement curatif.

Afin d’aider les industriels dans leur démarche, l’ADEME finance à 50 % un diagnostic COV, qui consiste en une analyse exhaustive de toutes les activités d’un site, qui comprend la quantification des émissions COV, l’étude des obligations réglementaires liées au site étudié afin de déterminer l’objectif de réduction des émissions COV. Le diagnostic COV comprend aussi l’étude des mesures à mettre en œuvre pur atteindre la conformité réglementaire.  »

Propos recueillis par Anne-Laure Béranger

Informatique et épuisement des ressources naturelles

Pourquoi observe t-on une augmentation continuelle de la demande en équipements électroniques ? L’augmentation continuelle de cette demande est le fruit de plusieurs événements concomitants :

  • une augmentation de l’offre en occident induite par la réduction des coûts (industrialisation et délocalisation) et les avancées technologiques ;
  • la réduction de la durée de vie des équipements électroniques : pour des raisons marketing, de coûts de fabrication, on fabrique des équipements à durée de vie de plus en plus réduite (la durée de vie moyenne d’un ordinateur a chuté de 6 ans en 1997 à 2 ans en 2005) ;
  • si la production des équipements électroniques s’est déplacée vers des pays à bas coût de main d’œuvre (Asie du Sud-est essentiellement), la réparation d’un équipement se fait au plus près du consommateur où le prix de la main d’œuvre est dissuasif par rapport au prix d’achat du produit. Le consommateur préfère donc remplacer plutôt que faire réparer, le fabricant élaborer des produits jetables plutôt que durables dans le temps ;
  • l’émergence de pays aspirant au niveau de vie occidental augmente elle aussi la demande en produits électroniques, or l’équilibre entre ressources puisées dans le sol et consommation était jusqu’à maintenant maintenu car les pays occidentaux étaient les seuls à consommer ces réserves. Ce n’est plus le cas aujourd’hui et dès 2005, selon le WWF, on aurait excédé les capacités de la Terre de 30%.

Les ressources en matières premières ne sont pas inépuisables !

Comme les énergies fossiles, les ressources naturelles en matières premières ne sont pas inépuisables. L’industrie électronique est très gourmande en matières premières (métaux, cristaux, eau, énergie…). Diverses études montrent que nous serions très proches de l’épuisement de ces réserves naturelles, beaucoup plus proches que nous le pensons. De plus, l’extraction de ces matières premières est en partie effectuée dans les pays du tiers monde (ou émergents), où les conditions sociales du travail sont très loin d’être les nôtres (comme nous l’avons déjà constaté en Asie du Sud-est pour la production d’équipements électroniques) et où les impacts environnementaux liés à ces exploitations causent de graves dommages à l’environnement et aux populations proches de ces zones d’exploitation.

Plus grave, comme dans le cas de l’extraction du coltane en République Démocratique du Congo, où l’exploitation de ce minerai largement utilisé dans les téléphones portables, les consoles de jeu, les ordinateurs portables et les réacteurs nucléaires, alimente une guerre pour le contrôle de cette ressource stratégique. (voir : La guerre du coltan fait rage au Congo (infosud.org)

Matières premières nécessaires à la fabrication d’un ordinateur portable

Les données se basent sur le dossier de PCMAG.com (anglais). Quelques éléments dont la fin de vie serait programmée à court terme et entrant dans la composition des équipements informatiques et les installations connexes (classés par date de disparition estimée) :

  • le terbium (Tb) est la première ressource fossile à disparaître (2012). Substance phosphorescente pour tubes cathodiques, activateur des phosphores verts pour tubes cathodiques sous forme d’oxyde Tb2O3.
  • le hafnium (Hf) : les gisements exploitables à un coût admissible seront épuisés en 2018. On le trouve dans les processeurs, isolant remplaçant le dioxyde de silicium SiO2.
  • l’argent (Ar) : épuisement prévu entre 2021 et 2037. Il est utilisé dans l’industrie (électricité, électronique, brasures, soudures et autres alliages : 41%).
  • l’antimoine (Sb) : épuisement prévu en 2022 ; composant de plaques d’accumulateurs plomb-acide (courant secouru), des semi-conducteurs : InSb, GaSb utilisés pour la détection dans l’infrarouge, pour les sondes à effet Hall (détection de champ magnétique), dans les processeurs, isolant remplaçant le dioxyde de silicium SiO2, sous forme d’oxyde Sb2O3, il diminue la propagation des flammes dans les matières plastiques.
  • le palladium (Pd) : les gisements exploitables à un coût admissible seront épuisés en 2023. 13% de son utilisation est destinée à l’électronique : principalement utilisé pour la production de condensateurs multicouches en céramique (MLCC) qui entrent dans la fabrication de composants électriques, d’autres applications du type électro-déposition pour les connecteurs et les composants de puces pour les circuits électroniques, et les circuits intégrés hybrides existent également.
  • l’or (Au) : les gisements exploitables à un coût admissible seront épuisés en 2025 ; utilisé dans l’électronique au niveau des contacts pour ses propriétés de conductivité, d’inaltérabilité, d’inoxydabilité et sa finesse.
  • le zinc (Zn) : les gisements exploitables à un coût admissible seront épuisés en 2025 ; utilisé dans l’électronique comme par exemple dans la fabrication des « magnetic random access memory » (MRAM).
  • l’indium (In) : les gisements exploitables à un coût admissible seront épuisés en 2025 (voire 2018) ; utilisé massivement depuis peu dans le cadre de la fabrication des écrans LCD ; mais il semble qu’il pourrait être remplacé par des matériaux de nanotechnologies comme le graphène (cristal de carbone).
  • le plomb (Pb) : les gisements exploitables à un coût admissible seront épuisés en 2030 ; 71% de la production sert dans le fonctionnement des batteries.
  • le tantale (Ta) : les gisements exploitables à un coût admissible seront épuisés en 2038 ; la plus grande utilisation du tantale, sous forme de poudre métallique, est faite dans la fabrication des composants électroniques, et principalement des condensateurs. On trouve des condensateurs au tantale dans les télé-avertisseurs et les ordinateurs personnels.
  • le cuivre (Cu) : les gisements exploitables à un coût admissible seront épuisés en 2039 ; avec 55% d’utilisation, il est essentiellement mis en œuvre dans l’industrie électrique (câbles, bobinages).
  • l’uranium (U) : fin probable estimée dans une fourchette allant de 2025 à 2060 ; essentiel à notre production électrique, ce qui doit nous inciter encore plus à modérer notre consommation par tous les moyens possibles. Selon « Uranium Resources and Nuclear Energy » du Energy Watch Group (2006-12), une pénurie d’uranium pourrait se produire dès 2015.
  • le nickel (Ni) : les gisements exploitables à un coût admissible seront épuisés en 2048 : utilisé dans les batteries (piles bouton pour BIOS, batteries d’ordinateurs portables)
  • le pétrole : les gisements exploitables à un coût admissible seront épuisés en 2050 ; le pétrole entre dans la fabrication des plastiques utilisés dans les équipements informatiques. En outre, il entre dans le cycle de vie du produit, de sa fabrication à son recyclage
  • le platine (Pt) : les gisements exploitables à un coût admissible seront épuisés en 2064 ; utilisé dans les industries électroniques et électriques

Quelle proportion de recyclage pour les éléments que nous consommons ?

Quelle est la proportion des éléments que nous consommons provenant de la filière du recyclage, toutes industries confondues :

  • Plomb : 72%
  • Aluminium : 49%
  • Or : 43%
  • Germanium : 35%
  • Nickel : 35%
  • Cuivre : 31%
  • Etain : 26%
  • Zinc : 26%
  • Chrome : 25%
  • Tantale : 20%
  • Gallium : 0%
  • Indium : 0%
  • Phosphore : 0%
  • Platine : 0%
  • Uranium : 0%

Cependant, certaines voix s’élèvent contre ce scénario alarmiste (voir l’article « Épuisement des mines : aux sources du mythe » ci-dessous). Dans cette bataille d’experts, il est bien difficile de se faire une idée précise de la situation. Mais nous pouvons tirer un certains nombre de conclusions de ces points de vues divergents :

  • les ressources naturelles constituent un stock fini et donc pas inépuisable ;
  • nous sommes sans doute en train de vivre la fin de l’exploitation des gisements faciles ;
  • les gisements futurs seront plus difficiles à exploiter, ce qui ne sera pas sans conséquences sur l’environnement ;si la demande continue de croître et qu’en même temps les ressources sont de plus en plus difficiles à extraire, le coût des matières premières va s’envoler de manière durable ;

Par Eric Drezet

Pollutec 2011 : les meilleures éco-innovations (1/2)

Spectromètre dédié à la mesure du couple NO3 et NH4 en environnements difficiles

Spécialisée dans la surveillance de la qualité de l’eau, de l’environnement et l’éco-toxicologie, la société Bionef a lancé début 2011 un système ISA – in situ spectral analyser (matériel GO system) accompagné d’une électrode ISE NH4 permettant de mesurer le couple NO3 et NH4 dans les environnements les plus difficiles. Ce spectromètre UV-Vis (190 – 720 nm) totalement ouvert permet à l’utilisateur de réaliser ses propres calibrations, pour de nombreux paramètres tels que NO3, DBOeq, CODeq… La tête de mesure est plongée directement dans le bassin de la station d’épuration. Elle est indépendante par rapport aux variations de température : la plage de température en fonctionnement est très large de -10° C à + 110° C, elle peut être stérilisée, ce qui la rend utilisable pour des installations industrielles particulières comme, notamment, les industries agro-alimentaires. L’ensemble ISA comprend un enregistreur transmetteur sur lequel se connecte l’électrode ISE NH4. L’ensemble est connectable à tout type de supervision. Par ailleurs une grande variété de capteurs peuvent être connectés à la centrale BlueBox, enregistreur transmetteur du spectromètre UV-Vis, ISA: pH, conductivité, turbidité, oxygène dissout par électrode ou optode et redox, une autre façon de suivre le process de traitement des eaux usées. Le système ISA accompagné des capteurs complémentaires requis (ex: NH4 par ISE, oxygène dissout,….) est donc une solution complète et compacte très ouverte. Le nettoyage des systèmes se fait par air comprimé.

Nouvelle génération de membranes PVDF haute performance pour ultrafiltration

Spécialiste des membranes, la société Canpure a récemment adopté une méthode de production par séparation complexe de phase thermique (c-TIPS) qui permet de produire des membranes d’ultrafiltration particulièrement résistantes et hydrophiles. Composées de fibres creuses en PVDF (fluorure de polyvinylidène), ces membranes sont en effet particulièrement inertes (membranes cristallines) et hydrophiles (d’où des flux plus stables et de bonnes propriétés anti-fouling) et elles résistent à de fortes pressions. Ce nouveau type de membranes apporte une efficacité et une durabilité plus importantes aux systèmes d’ultrafiltration, que ce soit dans le traitement de l’eau potable, l’assainissement des eaux usées ou le dessalement d’eau de mer.

Système global pour la surveillance des émissions industrielles liées à l’incinération

Environnement SA est l’un des leaders européens de l’instrumentation d’analyse et de mesure de l’environnement (surveillance de la qualité de l’air, contrôle des émissions industrielles, mesure de gaz moteurs, surveillance des radionucléides gazeux, mesure de la qualité de l’eau). En vertu de l’évolution réglementaire récente, le coup d’envoi de la mise en conformité des usines d’incinération a été donné. En effet, l’arrêté du 3.08.2010 modifiant celui du 20.09.2002 relatif aux installations d’incinération et de co-incinération de déchets non dangereux et aux installations incinérant des déchets d’activités de soins à risques infectieux* a établi de nouvelles dispositions, notamment en termes de dioxines et furannes, d’ammoniac, de qualité des systèmes automatiques de mesure et de performance énergétique des incinérateurs. Environnement SA propose une offre complète d’analyseurs et systèmes uniques et innovants, permettant de couvrir l’intégralité des dispositions. Cette offre globale comprend l’AMESA, préleveur en continu des dioxines et furannes certifié MCERTs et TÜV, le MIR 9000H, analyseur de mesure en continu de NH3 et le WEX, logiciel validé et performant d’acquisition et traitement des données (ce logiciel permet notamment l’édition des rapports QAL2 & QAL3, la surveillance en continu des VLE…). Elle permet ainsi un suivi régulier et automatique des installations en conformité avec les textes. *Cet arrêté a été complété par une circulaire de la DG Prévention des Risques le 28 février 2011.

Analyseur optique de particules pour la mesure en continu et en simultané de la qualité de l’air

Environnement SA a développé en collaboration avec un laboratoire du CNRS (LPC2E) un analyseur de particules entièrement optique et breveté donnant des informations en continu et simultanément sur la concentration, la taille et la nature des particules inhalables (TSP, PM10, PM2.5, PM1). Complètement autonome et automatique, le CPA (Continuous Particulate Analyser) donne accès en temps réel à tous les paramètres de mesure y compris la spéciation des particules jusqu’alors nécessitant des instruments de laboratoire coûteux tels que la spectroscopie de masse, la chromatographie, microbalances, analyse thermique, rhéologie de poudre, etc. Cet instrument unique permet ainsi de réduire jusqu’à dix fois les dépenses réelles pour l’obtention d’une information équivalente. Unique instrument sur le marché capable de compter en simultané et en continu tous types de particules, le CPA fournit en plus des informations sur la nature des particules permettant ainsi une différenciation entre pollution «naturelle» et pollution industrielle. Ainsi, il serait possible d’intervenir sur les sources locales de pollution afin d’améliorer la qualité de l’air et donc protéger la santé et l’environnement. Simple à installer et à utiliser et doté d’un système intelligent d’auto-calibrage intégré, le CPA nécessite très peu d’entretien et aucun consommable. Equipé d’un grand écran tactile couleur et de la nouvelle interface homme machine mise au point par Environnement S.A et utilisant les dernières technologies web le rendant pilotable à distance à partir de n’importe quel ordinateur (PC ou MAC), tablette ou iPhone, le CPA est le concentré de technologies indispensable pour la surveillance de la qualité de l’air. Parmi ses autres applications possibles figurent les nuages de cendres volcaniques ainsi que les fumées d’incendies.

Sécheur polyvalent pour la valorisation de l’énergie thermique de la méthanisation agricole

EPO est agent exclusif en France de la société italienne Scolari dont les sécheurs étaient déjà bien connus des agriculteurs dans les années 1970 (plusieurs centaines d’unités étaient en service dans les cours de ferme avant l’émergence du système coopératif agricole). Le sécheur Polyagric 250 lancé cette année est entièrement autonome (il est géré par un automate programmable). Il a subi toutes les évolutions nécessaires de manière à répondre à la problématique de valorisation de l’énergie thermique pour les installations de méthanisation agricole. Avec sa capacité d’énergie thermique disponible à partir de 200 à 300 kW thermique, il assure un séchage polyvalent sur les digestats mais aussi sur le maïs, les pulpes, les plaquettes fines de bois, le fourrage… Pour les digestats, le séchage sera opéré après séparation de phases (rappelons que Scolari a la capacité de sécher des digestats bruts). Et pour permettre le séchage polyvalent d’autres produits agricoles, il suffit à l’agriculteur de positionner en amont une réserve de produit avec une vis ou un transporteur d’alimentation, la régulation de l’entrée du produit étant automatisée en interface avec le cycle de séchage. Au final, le Polyagric 250 peut améliorer les économies des projets de méthanisation par la valeur ajoutée de séchage des produits agricoles.

Spectrophotomètre avec technologie RFID permettant de détecter les dates limites des réactifs utilisés

Le spectrophotomètre DR 3900 avec technologie RFID, IBR+, AQA+ et LINK2SC offre une grande fiabilité à chaque étape du processus d’analyse de l’eau. Il associe les caractéristiques suivantes : – Une identification et une traçabilité fiables des échantillons grâce aux identifiants RFID – Une identification des échantillons sans équivoque grâce à l’attribution d’un identifiant RFID unique – Un nouveau code barres 2D, qui informe du numéro de lot mais aussi de la date limite d’utilisation des réactifs. Si cette date est dépassée, une alerte est émise automatiquement. – Des certificats de lots actualisés disponibles sur l’étiquette RFID apposée sur l’emballage des tests en cuve – Une connexion LINK2SC qui permet la comparaison directe entre les résultats des analyses de process et en laboratoire (cf. communication bidirectionnelle entre le DR 3900 et le transmetteur SC, d’où une simplification des comparaisons entre mesures en ligne et mesures de laboratoire) – L’ajustement automatique d’une sonde, si nécessaire – Un transfert des données de mesure via une connexion Ethernet ou une clé USB. Aucun logiciel supplémentaire n’est requis. Les mesures AQA peuvent être définies et documentées par le spectrophotomètre lui-même. Une fonction de rappel configurable pour les mesures AQA à effectuer permet de faciliter les tâches dans le travail quotidien des opérateurs. Les certificats d’analyses actualisés (destinés à la documentation GMP/GLP) sont disponibles sur l’étiquette RFID présente sur l’emballage du test en cuve. Le certificat du lot concerné peut être rappelé en plaçant l’emballage et son étiquette RFID devant le capteur du DR 3900 pour une impression instantanée. Les mesures de la qualité sont recensées et consignées à des fins de documentation, comme le système Addista. L’utilisateur peut en outre créer et mettre à jour des cartes de contrôle de la qualité sur le spectrophotomètre DR 3900.

Solution de traçabilité des DEEE sur internet

La société Morphosis est spécialisée dans le recyclage des produits et déchets issus de l’industrie électrique, électronique et semi-électronique. Elle a développé une application web permettant à ses clients de suivre les différentes étapes de traitement de leurs déchets électroniques. Cette application suit chaque type de déchets électroniques, de la collecte jusqu’à la génération de matière secondaire. Elle permet également de stocker les documents de suivi (BSD, Bordereau de Livraison) et d’afficher l’historique.

Conteneur de stockage coupe-feu 120 minutes multi-niveaux

Spécialiste du stockage et de la manutention depuis plus de vingt-cinq ans, Denios conçoit et fabrique des conteneurs de stockage sur rétention pour les produits dangereux et polluants afin de préserver l’environnement et sécuriser le travail des opérateurs. Son nouveau conteneur multi-niveaux coupe-feu 2 heures FBM Base permet de stocker entre 4 et 12 cuves de 1 000 litres ou entre 12 et 32 fûts de 200 litres de liquides inflammables. La protection au feu intérieure et extérieure jusqu’à 120 minutes de ce conteneur a été entièrement validée par un organisme agréé. Le stockage des produits inflammables est ainsi possible à proximité des bâtiments et en limite de propriété tout en gardant la couverture de l’assurance. Caractéristiques techniques De construction robuste, le conteneur multi-niveaux FBM Base est équipé de clapets coupe-feu, de portes battantes coupe-feu 2 heures fermant à clé, d’un maintien des portes par ventouses électromagnétiques et d’anneaux de levage. Il est proposé en modèles de 4 à 9 mètres de long. Le rayonnage intérieur permet un stockage sur un à trois niveaux selon les contenants stockés. Le conteneur peut être pourvu d’une climatisation, d’une ventilation, de luminaires, d’une extinction incendie ou encore d’un système hors gel. Il est disponible en version ATEX (Atmosphères Explosives) ou non ATEX, selon la nature des produits à stocker et son emplacement sur site. Le conteneur FBM Base est particulièrement adapté pour les industriels du secteur de la chimie, pharmacie, cosmétique ou tout autre domaine amené à stocker des produits dangereux et polluants.

Par P.T

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Pollutec 2011 : les meilleures éco-innovations (2/2)

Petite station d’épuration à lit flottant

aAVE présente les produits standards ou sur mesure de sociétés innovantes dans le domaine des systèmes d’aération pour le traitement des effluents, des petites stations d’épuration ainsi que des pompes et aérateurs submersibles. Avec son partenaire Bluevita, aAVE propose le premier système de STEP à lit flottant à être introduit et obtenir l’agrément en France (agrément CSTB en cours).

Le procédé de lit flottant Tornado constitue la dernière génération des techniques de traitement en termes d’assainissement autonome (ou ANC). Il offre les caractéristiques suivantes :

  • Des performances de traitement particulièrement élevées, valables sur le long terme ;
  • Un volume de boues – élément critique de tout système d’ANC – parmi les plus faibles du marché (50 % de moins qu’un procédé SBR) ;
  • Une cuve au procédé unique de PEHD à double paroi avec mousse « en sandwich » ;
  • Une grande stabilité ;
  • Un système très compact qui permet de traiter jusqu’à 16 EH avec une seule cuve ;
  • Une technologie prévue pour une longue durée de vie et une maintenance minimum : 30 ans de garantie d’étanchéité ; pas de renouvellement ni de nettoyage externe nécessaire pour le lit flottant (cf. procédé autonettoyant) ; des équipements électromécaniques de haute qualité (surpresseur à piston au lieu des habituels compresseurs à membrane et pompes) et de durée de vie deux fois supérieure aux équipements habituellement utilisés ;
  • Une installation rapide et aisée : système « clé en main », de faible encombrement ;
  • Un système économique en termes de coûts totaux (achat + installation + entretien) ;
  • Des services et conseils apportés par des professionnels expérimentés du traitement des effluents.

Le savoir-faire et l’expérience de aAVE en matière de conception, de dimensionnement et de réhabilitation de systèmes de traitement des effluents, associés à la gamme des produits de haute technologie et de grande fiabilité Bluevita permettent ainsi une offre à forte valeur technique et compétitive sur le long terme sur un marché en pleine structuration.

En savoir plus

Solution pour protéger la climatisation des data centers et la rendre moins énergivore

Les data centers représentent 1 % de la consommation électrique mondiale, ce qui est considérable. Spécialiste des instruments et des solutions d’analyse par empreinte chimique, Alpha Mos a mis au point un système permettant de sécuriser le dispositif de climatisation par « free cooling » afin de s’assurer que les polluants potentiellement présents dans l’air extérieur ne pénètrent pas à l’intérieur des locaux techniques accueillant des équipements sensibles.

Appelé RQ Box Energy Saver, ce système assure la mesure continue des odeurs et polluants gazeux. Il comprend des nez électroniques RQ Box, un système de communication sans fil ainsi que le logiciel RQ Net d’acquisition et de visualisation des résultats.

Chaque analyseur, positionné au niveau d’une entrée d’air, pilote un dispositif de refroidissement : lorsque le seuil prédéfini de pollution de l’air extérieur est dépassé, une alarme désactive le « free cooling » et enclenche le système de climatisation « traditionnel ». Le RQ Box Energy Saver autorise ainsi la protection des équipements sensibles et la réduction de l’empreinte carbone. Il utilise la qualité de l’air extérieur comme paramètre de pilotage du dispositif de refroidissement. Il permet une réactivité immédiate grâce aux alertes en temps réel. Et surtout il autorise une réelle amélioration de l’efficacité énergétique du data center : la sécurisation de son fonctionnement favorise l’utilisation du « free cooling » direct qui contribue à atteindre un PUE* cible de 1,5 (PUE d’un data center classique : 2,5) avec contribution directe aux 5 000 tonnes de CO2 non rejetées dans l’atmosphère. La technologie de détection de polluants est adaptée aux besoins de l’hébergeur. Ce couplage RQ Box Energy Saver « Free cooling » offre ainsi efficacité et fiabilité.

* Le PUE (Power Usage Effectiveness) est l’indicateur de mesure de l’efficacité énergétique d’un data center.

En savoir plus

Premier nez électronique dédié aux émissions de gaz humides

La gestion de la problématique des odeurs et COV (composés organiques volatils) est un enjeu majeur pour les industriels oeuvrant dans la valorisation des déchets (centre de stockage, compostage, STEP,…). Les sources d’odeurs sont de plusieurs types (diffus, volumique) mais aussi canalisées (sortie bio-filtre ou laveur acido-basique). Il est important de pouvoir assurer un monitoring des émissions de gaz humides ou concentrés.

Alpha Mos propose la première solution nez électronique pouvant être installée au coeur des sources humides, ce qui permet enfin aux industriels d’assurer un suivi sur tous les types de sources sans exception. Le nouveau système d’échantillonnage « Dry and Dilute System »(DND) assure le séchage et la dilution des gaz avant analyse par le nez électronique RQ Box. Le bilan « odeur » sur site est ainsi complet.

En savoir plus

Service de bio-surveillance de l’environnement par l’abeille

Depuis longtemps, des organismes vivants sont utilisés pour caractériser l’état et le fonctionnement d’un milieu (eau, air, sol) et pour en déceler les éventuelles modifications, qu’elles soient naturelles ou non. Ces organismes « sentinelles » – les bio-indicateurs – peuvent être végétaux (mousses, algues, lichens, écorces, feuilles,…) ou animaux (mollusques, poissons, cloportes, escargots, lombrics,…).

Informant sur les transferts de polluants, la bio-surveillance permet une évaluation toxique globale des écosystèmes, d’où la complémentarité avec la métrologie classique. De nombreuses études scientifiques ont déjà démontré la sensibilité particulière des abeilles aux polluants xénobiotiques (métaux lourds, PCB, dioxines/furannes, HAP, phytosanitaires,…) et à d’autres contaminants comme, notamment, les radionucléides. Lorsqu’elles sont soumises à des concentrations même très faibles et non encore toxiques pour l’homme, les abeilles peuvent présenter des troubles de comportement, un ralentissement de leur activité, voire une certaine mortalité. L’intérêt de les surveiller est donc considérable en termes de gestion des risques sanitaires et pourtant ce n’était pas encore le cas au-delà de simples expérimentations.

Spécialiste de la filière apicole, le bureau d’études Apinov a lancé cette année Apilab, un service de bio-surveillance de l’environnement par l’abeille, qui propose deux prestations :

  • Apidiag, une évaluation ponctuelle de l’état sanitaire d’un milieu donné basée sur l’installation d’un rucher bio-indicateur sur un site choisi en fonction de sa représentativité, des prélèvements après renouvellement de la colonie, des analyses par un laboratoire accrédité COFRAC puis une interprétation et des recommandations ;
  • Apialerte, un suivi à distance de l’évolution des conditions environnementales de colonies grâce à différents capteurs (balance de suivi de poids de ruche, température interne et compteur d’abeilles, celui-ci étant issu d’un transfert de technologie de l’INRA). Si plusieurs valeurs anormales sont enregistrées, une alerte est transmise et une intervention se fait rapidement.

Rappelons que les abeilles effectuent des milliers de micro-prélèvements par jour et ce, pas seulement dans les fleurs (pollens, nectar,…) : elles prélèvent aussi de l’eau (flaques, fossés) et peuvent capturer (par leur corps velu) des particules en suspension dans l’air ou dans le sol quand elles s’y posent. Elles peuvent donc déceler la présence de particules dans l’eau, l’air et les sols de friches, de sites industriels ou encore de grands espaces publics aux alentours de zones habitées.

La bio-surveillance apicole peut ainsi être utilisée en stratégie d’entreprise (ex. : mesure préventive, communication) ou dans le cadre de la politique d’une collectivité (ex. : révision de schéma d’aménagement, évaluation de la qualité environnementale d’un territoire, etc.). L’abeille peut donc servir d’indicateur de performance dans les actions et politiques de développement durable.

En savoir plus

Broyeur universel et rapide pour déchets verts et bois

Depuis plus de quinze ans, Hantsch est le partenaire en France de Komptech, fabricant autrichien de machines destinées à la préparation de produits dédiés à la biomasse. Parmi les derniers nés de la gamme Komptech, figure l’Axtor 8012, un broyeur universel pour déchets verts et bois qui permet d’obtenir un broyat pour le compostage grâce à un mode broyeur rapide. L’Axtor permet également, en passant en mode déchiquetage avec réduction de vitesse, de produire une plaquette de chauffage de première qualité. Il suffit d’utiliser un outil de broyage ou de déchiquetage en fonction du produit entrant.

Ainsi, le spectre des produits entrants s’étend du déchet vert jusqu’au bois A, en passant par les bois d’élagage, les écorces, les billons, les souches, les rémanents, etc. L’entraînement direct par courroies à nappe vient d’un moteur C18 Caterpillar positionné en partie basse pour faciliter les entretiens sous la trémie d’utilisation. Ce concept permet ainsi un accès libre au groupe moteur. La trémie d’alimentation est ouverte à l’avant et permet un rendement élevé de plus de 100 tonnes par heure en application pour les déchets verts.

Enfin, l’Axtor peut être facilement déplacé grâce à une remorque à 3 essieux centraux, une semi-remorque surbaissée ou encore un train de chenilles.

En savoir plus

Procédé de remise à neuf de batteries industrielles

La gestion de la fin de vie des batteries acide-plomb est une problématique récurrente chez les industriels, à la fois sur le plan environnemental et économique. BSI France (groupe Battery Solutions International) propose un service complet de remise à neuf permettant de donner une seconde vie aux batteries industrielles et par conséquent de réduire les coûts et les déchets. Le procédé développé par BSI comprend trois étapes : mécanique, électrique puis chimique – et va bien au-delà de la régénération.

D’abord, le traitement mécanique couvre le démontage complet des batteries, l’ouverture des éléments, la mise à nu des plaques, le nettoyage et l’inspection de tous les composants internes des éléments et le remontage complet de la batterie. Ensuite, le traitement électrique fait intervenir des cycles de charge et de décharge spécifiques, afin de redonner aux batteries leur capacité (cf. remise à niveau et reconstruction de la capacité des batteries). Enfin, le traitement chimique consiste en l’ajout de l’additif BSI qui renforce les éléments et les protège de manière à pérenniser l’action du traitement.

Cet additif 100 % écologique est réalisé à partir de polymères organiques (dérivés de carbone), il est donc inoffensif et neutre pour l’homme et pour la nature. Formant une membrane microporeuse sur les plaques de plomb, il permet de réduire l’accumulation des cristaux de sulfate de plomb sur ces plaques (une des causes majeures de perte de capacité des batteries). La membrane ainsi formée va également permettre de maintenir l’intégrité de la matière active. Cet additif s’alliera aux grilles des plaques négatives pour offrir une protection contre la corrosion.

Les batteries traitées par le procédé BSI retrouvent des performances pratiquement équivalentes aux batteries neuves (entre 95 % et 100 % de leurs capacités) et sont couvertes par une garantie complète d’au moins 12 mois, voire 24 ou 36 selon les cas. Ce système permet aux entreprises de réduire leurs déchets et l’impact sur l’environnement – eau, sols – imputable au recyclage des batteries au plomb mais aussi de faire des économies substantielles puisque le traitement coûte environ 50 % du prix d’une batterie neuve. À noter : les composants et produits non récupérables (ex. : acide sulfurique) sont envoyés dans les filières de valorisation appropriées.

Première installation de méthanisation 100 % végétaux en France

En 2010, la société GreenWatt a présenté à Pollutec Lyon sa technologie de bio-méthanisation en plusieurs étapes ne nécessitant pas d’effluents d’élevage (lisiers). Equipée du digesteur à haut rendement Hyfad qui optimise l’efficacité de l’action des microorganismes, cette technologie est principalement destinée aux IAA, à la grande distribution et aux chaînes de restauration (cf. épluchures, refus de tri de fruits et légumes, etc.). Depuis, la société belge a conçu et construit à Moissac (82) la première unité de méthanisation de France fonctionnant uniquement à partir de déchets végétaux (fruits et légumes), donc sans lisier.

Son procédé se base sur le couplage de deux étapes séparées : l’acidogénèse (après liquéfaction par hydrolyse, d’où la forte acidité) puis la méthanogénèse sur lit bactérien fixe au sein du réacteur Hyfad, ce qui permet de maîtriser le niveau d’acidité. Un réacteur de post méthanisation est également utilisé. Installée directement sur le site industriel du client, cette unité traite, en fonction de la saison, des déchets de melon, de pommes ou prunes avec des équipements adaptés. Elle produit à la fois de l’énergie utilisable en autoconsommation sur le site et un digestat réutilisable comme amendement organique en agriculture biologique car parfaitement tracé, n’étant issu que de fruits et légumes.

Le procédé de GreenWatt permet ainsi de traiter tout type de déchets agri/agro-alimentaires sans limite et sans avoir à gérer de « recettes » tout en limitant les émissions de CO2 grâce aux économies de transport générées (tout se fait sur site), à la production d’énergie renouvelable (rendement élevé de biogaz) et à la production d’un amendement organique d’origine végétale tracé (valorisation en agriculture bio). Selon les estimations, le potentiel pour l’hexagone s’élèverait à 9 000 installations, soit une puissance installée de 900 MWe. Le procédé pourrait également être utilisé dans le cadre du traitement des algues vertes.

En savoir plus

Véhicule utilitaire 100 % électrique, compact et à rayon de braquage court

Depuis près de dix ans, la société Mega propose des véhicules utilitaires compacts électriques et diesels pour le transport de proximité. Elle complète sa gamme cette année avec un modèle disponible exclusivement en version électrique et au design entièrement nouveau (cf. cabine panoramique, portes entièrement vitrées). En effet, le e-Worker est un modèle électrique à propulsion, doté d’un rayon de braquage très court (3 à 4 mètres selon l’empattement). Ses dimensions extérieures contenues lui permettent de se faufiler partout. Par sa robustesse, ses capacités de charge et de remorquage ainsi que son comportement dynamique, cet utilitaire 100 % électrique se veut polyvalent et répond aux besoins des professionnels exigeants, quelle que soit leur activité.

Sa cabine panoramique et ses portes entièrement vitrées offrent une visibilité optimale pour une sécurité accrue. Son volume intérieur général, son habitabilité – notamment avec le plancher plat et le poste de commande qui tombe parfaitement sous la main – , font de l’e-Worker un utilitaire compact efficace. Comme tous les utilitaires Mega, il se décline en plusieurs versions et possède de nombreux équipements. Il est disponible en deux types d’homologation (VASP et TQM), deux longueurs d’empattement et peut être livré avec un choix de trois packs de batteries (batterie de traction type chariot élévateur), composés de 36 éléments plomb ouvert de 2V en série pour des puissances de 8,6 kWh, 11,5 kWh et 17,3 kWh.

Caractéristiques techniques : 40 km/h pour la version quadricycle ; 25 km/h pour la version chariot porteur – Autonomie : de 40 à 100 km – Charge utile : de 600 à 850 kg – Masse remorquable (freiné) : jusqu’à 1 425 kg – Rampe mini au PTAC : sup. à 15 % – Rayon de braquage entre trottoirs : de 3 à 4 mètres – Dimensions : Longueur hors tout : 3 165 à 3 874 mm – Largeur (sous hauteur 750 mm) : 1200 mm – Largeur hors tout et hors rétroviseurs : 1 272 à 1 326 mm – Hauteur hors tout : 1 895 à 1 922 mm – Dimensions utiles : Longueur env. 2 300 mm x largeur env. 1 300 mm – Volume utile : 3 m3 environ selon version – Seuil de chargement : env. 700 mm. Existe en différentes versions : Fourgon rigide ; Fourgon bâché ; Fourgon isotherme ; Plateau ridelles fixe (équipé de ridelles amovibles et rabattables) ; Plateau basculant (équipé de ridelles amovibles et rabattables) ; Benne à déchets ; Équipement nettoyage / arrosage.

En savoir plus

Solution de dépollution des sols adaptée au milieu urbain

Jusqu’ici, pour redonner sa pleine valeur à un terrain pollué (dépollution totale), seule la désorption thermique dans des usines de retraitement était envisageable pour un prix acceptable. Spécialiste de la remédiation thermique des sols, TPS Tech innove avec le système NSR City qui chauffe le sol au moyen de brûleurs individuels et récupère l’énergie du polluant comme carburant complémentaire.

La dépollution est garantie dans un délai de quatre à six semaines, sans excavation ni transport des terres (d’où une suppression du risque de stabilité et des nuisances pour les riverains) et ce, avec une flexibilité totale permettant d’intervenir dans les sous-sols les plus difficiles d’accès ou sous un immeuble. Après traitement, les tubes de chauffage peuvent servir de base à une installation de géothermie. Les coûts de dépollution sont ainsi rentabilisés sur le long terme. À noter : le système NSR City a reçu le Prix de l’Innovation à « Milieu 2011 », salon de l’environnement aux Pays-Bas.

En savoir plus

Système haut rendement de récupération de l’énergie des piétons et véhicules

Alors qu’ils travaillaient depuis 2009 sur un projet de récupération de l’énergie cinétique générée par les passants et les véhicules sur les voies à forte circulation, les deux porteurs de projet ont reçu en 2010 le Prix Richard Branson de l’Innovation. Ils ont, depuis, créé la société Waydip en vue de commercialiser leur technologie innovante directement applicable sur les sols. Le système qu’ils ont mis au point repose sur une technologie électromagnétique et non plus piézoélectrique comme ceux qui existaient déjà. Ce qui lui autorise un rendement nettement plus élevé (jusqu’à dix fois plus d’électricité générée par m2) et ce, à des coûts nettement moindres (- 50 %) pour la même puissance installée.

Résultat, les lieux à forte affluence peuvent produire eux-mêmes leur électricité. C’est le cas par exemple des entrées d’entreprises ou de mairies, des salons commerciaux, des halls de gares, stations de métro ou autres aéroports, mais aussi des passages pour piétons. Des applications « piétons » (Waynergy People) ont déjà été mises en place dans un salon, dans des aéroports et sur des passages protégés à proximité d’écoles. Et des pilotes du domaine « véhicules » (Waynergy Vehicles) sont en cours de mise en œuvre, principalement avec la société qui détient les routes nationales du Portugal.

À l’heure où chacun se doit de réduire ses consommations d’énergies fossiles et ses émissions de CO2, les systèmes Waynergy de Waydip semblent particulièrement prometteurs. Outre l’autonomie qu’ils apportent, ils permettent de réduire les distances entre production et consommation de l’énergie, ce qui autorise une diminution des pertes d’électricité dans les réseaux. Au final, les factures d’énergie sont considérablement moins élevées.

En savoir plus

 

(Sources : Pollutec)

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Premier bilan de l’état des sols de France

Les sols constituent une ressource naturelle non renouvelable. Leurs usages et leur devenir représentent un enjeu collectif majeur, tant pour les activités agricoles ou sylvicoles que pour la préservation de la qualité de notre environnement.

Ce rapport fournit aux citoyens et à tous les acteurs de l’environnement les clés pour comprendre les fonctions des sols, les services qu’ils rendent et les pressions qu’ils subissent. Il établit un diagnostic de leur état chimique, biologique et physique. Il en souligne les points positifs et met en évidence les principales inquiétudes.
 
Les sols font partie intégrante de nos paysages, mais leur présence est le plus souvent occultée par les forêts, les cultures, les habitations ou les infrastructures qui les recouvrent. Souvent considérés comme un simple support, ils restent assez largement méconnus. Les sols sont en réalité au cœur de grands enjeux planétaires comme la sécurité alimentaire, le changement climatique, la disponibilité en eau de qualité, la production de bioénergie ou la biodiversité. La connaissance de leur état et de leur évolution possible est donc primordiale dans un contexte de développement et de gestion durables.

Des points positifs : des teneurs faibles pour la majorité des contaminants, une bonne gestion de certaines propriétés des sols

Malgré l’identification de contaminations avérées (plomb, cadmium), la grande majorité des sols de France présente des teneurs en éléments traces métalliques plutôt faibles. Parmi les nombreux polluants organiques analysés, beaucoup ne sont pas – ou ne sont que très rarement – observés dans les sols. Si certains peuvent poser de réels problèmes sanitaires, la plupart d’entre eux ne présente qu’un risque minime de transfert dans la chaîne alimentaire.

L’état des réserves minérales dans les sols est un bon indicateur de leur aptitude à fournir les minéraux nécessaires à la croissance et au développement des plantes. Les sols agricoles ne présentent pas d’évolution mesurable de leur acidité, ce qui indique une bonne gestion à l’échelle nationale. Ils ne montrent pas non plus de baisse mesurable de leurs teneurs en potassium, malgré une diminution importante des apports minéraux externes.

L’analyse réalisée sur l’ADN microbien des sols, tant en quantité qu’en biodiversité, montre qu’aucun sol ne paraît stérilisé. Ces micro-organismes représentent un potentiel considérable pour une gestion plus écologique des sols et de la production agricole.

Des inquiétudes sur certains contaminants et le maintien des sols

En position d’interface dans l’environnement, les sols sont susceptibles de recevoir ou d’émettre des contaminants potentiellement préjudiciables à la santé humaine. Certains contaminants sont présents dans les échantillons de sols de tous les sites analysés, même dans ceux où ils n’ont manifestement jamais été épandus : les exemples types concernent le DDT et le lindane, deux insecticides interdits en Europe mais fortement rémanents. Un autre exemple de contamination avérée par un polluant organique particulièrement persistant et préoccupant est le cas de la chlordécone dans les sols de bananeraies des Antilles.

Reliées à des phénomènes de contamination diffuse, les distributions géographiques de certains éléments traces métalliques (plomb, cadmium) sont également étonnantes : ces contaminations dépassent le seul secteur des zones urbaines et industrielles pour gagner des auréoles plus larges comme en région parisienne et dans le Nord-Pas-de-Calais.

Au plan de la fertilité chimique, le rapport fait état de teneurs en phosphore relativement faibles pour de nombreux sols ; à long terme la question de la durabilité du système agricole actuel reste donc posée. A l’inverse, l’augmentation des teneurs en phosphore des sols dans les régions d’élevage concentré, reste très préoccupante en raison de son impact sur la qualité des eaux et sur l’eutrophisation des milieux. Cette juxtaposition de situations d’excédents et d’insuffisances potentielles soulève la question d’une meilleure valorisation des effluents d’élevage pour corriger les unes et les autres.

Une inquiétude majeure concerne la progression de l’artificialisation des sols qui s’est accélérée durant la dernière décennie (elle concerne 8,9 % des sols en 2010), au détriment des sols agricoles. De ce point de vue, la gestion des sols périurbains est un enjeu important. L’érosion des sols est également menaçante car susceptible de remettre en cause la durabilité à long terme de certains agro-écosystèmes. Elle pourrait en outre s’accélérer sous l’effet du changement climatique.

Des connaissances à acquérir

Si la connaissance de l’état des sols de France  a considérablement progressé grâce à ces travaux, de nombreuses incertitudes et interrogations dues à un manque de connaissances subsistent encore. Elles portent par exemple sur le stockage du carbone et son devenir sous l’effet du changement climatique, sur l’évolution de la biodiversité ou celle de l’état physique des sols (évolution du tassement des sols agricoles et forestiers par exemple).

Ce bilan souligne le besoin d’une politique de gestion durable des sols. Au-delà du diagnostic national, l’amélioration et le maintien de la qualité des sols nécessitent des réponses plus locales par les acteurs concernés. A ce titre, les opérations régionales d’inventaire cartographique des sols, en voie d’achèvement, devraient constituer des outils précieux d’aide à la décision pour une gestion des sols garantissant le maintien de leur multifonctionnalité.

Source : INRA

Un réseau social d’entreprise : globalement du temps perdu ?

L’apport des réseaux sociaux privés au professionnel

Plutôt que de tenter de reproduire l’expérience Facebook en interne sans en comprendre les bénéfices pour l’entreprise, mieux vaut alors s’inspirer des procédés, des usages et des facteurs de succès que nous apprennent les réseaux sociaux pour en intégrer les bonnes pratiques, dans un réseau social d’entreprise qui complète la plateforme collaborative interne et la transforme en un succès opérationnel partagé par tous.

Le principal enseignement des réseaux sociaux privés est de remettre l’individu en valeur. Il s’agit plus précisément de bien prendre en compte le facteur social et d’utiliser la conversation comme le flux collaboratif central.  Plus que jamais, la technologie pour la technologie ne se positionne pas comme le facteur de succès, et plus encore que dans tout autre projet, l’aspect sociologique joue un rôle clé.

L’entreprise doit donc tenir compte de ces premiers éléments et permettre à ses collaborateurs d’échanger et de propager de l’information facilement, naturellement et avec un minimum de contraintes. La conversation doit être le facteur social et la pierre angulaire à intégrer dans tout projet collaboratif professionnel. Cela posera les relais de collaboration et aura pour effet immédiat de dynamiser les interactions et de les canaliser vers des issues productives et réutilisables pour l’entreprise.

A la source de ces interactions, positionner des moyens permettant aux collaborateurs de faire entrer facilement de l’information dans l’entreprise. Concrètement, chaque collaborateur doit pouvoir actionner ses relations en créant une conversation privée ou publique sur sa page personnelle du réseau social d’entreprise, prendre part à des communautés ou créer ses propres communautés. Il doit pouvoir sans effort partager un lien vers une page qu’il visite dans son navigateur, envoyer une photo ou une vidéo depuis son téléphone mobile ou transmettre un courriel et ses pièces jointes à un groupe de travail ou à ses collègues. A chaque fois, il initiera une conversation qui suivra les catalyseurs mis en place dans le réseau social d’entreprise pour se montrer utile à l’organisation. Une telle démarche favorise aussi le partage volontaire ou la propagation automatique des informations et des interactions au sein du réseau social.

Avec un tel dispositif, chacun pourra aller chercher l’information là où elle se trouve pour l’emmener là où elle produit des résultats !

Lier les interactions sociales aux pratiques et outils métier existants

Mais il faut aller encore plus loin. Le côté professionnel du réseau social doit prendre le dessus en permettant aux collaborateurs de rattacher ces interactions sociales à des éléments de contenu métier, comme par exemple à des documents dans la base documentaire, à des tâches dans la gestion de projet, à des opportunités dans sa CRM (on parle alors de Social CRM) ou encore à des incidents dans ses outils de suivi. En pouvant discuter, inviter des experts, inviter des partenaires externes, etc. directement depuis ce qui constitue la matière première de leur travail dans l’entreprise, les collaborateurs n’ont plus besoin de voir dans le réseau social une fin en soi qu’il faut apprendre à domestiquer. Il devient un véritable outil à leur disposition pour accomplir plus rapidement et plus efficacement les tâches qui figurent déjà dans leurs objectifs de performance.

Idéalement, les conversations doivent pouvoir démarrer dans le réseau social et se poursuivre dans la messagerie traditionnelle. Cela permettra aux utilisateurs d’adopter les nouveaux usages conversationnels à leur rythme sans pénaliser leur adoption par l’ensemble du groupe. N’oublions pas que la culture du mail est encore fortement ancrée dans le monde professionnel et qu’il ne s’agit pas d’opposer des collaborateurs 1.0 à des collaborateurs 2.0.

Bien entendu, cette approche ne doit pas rester cantonnée aux seuls collaborateurs de l’entreprise. De nos jours, plus de la moitié des salariés sont amenés à travailler avec des personnes externes pour accomplir leurs tâches.Il est donc souvent nécessaire d’ouvrir le réseau social interne à des acteurs externes pour refléter la réalité des interactions, tout en contrôlant très finement leur niveau d’intégration dans le dispositif et les contraintes de sécurité. 

Nous devons donc rapidement prendre en compte ces données et ne pas négliger que les nouvelles générations qui entrent sur le marché du travail et qui ont baigné dans les réseaux sociaux seront réceptives à ce nouveau mode de travail qui, incontestablement, sera générateur de productivité pour toute l’entreprise.  Réseau social et productivité ne s’opposent donc pas. Il est simplement nécessaire de structurer sa démarche, de positionner l’individu au centre du modèle, de relier le réseau social aux données opérationnelles et aux outils collaboratifs déjà en place dans l’entreprise et de ne pas négliger certaines bonnes pratiques.

Alex Mermod, CEO, Calinda Software, auteur du livre Bonnes pratiques pour un réseau social d’entreprise

 

À lire aussi :

D’ingénieur à manager, l’évolution d’une carrière

La connaissance technique ne suffit pas. Un ingénieur qui devient manager doit aussi posséder des notions de communication interpersonnelle.

L’école d’ingénieur ne prépare pas à être manager. Au début de sa carrière, armé de son seul bagage technique, un ingénieur ne connaît pas de difficultés particulières. Mais les choses se compliquent pour lui avec le temps, quand il se retrouve à devoir encadrer des équipes. Il manage alors ses équipes comme il peut, en fonction de ce qu’il pense être le mieux. Mais bien souvent, l’ingénieur ne sait pas manager des équipes.

« Les ingénieurs qui deviennent managers doivent prendre conscience que, malgré leurs grandes connaissances techniques, ils doivent acquérir un savoir-être. » Nathalie Vuitton

J’utilise souvent dans mes formations l’image de l’ingénieur débutant qui commence sa carrière comme s’il était sur un vélo. La roue arrière représente la roue du savoir, et la roue avant, celle du savoir-être (le management). À la sortie de l’école, l’ingénieur possède une grosse roue arrière car il a accumulé beaucoup de connaissances. La roue avant, par contre, est plus petite. Ce qui provoque un déséquilibre. L’ingénieur-manager sur son vélo fait des zigzags, il va à gauche puis à droite, il débute. Au fur et à mesure de l’évolution de sa carrière, ses responsabilités de manager allant grandissantes, il peut être conscient du déséquilibre, comme ne pas l’être. Il peut regonfler sa roue avant, grâce à des formations coaching, mais il peut aussi continuer de se former aux techniques de management, et toujours grossir cette roue de la connaissance, ce qui ne fera qu’amplifier le phénomène de déséquilibre.

J’ai rencontré dans le cadre d’une formation un directeur de laboratoire qui ne comprenait pas la démotivation de ses équipes et le manque de résultats, malgré leur haute qualification. Il était très érudit, et avait fait en outre des formations en management. Mais il n’avait pas eu le « déclic ». Ce déclic, il l’a eu par le coaching, en entamant une réflexion sur lui-même.

Au-delà des écoles qui abordent désormais le sujet de la communication interpersonnelle, il faut que l’ingénieur-manager comprenne avant tout qui il est. Cela veut dire se connaitre, et connaître son mode fonctionnement. Si je ne sais pas comment moi je fonctionne, comment puis-je prétendre savoir comment les autres fonctionnent ?

Les ingénieurs-managers doivent prendre conscience que, malgré leurs grandes connaissances techniques, ils doivent acquérir un savoir-être. S’ils ne s’intéressent pas à leurs équipes, s’ils ne prennent pas le temps de discuter avec elles, s’ils ne reconnaissent pas ce qu’elles font, ils passeront à coté de beaucoup de choses.

La solution n’est pas seulement de prendre conscience que l’on a deux roues, mais qu’il faut aussi développer la roue du savoir-être. Je rencontre fréquemment dans mes formations des ingénieurs qui découvrent qu’ils ont un deuil à faire de la technique. Très performants et passionnés, experts techniquement, beaucoup oublient dans leur cahier des charges, les composantes environnementales et humaines.

J’utilise dans mes formations un tableau présentant la courbe du développement de la technique et celle de l’évolution de carrière. Arrivé à mi-parcours de sa carrière, l’ingénieur doit souvent abandonner sa technique pour se consacrer au management d’équipes. La plupart du temps, plus de la moitié des ingénieurs ne sont pas préparés à faire du management, ou ne veulent pas manager.

Depuis sept ans, je travaille avec des outils psychométriques. MBTI (Myers Briggs Type Indicator) et Executive Profiler sont des outils de mesure de la personnalité qui s’appuient sur les recherches de Carl Jung, célèbre psychiatre suisse, contemporain de Freud. Dans son livre Les types psychologiques, Jung traite de la confrontation de l’individu avec le monde, de ses rapports avec les hommes et les choses. Selon son orientation psychologique, l’individu vivra différemment sa confrontation avec le monde et développera des stratégies d’adaptation différentes.

Par exemple, vous rentrez dans une pièce, et vous posez la question aux gens : « Que voyez-vous ? » Certains vont répondre : « c’est une salle à manger », d’autres vont répondre : « il y une table, quatre chaises, une armoire, elle est noire, avec des assiettes à l’intérieur. » Nous avons tous des préférences psychologiques qui datent de l’enfance et qui font que nous ne voyons pas les mêmes choses. Un manager, qui aura une vision globale, et un autre, une vision de détail, n’auront pas le même type de communication. De même, un manager « global » qui devra manager des gens « détail » ne les comprendra pas, et l’inverse. Tous les types se valent et possèdent leurs forces comme leurs faiblesses.

La connaissance de son mode de fonctionnement est primordiale pour adapter son management, en fonction de ses équipes. Ca signifie connaître son mode de fonctionnement dans des contextes hors pression et sous pression, comprendre comment mieux travailler et vivre avec les différents types psychologiques dans le respect de leur spécificité, et se développer dans son type psychologique en travaillant sur les parties moins conscientes de sa personnalité.

Il faut sensibiliser les Ressources Humaines à l’existence de ce type de formation management, pour les personnes issues de formation technique. Bien souvent, ce sont des personnes du marketing ou des commerciaux qui sont orientées vers ces formations. Mais ce que l’on oublie, c’est que c’est l’ingénieur qui dirige les équipes et que ce sont elles qui produisent. Plus les équipes seront performantes, et mieux les commerciaux vendront les produits. On entend souvent dire « le marketing ne communique pas assez avec les équipes techniques » : le problème vient là aussi des modes de communication qui ne sont pas adaptés aux personnalités. Il faut que chacun apprenne à identifier des passerelles pour pouvoir communiquer avec les autres.

Je demande souvent aux gens qui assistent aux formations, la raison de leur présence. Certains me répondent : « mon chef m’a demandé de venir, car il trouve que je n’ai pas suffisamment de charisme, que je ne tape pas assez du poing sur la table et que mes équipes ne m’écoutent pas ». Au bout de six jours de formation, ils en arrivent à la conclusion qu’ils ne peuvent pas devenir quelqu’un d’autre, qu’ils sont ce qu’ils sont, et que leur mode de management, même s’il est différent, leur permet aussi d’atteindre des résultats. Souvent, il leur suffit d’apprendre à communiquer différemment avec leur hiérarchie.

Se connaitre soi-même, cela signifie donc prendre confiance en soi, et trouver le mode de management qui convient à sa personnalité. Les managers qui n’ont pas le profil attendu, qui ne sont pas du genre à crier fort ou à taper du poing sur la table, doivent reprendre confiance en eux. Il n’y a pas de mauvais ou de bon manager. Chacun a sa personnalité. L’important est de la connaître, et de savoir s’adapter à la personne en face.

Un hiérarchique doit aussi apprendre à reconnaître ses managers, dans leur différence. D’ailleurs, on me dit souvent à ce propos : « il faudrait que mon chef vienne aussi en formation »…

Nathalie Vuitton

 

Nathalie Vuitton est ingénieur diplômée de l’ESIEC Reims. Elle a débuté sa carrière chez Procter & Gamble, en Angleterre et aux États-Unis, pour encadrer ensuite des équipes chez Shiseido, Paco Rabanne, Neutrogena et Hermès. Sa grande adaptabilité et son expérience internationale l’amènent ensuite à se tourner vers le coaching et le management. Depuis plus de sept ans, Nathalie Vuitton est consultante Ressources Humaines. Elle travaille à l’accompagnement du changement, coaching d’équipes, coaching individuel, prise de poste à haut potentiel, formation en management et plus particulièrement formation des ingénieurs. Elle anime par ailleurs des formations en management à l’ESIEC. Nathalie Vuitton est co-auteur de l’ouvrage Développement professionnel des cadres, avec Yvon Pesqueux, professeur titulaire de la Chaire de « Développement des Systèmes d’Organisation » au CNAM et co-directeur du LIPSOR (Laboratoire d’Investigation en Prospective, Stratégie et Organisation).

 

Pour aller plus loin :

 

Participez à la formation Techniques de l’Ingénieur : INGÉNIEUR MANAGER

DIAPORAMA : Décryptage des structures étranges dans le désert chinois

Ces images font beaucoup parler d’elles en ce moment : quelques internautes ont découvert, grâce au service de cartographie en ligne Google Maps, de gigantesques et bien mystérieuses structures dans la partie chinoise du désert de Gobi, les provinces désertiques du Gansu et du Xinjiang, au nord-ouest de la Chine. Mêlant conclusions hâtives et hypothèses farfelues, les différents commentateurs y ont vu des cibles géantes pour l’armée chinoise, ou même des constructions extraterrestres… Ces structures ont enflammé la curiosité et l’imagination des internautes et « experts » de tous bords, du fait de leur proximité avec les installations spatiales et militaires chinoises, dont fait partie le centre spatial de Jiuquan, principale base de lancement chinoise depuis la fin des années 50.

Retour et explications sur quelques-unes de ces images.

 

Marais salants du Lob Nor :

Sur cette photo, point de doute : cette gigantesque structure géométrique, composée de différents rectangles aux nuances bleues turquoise et vertes, se trouve être les marais salants dans le Lob Nor.  Immense marécage salé dont la superficie diminue peu à peu, ce site a été le théâtre de pas moins de quarante-cinq explosions atomiques, entre 1964 et 1996.

Proches comme la plupart des structures suivantes du centre spatial de Jiuquan, ces marais salants seraient liés à une mine de potasse.

Cibles d’étalonnage pour satellites espions :

Confondues avec des structures militaires secrètes, des canalisations, des grillages géants, voire des codes barre géants dont l’utilité resterait mystérieuse, ces lignes blanches seraient en fait… des cibles d’étalonnage. Jonathan Hill, technicien en charge des projets de vols spatiaux vers Mars pour l’Université de l’Arizona, explique pour le site « Life’s little mysteries » : « Les grilles de lignes blanches en zigzag, vues sur deux des images, sont des cibles d’étalonnage de satellites espions : les caméras des satellites se concentrent sur ces grilles, qui mesurent environ 0,65 miles de large par 1,15 miles de long, et les utilisent pour s’orienter dans l’espace ». Des satellites espions que la Chine n’est bien évidemment pas la seule à utiliser.

En utilisant l’historique de Google Earth, on aperçoit même le chantier préliminaire à la peinture de ces grandes bandes blanches (historique du début de l’année 2005).

Traces de pneus pour prospection sismique ?

Suspectés d’être un réseau de canalisations ou un quadrillage dont l’utilisation reste mystérieuse, ces tracés ne seraient en fait que des traces de pneus, aisément reconnaissables en zoomant sur Google Earth, par le doublement des lignes et leur écartement de moins de 3 mètres. Leur incroyable régularité laisse penser à une prospection sismique, en vue de trouver, peut-être, du pétrole.

 

Par Rahman Moonzur

À lire aussi :

DIAPORAMA – De nouveaux clichés de la Lune

Juno : une sonde spatiale vers Jupiter

Des robots et logiciels pour des missions extraterrestres

Nouvelle publication et prochaine réunion à Paris du projet européen NanoCode

Il fait suite à la conférence Nanocode du 29 septembre dernier, sur un sujet important déjà abordé, celui de la mise en place d’une recherche « responsable » dans le domaine des nanosciences et nanotechnologies.

Pour mémoire, le projet NanoCode est un projet européen financé dans le cadre du 7ème PCRD européen dont le but est de développer un cadre stratégique (MasterPlan) guidant le développement et la mise en œuvre du Code de bonne conduite pour une recherche responsable en nanosciences et nanotechnologies ; ce Code est une recommandation de la Commission européenne datée du 7 février 2008, qui n’a pas, pour l’heure, de valeur juridique.

Selon ses auteurs, le MasterPlan s’appuie sur les enseignements tirés de consultations menées en 2010 et 2011 auprès des parties prenantes de huit pays européens, mais aussi d’Argentine, de Corée du Sud et d’Afrique du Sud (300 experts avaient répondu à un questionnaire en ligne, 150 experts avaient participé à des entretiens individuels et des focus groups).

Les résultats de cette consultation ainsi qu’une version de travail de ce MasterPlan et un prototype du CodeMeter (un outil d’évaluation du respect des principes du Code) ont fait l’objet de discussions lors des ateliers nationaux avec les acteurs des pays partenaires.
Cette version officielle du MasterPlan présente une sélection des idées, options et recommandations émises par ces derniers concernant la révision et la mise en œuvre du Code ; elle met notamment en exergue la préférence des parties prenantes, les aspects pratiques de mise en oeuvre, la nécessité de changements structurels et substantiels du Code.

A noter, des conférences dans les Etats membres partenaires de NanoCode sont encore en cours. La conférence française aura lieu le 30 novembre 2011 à Paris, de 14h à 17h30 à l’ENS, 45 rue d’Ulm, dans le 5ème. Elle est gratuite et ouverte aux représentant(e)s des administrations publiques, élu(e)s, industriels, ONG, et au grand public.

Par M.D

Source  : Veille Nanos

Déjà publié :

« Des présomptions de toxicité sur des nanoparticules ont été établies »

Les nanotechnologies ont désormais leur guide

La France est-elle toujours dans la course aux nanos ?

Nanomatériaux : l’Afsset recommande la prudence

Découvrir le Guide des Nanotechnologies

Face au très bon accueil réservé à la publication 2010, les Techniques de l’Ingénieur ont décidé de réaliser cette année la deuxième édition du Guide des nanotechnologies.
> Commander le Guide des nanotechnologies 2011

Pour toute information complémentaire, contacter Céline Chartier

 

 

 

 

 

 

 

 

LeCleantech®, le rendez-vous européen des cleantech

Depuis 1994, Pollutec est le salon mondial des éco-technologies, de la performance énergétique et du développement durable. Pour cette nouvelle édition parisienne, Pollutec Horizons endosse une fois de plus son rôle de catalyseur des grandes tendances de l’environnement et du développement durable. Du 29 novembre au 2 décembre 2011, le salon présentera, au Parc des Expositions de Paris Nord Villepinte, une offre unique de solutions innovantes, de nombreuses opportunités de rencontres et un vaste programme de conférences, échanges et débats pour faire le point sur l’ensemble des enjeux environnementaux et énergétiques actuels.

Cette première journée, qui réunira tous les acteurs du secteur, aura pour temps forts :

  • une conférence plénière sur le thème des cleantech, avec un débat sur le thème « la voiture électrique » / « efficacité énergétique » ;
  • le « Cleantech Tours on Pollutec Horizons » (40 rendez-vous avec des start-ups et 4 circuits thématiques : Eau, Énergie solaire, Énergies renouvelables, Déchets et Biomasse) ;
  • le « Live Pitch Sessions », qui verra des start ups du monde entier présenter leur projet ou innovations aux investisseurs présents à l’événement, en direct ou en visioconférence ;
  • Elle s’achèvera sur la soirée « Quand Pollutec rencontre LeCleantech », rencontres entre des investisseurs et une sélection de start-ups et PME exposant sur Pollutec Horizons.

Des débats auront aussi lieu toute la journée :

  • Après Fukushima, vers le 100% renouvelable ?
  • Eau, déchets, biomasse, fers de lance des Cleantech françaises ?
  • Efficacité énergétique et smart grid : comment accélérer ?
  • Quelles conditions pour le véhicule électrique en France ?
  • Quelles leçons des politiques de nos voisins européens, Allemagne, Espagne, Grande Bretagne, Italie dans les Cleantech ?

 

À lire aussi :

Le Green IT, un nouvel eldorado pour les informaticiens ?

Les cleantech ne connaissent pas la crise

Malte, une île branchée… au compteur intelligent

La Hongrie serait responsable des rejets atmosphériques d’iode radioactif

L’Agence Internationale de l’Énergie Atomique (AIEA) a enfin trouvé son coupable : alors qu’elle cherchait désespérément le responsable des rejets atmosphériques d’iode 131 radioactif, découverts en premier lieu par les services de l’autorité sanitaire en République Tchèque, puis un peu partout en Europe et ce jusqu’en France (principalement dans la moitié nord de l’Hexagone), le coupable se serait déclaré jeudi 17 novembre. L’institut hongrois de recherche sur les isotopes a annoncé que l’un de ses laboratoires, situé à Budapest, aurait enregistré une augmentation de ses émissions d’iode 131, ceci n’expliquant toutefois pas complètement l’augmentation des niveaux d’iode radioactif relevés jusqu’en France.

Extrapolations de l’IRSN

Ces rejets d’iode 131, détectés à de faibles niveaux, seraient sans danger pour la population, selon l’Institut de Radioprotection et de Sureté Nucléaire (IRSN), qui évoquait déjà mercredi les possibles origines de ces émissions, « soit [en provenance] d’une activité de production ou d’utilisation d’iode 131 à des fins médicales, soit d’un réacteur nucléaire de production d’électricité ou de recherche », la première supposition s’étant avérée juste. La CRIIRAD (Commission de Recherche et d’Information Indépendantes sur la Radioactivité) et l’AIEA avaient renforcé leur surveillance, appelant le responsable à déclarer l’évènement, et les pays ayant observé cet épisode de contamination à la publication de leurs relevés afin de retracer le parcours de la contamination.

Hausse des émissions déjà constatée au premier semestre 2011

Le laboratoire de Budapest avait déjà suspendu sa production d’isotopes du mois de juin au mois d’août dernier, lorsqu’une hausse des émissions d’iode radioactif avait été constatée, lors du premier semestre de l’année 2011. D’après les dirigeants de l’Institut hongrois de recherche sur les isotopes, les niveaux relevés étaient restés en deçà du seuil toléré par les autorités compétentes, ce qui ne les a pas empêché de revoir complètement le système de filtrage du laboratoire. Cette refonte n’a pourtant pas eu les effets escomptés, les relevés n’indiquant alors aucune amélioration à la reprise de l’activité au mois de septembre dernier. Le laboratoire aurait de nouveau suspendu sa production.

Mesures réalisées en France

Les balises du réseau Téléray avaient détecté des traces d’iode 131 sous forme particulaire, au niveau des balises situées à Bure, Charleville-Mézières, Orsay et Le Vésinet, d’après un communiqué de l’IRSN daté du 15 novembre 2011. La première détection concerne l’échantillon de Bure (2 au 7 novembre 2011 : 0,79 µBq/m3). La valeur la plus élevée a été mesurée tout près de la capitale, au Vésinet, avec 12 µBq/m3 (du 6 au 9 novembre 2011).

Pollution au césium 134 et au césium 137 à Krško

D’après le site « European Radiological Data Exchange Platform », des niveaux anormalement élevés d’iode 131, de césium 134 et de césium 137 auraient été relevés près de la seule centrale nucléaire slovène, celle de Krško, située à 120 kilomètres à l’est de la capitale Ljubljana et à une vingtaine de kilomètres de la frontière croate. Les autorités slovènes n’ont pas communiqué sur les niveaux, certes faibles, relevés autour de la centrale. L’inquiétude paraît pourtant légitime, au regard de l’incident que cette centrale avait rencontré en juin 2008, bien que qualifié de mineur : la centrale avait alors connu « quelques fuites ».

Pétition de la CRIIRAD

Depuis la catastrophe de Fukushima en mars dernier, la CRIIRAD avait dénoncé « l’opacité concernant les résultats de surveillance de la radioactivité atmosphérique effectuée par le réseau international TICEN » (Traité d’Interdiction Complète des Essais Nucléaires), bien que le réseau s’appuie sur l’argent public provenant des États signataires du traité. La Commission avait demandé que « ces données soient rendues publiques pour faciliter la gestion des conséquences de Fukushima ou de toute autre contamination future ». Un appel à signer la pétition pour la levée du secret sur les résultats du réseau international de contrôle de la radioactivité atmosphérique avait alors été lancé, appel assez massivement suivi par plus de 80 000 signataires.

Par Rahman Moonzur

 

À lire aussi :

De mystérieux rejets d’iode radioactif dans l’air : qui est le coupable ?

Belgique : un « non au nucléaire » de plus ?

Nucléaire : de bonnes perspectives mondiales, même après Fukushima

Cahier « Nucléaire : Fukushima et après ? »

Accident nucléaire de Fukushima : Causes et conséquences

 

 

La sécurité dans le cloud: une approche fournisseur basée sur les risques

De nombreuses entreprises hésitent à transférer leurs données, leurs applications et/ou processus dans le Cloud du fait des cas de pannes de réseaux et d’infractions de systèmes qui ont récemment fait la une. Il y a quelques mois, le réseau Amazon EC2 est tombé en panne, causant l’indisponibilité durant 3 jours d’un grand nombre de sites Internet. Au même moment, Sony Corporation était contraint de fermer ses services cloud après avoir révélé publiquement qu’un hacker avait eu accès aux informations privées de plus de 77 millions d’utilisateurs du PlayStation Network en ligne. Ces incidents poussent à la fois les experts et les clients à se demander si la sécurité représente un problème plus important dans le cloud computing que dans une autre forme d’hébergement. Pas vraiment. Et ce, même si les différents modèles de services et les technologies appliquées pour permettre les services cloud introduisent effectivement de nouveaux risques. Pour une entreprise, opter pour le cloud computing signifie perdre le contrôle de son environnement IT, tout en conservant la responsabilité de celui-ci, même si la responsabilité des opérations est confiée à un
tiers.

En ce qui concerne les risques, les services cloud ne sont pas plus difficiles à gérer que les applications traditionnelles dans les centres de données privés de l’entreprise. Dans les deux cas, le niveau de protection est identique aux mesures de sécurité prises en fonction de l’analyse des risques. Cela comprend les mesures prises pour la sécurité physique, du réseau, du système et de l’information. Cela peut également entrainer des mesures supplémentaires, telles que les politiques d’accès et les règles de conduite des employés et des processus.

La question la plus importante que toute organisation devrait se poser avant d’opter pour le Cloud est: ‘Est-ce que mon fournisseur de cloud est capable d’égaler ou de proposer bien plus que mon niveau de protection actuel?’ La rentabilité résultant de l’évolutivité, l’uniformité et la standardisation, est l’un des avantages les plus attractifs du cloud computing.

Cependant, les fournisseurs de cloud doivent également offrir des services suffisamment flexibles pour répondre à la plus vaste clientèle possible, et par conséquent, les mesures de sécurité sont considérées comme des contraintes dans l’atteinte d’une telle flexibilité. C’est la principale raison pour laquelle les fournisseurs de cloud sont souvent incapables d’offrir le même niveau de sécurité que celui proposé dans les environnements informatiques traditionnels.

Si les fournisseurs de cloud ne peuvent pas offrir des mesures de sécurité fiables, de solides accords doivent donc être convenus en matière de responsabilité. Dans les environnements SaaS (Software as a Service), les mesures de sécurité et leurs champs d’action sont formulés au travers de contrats. Dans les modèles IaaS (Infrastructure as a Service), la sécurité de l’infrastructure sous-jacente ainsi que les couches supérieures, sont sous la responsabilité du fournisseur IaaS. Le reste de la chaine, tels que les systèmes d’exploitation, les applications et les données ayant recours à l’infrastructure, sont sous la responsabilité du client. Le modèle PaaS (Platform as a Service) est situé quelque part entre le SaaS et PaaS. La sécurité de la plateforme fait partie des responsabilités du fournisseur PaaS; cependant, le client est responsable de la protection des applications développées sur cette plateforme.

Il est important d’attribuer des responsabilités en cas d’incidents ou de catastrophes, comme nous avons pu le constater lors des pannes du réseau Amazon EC2. Dans ce cas, il n’y avait pas de serveurs de sauvegarde redondant sur site distant pour maintenir les opérations. Il n’y avait pas non plus de système de basculement (fail-over) pour transférer temporairement les services vers un autre fournisseur cloud. L’exemple d’Amazon montre qu’il est important de se prémunir contre tous types de risques. Bien sûr, cela ne s’applique pas seulement aux fournisseurs de cloud, mais aussi aux
entreprises, qui devraient prévoir de tels risques.

La sécurité réseau

Si la sécurité de l’IT dans les centres de données privés exige des règles et des mesures strictes, il en va de même pour le Cloud. Les réductions de coûts d’une application SaaS sont sans valeur si les données et la réputation de l’entreprise sont compromises. Le fournisseur de cloud doit garantir la sécurité du Cloud, mais également celle du réseau et de l’environnement physique. Il est donc important de choisir un fournisseur de cloud ayant des antécédents professionnels et une expertise solides, mais également, proposant les meilleures solutions en matière de sécurité réseau et de
sécurité du système d’exploitation. Celui-ci devrait également être en mesure de démontrer que tous les risques de sécurité ont été évalués et jugés acceptables, que la protection du système a été testée, et que les menaces peuvent être contrôlées ou évitées. En outre, il est important d’évaluer
comment le fournisseur de cloud réagit face aux incidents. Par exemple, y a-t-il un centre des opérations de sécurité (SOC) mis en place?

Enfin, la sécurité réseau devrait protéger tous les points d’accès virtuels du cloud. Les fournisseurs de cloud doivent employer des règles et procédures de sécurité bien managées pour bloquer les attaques. Ils devraient également être en mesure de rechercher et d’arrêter les menaces émergentes
avant que celles-ci ne représentent un véritable danger.

La sécurité physique

En informatique virtuelle, il n’est plus possible d’envisager des mesures de sécurité physiques. Toutefois, si un fournisseur de services offre un support externe via des services de centres de données, des services gérés ou un service cloud, il est impératif d’évaluer quelles sont les mesures de
sécurité physiques prises au sein du site où les données sont hébergées. Y a-t-il des portes d’accès installées, y a-t-il une surveillance mise en place? Il est également recommandé de choisir un fournisseur de cloud qui assure des mesures de sécurité physiques selon les certifications SAS 70 ou
ISO 9000.

L’ingénierie sociale est en hausse, car il s’agit là d’un moyen parfait pour accéder aux périmètres de sécurité physiques ou réseaux. Des individus tentent d’obtenir la confiance des employés par téléphone ou en personne pour accéder aux centres de données ou en persuadant les employés de
partager les informations qu’ils pourront ensuite utiliser pour pirater les systèmes de données. Par conséquent, en plus des mesures techniques, le fournisseur de cloud doit définir et faire mettre en application des règles de conduite et des directives de comportement pour les employés. Un
excellent moyen de tester la conformité de ces règles est d’embaucher un ‘hacker éthique’, qui tentera d’accéder à des environnements physiques et numériques pour le compte du client.

Lorsque l’on pense à la sécurité physique, il est également conseillé d’examiner les solutions spécifiques que le fournisseur de cloud a mis en place pour la récupération des données dans le cas d’un sinistre. Où les données sont-elles stockées quand elles ne sont pas utilisées? Est-ce que les
données sont encryptées et disponibles sur un site distant redondant?

La zone d’ombre

L’une des caractéristiques du cloud computing est que plusieurs utilisateurs tirent profit de la même application ou matériel. Cet environnement dit ‘mutualisé’ implique que les informations deplusieurs entreprises sont contenues dans un seul système physique. Il est donc essentiel de
s’assurer que les systèmes soient segmentés correctement et que leurs données et applications soient bien séparées les unes des autres. Cependant, les environnements virtuels fonctionnent différemment des serveurs traditionnels. Ces derniers surveillent tout le trafic sur le champ, par le biais d’un commutateur ou d’un routeur Ethernet physique. Dans un environnement virtuel, les données sont transmises par le biais d’un adaptateur virtuel, sans jamais passer par un appareil physique. Cela crée une zone d’ombre dans la communication entre le centre de données et l’utilisateur final, et par conséquent un problème de sécurité potentiel. La mise en place d’une appliance de sécurité physique ou virtuelle entre le fournisseur de cloud et l’entreprise privée peut s’avérer être une solution intelligente, car cela permettra de fournir la bonne combinaison de
performances et de contrôle à travers les flux du trafic.

En conclusion, il y a de nombreuses façons d’aborder le Cloud: via les modèles de services SPI (Software-as-a-Service, Platform-as-a-Service, of Infrastructure-as-a-Service), le cloud public versus privé, l’hébergement interne versus externe, ainsi qu’un grand nombre de solutions hybrides.
Compte tenu du nombre d’options, il n’y a pas de liste standard de mesures de sécurité qui couvre tous les événements possibles de façon exhaustive. Donc, avant de s’y engager dans le Cloud, les entreprises devraient adopter une approche basée sur les risques et être sûres que les mesures de
sécurité nécessaires n’entravent pas l’efficacité et la rentabilité attendues des solutions de cloud.

 

À lire aussi :

Le Cloud Computing, un atout précieux pour la gestion des risques et des assurances

Cahier « Cloud Computing : une révolution en marche »

Cloud Computing : des chercheurs de Bochum ont découvert des failles de sécurité critiques

Qu’est-ce que le Cloud Computing va changer pour vous ?

REACH : les news du mois de novembre

Avis du Comité économique et social européen sur la « Proposition de règlement du Parlement européen et du Conseil concernant les exportations et importations de produits chimiques dangereux (refonte) »

(29/10/2011)
Le Comité économique et social, lors de sa 473ème  session plénière des 13 et 14 juillet 2011 (séance du 13 juillet 2011), a décidé de rendre un avis favorable sur la « Proposition de règlement du Parlement européen et du Conseil concernant les exportations et importations de produits chimiques dangereux (refonte) ». L’avis publié au Journal Officiel de l’Union Européenne le 29 octobre 2011, est consultable sur :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2011:318:0163:0163:FR:PDF

Ecophyto2018

À la suite du Grenelle de l’environnement, le plan Ecophyto 2018 constitue l’engagement des parties prenantes – qui l’ont élaboré ensemble – à réduire de 50 % l’usage des pesticides au niveau national dans un délai de dix ans, si possible. Le plan Ecophyto 2018 vise notamment à réduire la dépendance des exploitations agricoles aux produits phytos, tout en maintenant un niveau élevé de production agricole, en quantité et en qualité. Le troisième Conseil national d’orientation et de suivi de ce plan s’est réuni mercredi 26 octobre dernier. Bilan : des progrès concernant la vente de CMR et l’emploi de méthodes alternatives mais une hausse de l’emploi d’herbicides hors traitement des semences.
http://agriculture.gouv.fr/Comite-national-d-orientation-et

Une nouvelle demande de classification et d’étiquetage harmonisés

(31/10/2011)
L’ECHA a lancé une consultation pour l’harmonisation de la classification et de l’étiquetage du formaldéhyde (N° CAS : 50-00-0 et N° CE : 200-001-8). Les commentaires sont à soumettre avant le 15 décembre 2011.
http://echa.europa.eu/consultations/harmonised_cl_en.asp

Informations pour éviter les essais inutiles sur les animaux – 4 nouvelles substances concernées

(03/11/2011)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • Copper hydroxide nitrate (N° CAS : 12158-75-7 et N° CE : 439-590-3)
  • Alcènes, C11-12 (tests proposés avec le oct-1-ene (N° CE 203-893-7)) (N° CE : 931-515-7)
  • Nanotubes de carbone multi-parois, graphite synthétique sous forme tubulaire (N° CAS : 7782-42-5 et N° CE : 231-955-3)
  • Réaction de masse des Alcènes C20-24 and Alcènes C24-28 (tests proposés avec le oct-1-ene (N° CE 203-893-7) (N° CAS : 93924-10-8  et N° CE : 931-746-3)

Les informations sur ces substances sont à soumettre pour le 19 décembre 2011.
http://echa.europa.eu/consultations/test_proposals/test_prop_cons_en.asp?consultations_status=current

Atelier pour les déclarants principaux les 2 et 3 février 2012

(03/11/2011)
L’ECHA a publié une page relative à l’atelier dédié aux déclarants principaux qui aura lieu les 2 et 3 février 2012. L’événement s’adresse tout particulièrement aux déclarants principaux et se fera sur invitation seulement. L’atelier sera diffusé en direct sur le Web et les présentations seront publiées sur le site de l’ECHA après l’événement. Retrouvez toutes les informations relatives à cette évènement sur :
http://echa.europa.eu/news/events/lead_registrant_workshop_2012_en.asp

Poste à pourvoir à l’ECHA

(04/11/2011)

L’ECHA a publié une nouvelle offre d’emploi. Cette offre peut être consultée à l’adresse http://echa.europa.eu/opportunities/positions_en.asp. La date limite d’envoi des candidatures est le 5 décembre 2011.

Registre d’intention : une nouvelle intention

(08/11/2011)
Le registre d’intention pour l’annexe XV du règlement REACH comporte une nouvelle substance pour des propositions de restriction : le 1,4-Dichlorobenzene (N° CAS : 106-46-7 et N° CE : 203-400-5). La date de soumission des éléments est prévue pour le 21 avril 2012.
http://echa.europa.eu/chem_data/reg_int_tables/reg_int_en.asp?substance_type=Restriction&substance_state=current

5181 Substances enregistrées

(09/11/2011)
L’ECHA a mis à jour le 3 novembre, la liste des substances enregistrées. Elles sont au nombre de 5181. Cette liste est consultable sur :
http://apps.echa.europa.eu/registered/registered-sub.aspx

L’ECHA double le nombre de stagiaires

(11/11/2011)
L’ECHA a mis en place un schéma pour répondre à la demande forte de l’industrie pour la mise en place des règlements REACH et CLP et aider les jeunes diplômés à trouver un emploi en tant que scientifiques réglementaires dans le domaine de la réglementation des produits chimiques. Pour atteindre ses objectifs, l’ECHA recrute des chimistes, des toxicologues, des écotoxicologues, des biocides et des experts en évaluation des risques et des spécialistes des affaires réglementaires. Le schéma nouveau diplômé, qui a été développé en collaboration avec la Commission européenne, vise à améliorer le personnel qualifié disponible pour travailler à l’ECHA, et aider les jeunes diplômés à trouver un emploi en tant que scientifiques réglementaires et professionnels de la réglementation dans le domaine des produits chimiques.
http://echa.europa.eu/news/pr/201111/pr_11_24_graduate_scheme_en.asp

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

De mystérieux rejets d’iode radioactif dans l’air : qui est le coupable ?

L’Institut de radioprotection et de sûreté nucléaire (IRSN) a été alerté la semaine dernière par son « réseau scientifique » sur des traces d’iode 131 dans l’air de plusieurs pays d’Europe centrale. Il a à son tour lancé une vague d’analyses, dont les premiers résultats montrent de très faibles niveaux de concentration d’iode radioactif dans la moitié nord de la France.

Une présence « tout à fait inhabituelle » mais « sans aucun risque pour la santé des populations » car ne dépassant pas quelques microBécquerels par mètre cube, assure l’Institut qui s’est malgré tout immédiatement lancé sur la piste de ces rejets anormaux pour remonter à leur source.

Une seule chose était sûre mardi : les installations de Fukushima, victimes d’un grave accident en mars dernier, sont hors de cause.

L’iode 131 a une durée de vie très courte – sa radioactivité diminue de moitié tous les huit jours – et l’événement est « trop ancien et trop lointain », a expliqué à l’AFP Didier Champion, directeur de l’environnement et de l’intervention à l’IRSN.

« Par ailleurs, on a regardé les trajectoires de l’air et ça aurait dû être détecté en Amérique du Nord si ça s’était produit au Japon, donc cette piste est exclue aujourd’hui », ajoute-t-il.

« Europe centrale ou un peu plus loin » Point de départ des investigations, l’alerte lancée le 11 novembre par l’Agence Internationale de l’Énergie Atomique (AIEA) sur la présence d’iode 131 dans l’atmosphère en République tchèque, puis l’annonce de pays voisins (Pologne, Autriche et Slovaquie notamment) ayant constaté la même contamination au-dessus de leur territoire.

Tout ceci « laisse penser que le rejet viendrait plutôt d’Europe centrale ou d’un peu plus loin », analyse Didier Champion.

Hongrie, Slovénie ou même République tchèque? Toutes disposent d’installations nucléaires mais il est aujourd’hui impossible « de cibler tel ou tel pays », insiste l’expert.

« L’idéal, c’est que le pays où s’est produit le rejet déclare l’événement, notamment à l’AIEA, ce qui à ma connaissance n’a pas été fait », dit-il.

Si le coupable ne se dénonce pas, il faudrait alors que tous les pays ayant observé cet épisode de contamination publient leurs résultats pour les mettre en commun et retracer ainsi le parcours des masses d’air polluées.

Car « en remontant dans le temps », les scientifiques peuvent déterminer les territoires traversés par cet air radioactif et « voir si des activités nucléaires se situent sous ces trajectoires », explique Didier Champion.

Les experts français aimeraient aussi connaître la nature de l’incident ayant entraîné une telle contamination, qui ne constitue certes « pas une menace à l’échelle de l’Europe mais peut être un problème au niveau local » pour l’environnement et la santé si la dose de radioactivité émise est importante.

Une centrale nucléaire ou un réacteur de recherches pourraient être à l’origine de ces rejets mais ils produisent différents types de substances radioactives (césium, xénon, etc). Or, pour l’instant, seules des traces d’iode 131 ont été détectées.

Autre piste : une installation produisant des isotopes radioactifs à usages médicaux, comme ce fut le cas à Fleurus en Belgique en 2008, indique Didier Champion.

Enfin, « on ne peut pas non plus exclure un rejet de type malveillant » même si « ce n’est pas la voie la plus probable », assure-t-il.

 

(Source et crédit photo : AFP)

 

À lire aussi :

Belgique : un « non au nucléaire » de plus ?

Nucléaire : de bonnes perspectives mondiales, même après Fukushima

Cahier « Nucléaire : Fukushima et après ? »

Sortie du nucléaire : l’Allemagne couvre tout juste ses besoins

Accident nucléaire de Fukushima : Causes et conséquences

Cafouillage autour de l’EPR de Flamanville

Alors que les négociations battent leur plein entre le Parti Socialiste et Europe Écologie Les Verts (EELV) au sujet du nucléaire et plus particulièrement de l’EPR (European Power Reactor) de Flamanville, dans le département de la Manche, l’annonce du quotidien économique La Tribune a fait l’effet d’une bombe : « En pleine polémique sur Flamanville, EDF se prépare à abandonner l’EPR ». Des propos qui sont néanmoins nuancés dans l’article, le quotidien annonçant que l’électricien français, futur opérateur de la centrale, travaillerait sur un autre projet.

La Tribune rapporte qu’ « une partie des équipes nucléaires de l’électricien juge depuis le début trop coûteux et trop sophistiqué ce réacteur, conçu sans eux », rappelant que « l’EPR a été conçu principalement en Allemagne, sur le modèle du réacteur allemand Konvoi, deux fois plus cher que les centrales françaises. » Le projet, initié en 1990 dans le cadre du réchauffement diplomatique entre la France et l’Allemagne, accumule les retards et cristallise bon nombre de critiques.

Hervé Machenaud, membre du comité exécutif d’EDF en charge de la production et de l’ingénierie, laisse entendre que la réflexion reste ouverte quant au choix du modèle, mais pas en ce qui concerne un éventuel abandon du projet en l’état. Le changement de cap, s’il a lieu, serait à chercher du côté de la Chine, et d’un réacteur plus petit. « L’électricien planche avec son partenaire, le chinois CGNPC, sur un autre réacteur, plus petit (1 000 MW, contre 1 700 MW pour l’EPR) », explique un proche du dossier. « Et celui-ci n’aura pas grand-chose à voir avec l’EPR », ajoute-t-il encore.

Par Rahman Moonzur

 

À lire aussi :

EPR Flamanville : des malfaçons dans le gros oeuvre relevées par l’ASN

EPR de Flamanville : des « écarts » selon l’ASN

La sûreté nucléaire en France, au centre des débats

Le personal branding ou le tout à l’ego ?

Gestion de sa marque personnelle, identité et réputation numérique, « processus d’éclosion et de mise en visibilité d’une marque personnelle » par l’alliance de diverses disciplines, à savoir le Marketing, la Communication, la Connaissance de Soi et le Web Social, le personal branding est donc un nouveau mode de gérance de notre carrière professionnelle. Objectif : faire valoir son expertise, mais surtout gagner en visibilité, en reconnaissance et en notoriété.

Concrètement, ce nouveau concept vise à faire de soi-même une véritable marque et d’en assurer la promotion. Dans les faits, il consiste avant tout à être vu, reconnu, et partant de là, consulté.
Que ce soit dans le cadre d’une activité en free-lance où l’expertise est le nerf de la guerre, ou dans celui d’une recherche d’emploi où la compétence reconnue équivaut à une offre potentielle d’emploi.

Moi, moi, moi, je, je, je

Le personal branding est un art, phénomène symbole de notre époque du tout à l’ego où on n’est jamais aussi bien servi que par soi-même.
Là où auparavant, une notoriété se bâtissait sur ses réalisations, le bouche à l’oreille, les recommandations client, aujourd’hui, c’est vous qui devenez le promoteur de votre propre légende.

Toi aussi, deviens coach en personal branding

Fleurissent sur la toile et ailleurs les nombreuses activités qui découlent logiquement de ce nouveau concept car apprendre à parler de soi, à se faire connaître ne peut s’improviser.
Si les professionnels de la communication maîtrisent parfaitement tous les outils, ce n’est pas le cas de tous, et ce n’est donc pas un hasard si les personnes les plus identifiées de la toile mondiale sont toutes issues de ce milieu.
Le personal branling ne s’invente pas, et du coup on peut voir surgir des « coachs en personal branding », des livres pour apprendre à gérer soi-même sa e-réputation (idées cadeau pour Noël), des ateliers master class et des formations pour devenir  « Certified Personal Branding Strategist (CPBS) ».
Le personal branding a même sa journée consacrée, comme le design a ses designer’s Saturday, la réputation on line aussi avec son Reputation day.

Du personal branding au personal branling

De la construction de sa e-réputation à la glorification personnelle tout azimut, le pas devait être franchi. Et c’est ainsi qu’est né le « personal branling », jeu de mot facile qui désigne ironiquement ceux qui confondent « personal branding » avec le « je me la pète grave ».

A trop glorifier le « moi moi moi » on en oublie l’humilité et on en devient alors coupable de « personal branling », autrement, de masturbation égotique, un site s’amuse même à dénoncer les dérapages incontrôlés des personal branleurs, avec pour devise : «  Ils ont le droit de se la raconter. On a le droit de les dénoncer ».

On connaissait déjà les courses à l’échalote de celui qui avait le plus d’abonnés, les concours de celui qui pissera plus loin que les autres et dont les gagnants sont désignés par des classements, Wikio pour les blogs et Klout pour les comptes twitter. Mais le comble de cette dérive est atteint par de nouveaux services qui proposent même pour les utilisateurs du réseau social Twitter d’acheter des followers, des faux abonnés pour frimer sur les réseaux sociaux (Il se dit même que les plus connus y succombent…).

Ainsi peut-on pour 67 € se porter acquéreur de 1 000 followers, pour 499 € de 5 000 et méditer alors cette morale de la Fontaine :

« La chétive pécore
s’enfla si bien qu’elle creva »

La Grenouille qui veut se faire aussi grosse que le bœuf
 

Par Dom Bochel / Maviepro

 

À lire aussi :

Mon patron est une icône… Steve Jobs et les limites du personal branding

Une unité pilote de Biométhanisation sur Pollutec

Dans la continuité de l’intérêt déclenché par l’inauguration de la première unité de biométhanisation en France à Moissac en septembre dernier, GreenWatt sera présent sur le salon Pollutec. Les visiteurs pourront assister en direct au fonctionnement de cette « mini centrale » et comprendre le principe de la biométhanisation. Les professionnels agro-alimentaires confrontés au traitement des déchets solides et effluents liquides auront ainsi la possibilité de découvrir une réponse économique et écologique à leur problématique. En effet, si l’utilisation des déchets de melons ou d’endives n’est plus à démontrer, les industriels et producteurs pourront se rendre compte que cette solution s’adapte également à leurs propres déchets, afin de les convertir en énergie et en engrais.

L’expertise et l’innovation en matière d’énergie renouvelable

Reconnue pour son expertise dans le domaine des énergies vertes, GreenWatt partagera son expérience lors de « La Grande Emission » sur le thème des énergies renouvelables, le mercredi 30 novembre à 10 heures sur le plateau de Pollutec TV, afin de faire le point sur l’innovation et l’actualité dans ce secteur. Une innovation que les visiteurs pourront également découvrir lors du parcours fléché « Innovation », puisque GreenWatt est labellisée Entreprise Innovante sur cette édition 2011 du Salon Pollutec.

L’expérience des ingénieurs GreenWatt pour une réponse adaptée

Pendant les 4 jours du salon, les ingénieurs et la direction de GreenWatt seront à la disposition des visiteurs afin de leur présenter leur solution et répondre à toutes leurs questions. L’opportunité d’étudier les avantages d’une telle installation, en fonction de leur activité et de leurs besoins, que ce soit en termes d’économies réalisables, de rentabilisation et de gains financiers. Une approche économique et écologique qui intéresse de plus en plus les professionnels de l’industrie et de l’agro-alimentaire.

Par P.T

A lire également sur Instantanés Techniques :

 

Qui veut devenir le meilleur client du marché ?

100 % des DSI font appel à des prestations récurrentes. Et leur poids tant dans les budgets que dans la chaine de valeur des DSI va continuer à croitre dans les prochaines années.
 
Le sourcing est une réalité incontournable. Les faits sont là : Aucune DSI ne saurait aujourd’hui se passer de ses prestataires de services, et leur poids s’accroit régulièrement. Les études récentes montrent que la crise n’a rien changé à ce phénomène, si ce n’est pour l’accélérer légèrement. Il ne s’agit pas là d’un mouvement de balancier, mais d’une tendance lourde. Les moteurs de cette tendance sont bien connus :

  • recherche d’économies qui incite à mutualiser sur des échelles croissantes équipes et systèmes ;
  • besoin d’une expertise de plus en plus poussée sur un nombre accru de sujets techniques ;
  • exigence croissante des métiers et des clients ;
  • difficulté à recruter, notamment en raison de contraintes internes imposées aux DSI.

La nature des prestations se transforme… Bien qu’elle représente un CA mondial 2010 estimé à 280 Md$, les prestations informatiques sont encore une industrie en pleine maturation. Clients et prestataires sont engagés dans une maturation progressive des relations qui part du mode « régie », l’assistance technique, et se termine dans un mode partenariat industriel :

  • Volonté des organisations de focaliser leurs ressources sur leur « cœur de métier ».

D’intégrateur de technologies, de solutions ou de services, le manager de la DSI se découvre aussi un rôle d’intégrateur de prestataires. 100 % des DSI sont devenues des entreprises étendues. Chaque étape de ce voyage offre au client une valeur supplémentaire. A chaque étape, le périmètre de responsabilité du prestataire croit, ainsi que le nombre de leviers d’actions de ce dernier :

  • Industrialisation des activités réalisées ;
  • Pilotage intégré – autonomie – évitant des allers-retours avec le client ;
  • Mise en commun des expertises rares ;
  • Accès à des ressources délocalisées.

Cette valeur a un prix : au-delà des risques standards du sourcing (perte de contrôle sur la prestation), piloter un prestataire à « haute valeur ajoutée » nécessite un savoir-faire spécifique. L’organisation cliente se doit d’avoir atteint le niveau de maturité nécessaire dans la gestion de ses prestataires et cela va au-delà de l’efficacité des processus mis en place.

Clients et fournisseurs sont en pleine maturation… et doivent continuer à progresser

Clients et prestataires ont largement progressé ces dernières années. Les prestataires ont investi significativement sur leurs infrastructures, leurs méthodes et leurs processus et se sont mis en marche vers une véritable industrialisation. Les clients, eux, ont amélioré, leur capacité à contractualiser, à effectuer des transitions et à manager leurs prestataires. L’histoire des relationsclient-fournisseur dans le monde de l’IT est pavée… de réussites.
 
Pour autant, de trèsnombreux progrès restent à accomplir. Clients et prestataires continuent à nous confier leur difficulté à fonctionner de façon efficace et harmonieuse. Lescontrats en difficulté, les performances en berne, les coûts en hausse pour les uns, les rentabilités mauvaises ou nulles pour les autres, les réversibilités difficiles restent un spectacle fréquent sur ce marché.
 
Selon une étude réalisée par l’itSQC, consortium chargé de l’élaboration du référentiel de bonnes pratiques eSCM, déjà (ou seulement, suivant les points de vue) 50 % des contrats se déroulent conformément aux attentes. Un manager d’un grand groupe de luxe confiait « si nous avons aussi rapidement implanté des boutiques en Chine et au Moyen Orient, c’est aussi grâce à notre partenaire WAN et à sa capacité à nouer rapidement les bons accords. » Un autre, dans un grand groupe industriel, expliquait « le succès du déploiement mondial de l’ERP tient en grande partie à l’utilisation d’un grand centre de services partagés capable de monter en régime rapidement.
 
Ne nous y trompons pas : ces progrès n’arriveront pas de façon miraculeuse, par le seul fait d’une hypothétique baguette magique (celle du moment porte le nom de Cloud computing), mais bien par des efforts patients des clients, d’une part, des prestataires, d’autre part. Outre les indispensables progrès restant à accomplir pour améliorer les niveaux d’industrialisation, la clarté des offres et des modèles de tarification, ou les processus et méthodes opérationnels, nous pensons que la gestion des relations et de la gouvernance conjointe des prestations est LE prochain levier de performance.

Renaud Brosse, Directeur Associé de Timspirit

A lire également dans Instantanés Techniques :

Le dos d’âne, source d’électricité ?

Roanoke, petite ville de Virginie. C’est dans cette ville de la côte Est des États-Unis que quelques automobilistes américains se sont associés dans le développement d’un système ingénieux de récupération d’énergie. Certains points stratégiques d’une ville essuient, plus que d’autres, des ralentissements ou des engorgements, temporaires (comme par exemple autour d’un stade) ou habituels. En partant du postulat que l’on peut utiliser ces ralentissements comme source d’énergie pour, par exemple, alimenter un panneau de signalisation temporaire, les inventeurs ont mis au point un système de conversion de l’énergie cinétique des voitures, passant sur un dos d’âne, en électricité.

New Energy Technology a testé son système, baptisé « MotionPower Express », en installant un de ces ralentisseurs à l’entrée de la petite (mais encombrée) ville de Roanoke, alors qu’un congrès et un cirque avait élu temporairement domicile dans la ville. Chaque voiture passant sur le ralentisseur comprime la pédale se trouvant à l’intérieur du dos d’âne, convertissant ainsi cette énergie cinétique en électricité. En près de six heures, quelques 580 voitures sont passées sur le ralentisseur, générant assez d’énergie pour alimenter le panneau électrique le plus proche. Sans ce dos d’âne, cette énergie aurait été perdue, entre autres sous forme d’échauffement des freins.

Les entrées de parking pourraient bien se prêter à l’installation d’un tel système, ainsi que les zones de travaux, lieux où la circulation doit être ralentie. Les péages, les aires de repos tout comme la zone à proximité des aéroports pourraient aussi très bien accueillir ce genre d’installation. La ville de Roanoke publiera les résultats de l’installation témoin en janvier prochain, et nous éclairera par la même sur le coût du système, et sur les économies réalisées par la ville.

Par Rahman Moonzur

 

À lire aussi :

Le dispositif des certificats d’économies d’énergie (CEE) se renforce

La récupération d’énergie au freinage fait ses preuves

Economie d’énergie avec des façades thermoplastiques

Les lampes à économie d’énergie : une fausse bonne idée ?