« Chez Veolia Eau, nous allons augmenter de 10 % les volumes des eaux usées que nous recyclons »

Techniques de l’Ingénieur : Pour commencer, pourriez-vous rappeler quels sont les enjeux du traitement de l’eau potable pour l’homme et les collectivités ?

Dominique Gâtel : L’eau potable est d’abord un enjeu de santé publique et de développement au sens large. Il y a une relation directe entre la qualité de ce service, et la santé d’une part, et le PIB d’autre part. Difficile de décoréller les trois, mais pour une société développée comme la nôtre, les coûts sanitaires et sociaux associés à des services dégradés sont rapidement mesurables dans le cadre d’études.

C’est aussi un enjeu difficilement isolable de la gestion du bassin-versant, car la question de la qualité de l’eau potable est révélatrice de la gestion de l’eau tout court : on doit éliminer en potabilisation ce qui reste une fois que les autres acteurs du bassin-versant sont passés par là : substances chimiques en tous genres y compris perturbateurs endocriniens, micro-organismes pathogènes, etc.

En lien avec cet aspect « gestion du bassin » se pose la question de la quantité d’eau consommée. On atteint progressivement les limites de capacité, d’autant plus qu’on cherche désormais à laisser suffisamment d’eau dans l’environnement pour maintenir la biodiversité, et que le changement climatique se traduit par des ressources plus fluctuantes en quantité.

Le tout, bien évidemment, dans un contexte de tensions budgétaires, les collectivités locales étant souvent proches de leurs limites de financement. Et là se pose un triple problème : investir pour faire face à des exigences réglementaires et de renouvellement croissantes, et donc trouver des économies et/ou augmenter le prix de l’eau, et enfin identifier et accompagner les usagers ayant des difficultés à payer leur facture d’eau.

Pouvez-vous expliquer rapidement les différentes étapes du traitement de l’eau potable ?

Le processus est différent en eau souterraine et en eau de surface. Pour une eau souterraine, il suffit en règle générale de retirer le fer (naturellement présent) par filtration, et de chlorer l’eau (obligation française). Pour une eau de surface, rivière ou lac, il faut en plus clarifier l’eau avec des coagulants, la décanter et la filtrer avant de la chlorer.

Ces 2 types de traitement de base peuvent en plus être complétés par des étapes de désinfection supplémentaires (ozone, membranes et/ou ultraviolets) pour inactiver les germes pathogènes, et de filtration sur résine échangeuse d’ions et/ou charbon actif pour retirer les micropolluants.

Quelles sont les sources d’eau utilisées pour le traitement de l’eau ? Viendront-elles à se tarir ?

Les collectivités, industries et exploitations agricoles sollicitent à peu près toutes les ressources naturelles : rivières, lacs, et eaux souterraines (à peu près 50/50 eau de surface/eau souterraine).

On atteint dans bien des cas les limites de ce que l’on peut tirer des ressources présentes. Des régions qui n’avaient pas connu de manques d’eau majeurs doivent maintenant attribuer des quotas de prélèvement, restreindre les usages, réquisitionner des ressources, etc. C’est loin d’être le cas général, mais la tendance est perceptible.

Donc, il faudra progressivement recourir à de « nouvelles » ressources en recyclant, plusieurs fois, l’eau usée avec des traitements appropriés ; c’est déjà très souvent le cas pour les industries.

En zone côtière, on se tourne progressivement vers le dessalement de l’eau de mer. C’est déjà très majoritairement le cas dans la péninsule arabique et bien des îles – dont l’Angleterre ! – et la France devra probablement y recourir aussi.

Les normes en vigueur sont-elles suffisantes ?

Cette question est à l’examen au niveau mondial, européen et français, le tout en coordination.

Au niveau mondial, l’OMS (Organisation Mondiale de la Santé) mène une revue permanente (« rolling revision ») des publications épidémiologiques et toxicologiques pour adapter si nécessaire les recommandations : paramètres à suivre et niveau de contamination acceptable.

L’Europe en fait autant, mais en cherchant à limiter l’exigence européenne aux problèmes d’ampleur européenne, et en faisant le lien avec les autorisations de mise sur le marché des produits chimiques, désormais délivrées par l’Europe : on pense ici à la réglementation REACH (produits chimiques), réglementations pesticides, etc. Car le meilleur moyen d’éviter la pollution de l’environnement par des substances dites « prioritaires » est d’en limiter la mise sur le marché, et cela ne peut se faire qu’au niveau européen.

Reste à charge de la France de respecter ces exigences européennes, minimales donc, et d’examiner les substances qui posent un problème particulier à la France, ou à une région.

C’est ainsi que, par exemple, les perturbateurs endocriniens font l’objet de recherches, dont les résultats sont examinés à la loupe en termes de risques pour l’eau potable et les populations, en cumulant à la fois la toxicité des molécules, et leur présence dans les ressources. Concrètement, si des milliers de substances sont potentiellement en cause, la pratique révèle que seules quelques-unes pourraient nécessiter de nouvelles normes à l’avenir pour protéger les populations sur le long terme. À suivre donc.

Quels sont les objectifs, les missions que se fixe Veolia Eau ?

Nous sommes une société de services, au public, aux collectivités locales et aux industries. Notre stratégie se résume en 3 lettres, SVR, pour Services, Valeur et Responsabilité.

Notre mission consiste à apporter des services dans la distribution de l’eau et la collecte, en s’assurant que les installations que nous gérons fonctionnent toujours de manière optimale. À l’échelle du groupe, cela consiste par exemple à diminuer de 5 % les volumes de fuites sur l’ensemble des réseaux qu’on gère pour alimenter plus de 100 millions d’habitants dans le monde. Un autre exemple de service que l’on améliore est l’efficacité énergétique des usines de traitement des eaux usées, de telle sorte que les KWh dépensés par gramme de DBO5 éliminé diminuent aussi de 5 %.

Le second élément de notre stratégie consiste à créer de la valeur, notamment en utilisant toutes les sources d’énergies et en recyclant ce qui peut l’être ; c’est ainsi que nous allons augmenter de 10 % les volumes des eaux usées que nous recyclons ; un autre exemple de cette volonté est sur la station d’épuration de Bruxelles Nord, où nous recyclons du bioplastique.

Le 3e élément concerne notre responsabilité, notre comportement éthique par rapport à l’ensemble des collectivités et des pays dans lesquels nous intervenons, et au-delà, pour la planète. Nous mettons bien évidemment ces mêmes engagements au service des industries qui doivent, elles aussi, optimiser leur gestion de l’eau. Cette responsabilité passe par différentes actions, par exemple la comptabilisation des émissions globales de gaz à effet de serre des exploitations gérées par Veolia Eau, l’accroissement du nombre de sites ayant réalisé un diagnostic ou mis en place un plan d’actions pour restaurer la biodiversité locale, ou encore la généralisation des systèmes de management environnemental.

Qu’ a mis en place Veolia pour répondre à ces objectifs ?

Difficile de résumer une organisation en quelques minutes ! Veolia est fondamentalement un réseau professionnel coordonné de taille mondiale, capable de tester, ou détecter, et généraliser une expérience positive, de porter une solution qui prouve son efficacité quelque part sur la planète, et ce aux meilleures conditions économiques, pour satisfaire les orientations et critères des différents clients industriels et municipaux.

Qu’apportent les centres de recherche ?

Les centres de recherche développent et mettent à disposition des opérationnels un support méthodologique et expérimental pour détecter, évaluer, fiabiliser et optimiser les solutions dont j’ai parlés, évidement en lien avec le monde de la recherche tant fondamentale qu’appliquée.

Quels sont vos projets à venir ?

On travaille à peu près sur tous les procédés de traitements, en particulier beaucoup sur les membranes qui apportent à la fois robustesse aux performances et compacité aux installations.

Notre portefeuille de projets comprend aussi des projets d’ordre méthodologique, notamment pour mieux systématiser l’usage d’indicateurs de performance, au-delà de ce qui est réglementaire, notamment dans le domaine des pressions sur les ressources d’émission de gaz à effet de serre et économies d’énergie.

Interview réalisée par Sébastien Tribot, journaliste

 

A lire aussi :

« La réduction du coût énergétique du dessalement est le challenge à relever »

 

 

 

 

Une pile à combustible microbienne capable de produire de l’électricité et dépolluer l’eau

Le principe est celui d’une pile à combustible et repose sur l’activité bactérienne. L’hydrogène est oxydé au contact de l’anode, ce qui libère un électron. L’ion hydrogène qui en résulte est ensuite récupéré au niveau de la cathode, avec l’électron. L’électricité résulte donc d’un transfert d’électrons entre deux électrodes, à savoir de l’anode vers la cathode.

Dans le cas présent, les bactéries ne se contentent pas de produire du courant, mais se nourrissent d’eaux usées. Les matières organiques présentes dans les eaux polluées sont ainsi dissoutes par des micro-organismes appelés « électricigènes ». De fait, l’eau est purifiée.

Les piles à combustible microbiennes pourrait bien se révéler fort utile dans les stations d’épuration. Cette nouvelle technologie offre en effet de multiples avantages dans le traitement de l’eau. Notamment, au niveau de l’utilisation des ressources, telles que l’oxygène ou divers produits chimiques, nécessaires au traitement de l’eau. Mais aussi concernant la réduction de la production de gaz à effet de serre.

Ces bactéries pourraient même être utiles à la mesure de la pollution. Selon une interview accordée à Ouest-France par Frédéric Barrière, responsable du projet de PCM à l’université de Rennes, le taux de pollution des eaux usées serait proportionnel à la quantité d’électricité produite. Cela serait un baromètre de pollution novateur.

Les recherches se poursuivent dans divers pays et universités. En France, Rennes, Lyon et Toulouse se démarquent par leurs travaux. Et bien que la pile à combustible microbienne ne soit pas encore en service, ce processus naturel d’élimination des déchets inspire. En Australie par exemple, quelques prototypes ont été installés par l’université de Queensland pour le traitement des eaux usées et l’alimentation en électricité dans une brasserie.

Les piles sont encore en phase de test. Pas d’emballement donc. D’autant que plusieurs difficultés sont apparues aux yeux des chercheurs, dont celle de collecter l’énergie et celle de gérer une concentration de matières organiques sans cesse différente dans les eaux usées.

Pour l’heure, l’utilisation de ce système au niveau industriel n’est pas prévue. Mais cette nouvelle technologie est très prometteuse. À l’avenir, les stations d’épuration seront probablement autonomes. Et qu’en sera-t-il du voyage spatial ? La pile à combustible microbienne gérera-t-elle le renouvellement de l’eau et la production d’électricité dans les fusées ?

Par Sébastien Tribot, journaliste

La rareté de l’eau nous oblige à une meilleure gestion commune de la ressource

A travers nos 150 ans d’histoire, nous avons déjà accompagné deux ruptures majeures en matière de gestion de l’eau en Europe : celle de l’hygiène et de la santé à la fin du dix-neuvième siècle, et celle du confort urbain dans la deuxième moitié du vingtième siècle.

Aujourd’hui, nous développons de nombreuses solutions technologiques existent pour optimiser la gestion des ressources. Mais elles ne sont rien sans une gouvernance qui garantisse leur adéquation avec les besoins des usagers et la bonne coordination des acteurs qui les mettent en oeuvre. La gouvernance est LA clef de voûte de la transition vers l’ère de la rareté : gestion intégrée des écosystèmes mais aussi implication de toutes les parties prenantes dans la gestion des services.

Certaines de nos expériences passées dans les pays émergents nous ont appris qu’une gouvernance défaillante peut faire échouer des projets quelque soit l’investissement technique, humain et financier engagé.

Renforcer le rôle des collectivités européennes

Les opérateurs ont absolument besoin de collectivités locales fortes pour piloter leur travail et d’un contrôle public efficace. Au niveau européen, nous militons pour un renforcement du rôle des collectivités locales dans l’élaboration des politiques environnementales, celles-ci se retrouvant bien trop souvent contraintes de mettre en œuvre des décisions prises par les Etats, en ignorant les spécificités des territoires.

Mieux impliquer les collectivités dans les processus décisionnels permettrait aussi de favoriser la coopération des territoires partageant les mêmes caractéristiques, comme par exemple les Alpes ou le bassin Méditerranéen : ces milieux naturels fragiles et très spécifiques exigent une gouvernance dépassant les cadres nationaux.

Vers une responsabilité partagée des acteurs

Nous défendons le principe de l’association étroite des usagers aux grands choix de gestion ainsi qu’à leur mise en œuvre.

C’est le sens de l’initiative lancée en 2009 par Lyonnaise des Eaux en France : les « Idées neuves pour l’eau ». C’est une démarche inédite en Europe et il est assez étonnant de constater que si la participation des usagers est un principe clef de gestion des projets de développement, elle reste relativement marginale dans les pays du Nord. L’implication des usagers et la tarification progressive des services sont des thèmes sur lesquels le Nord a beaucoup à apprendre du Sud, tout particulièrement sur la politique sociale de l’eau, qui préoccupe les collectivités.

La nouvelle génération de contrats sur lesquels nous travaillons est fondée sur la responsabilité commune des acteurs, comme en Australie dans les contrats d’Alliance ou en France avec celui que nous avons récemment renouvelé avec la ville de Dijon.

Autre évolution, une meilleure valorisation de la performance environnementale, que ce soit du point de vue de l’opérateur, qui s’engage sur des objectifs clairs avec une exigence de résultats, ou de celui des usagers, avec la mise en place de systèmes tarifaires encourageant une consommation d’eau raisonnée.

Des solutions sur-mesure mais des règles communes

Ces modèles de gouvernance plus ouverts permettent de faire émerger des solutions construites ensemble, adaptées aux besoins des territoires et des usagers. Pour autant, il est indispensable que les cadres partagent un certain nombre de principes communs permettant d’évaluer et de comparer ces solutions et les différents modes de gestion des services.

La concurrence qui existe aujourd’hui, en France tout particulièrement, entre différents modes de gestion, est en effet le premier levier de compétitivité et de performance des services. Cette émulation peut être très positive pour les usagers, à condition que le choix des modalités de gestion se fasse sur des critères clairs et pragmatiques et dans une logique de long terme. Mais pour comparer les modes de gestion et assurer une véritable concurrence, les règles du jeu doivent être les mêmes pour tous, opérateurs privés et publics. D’autant que les modalités de coopération entre les deux sont de plus en variées.

Nous le vivons par exemple à Arrezzo, en Italie, où nous sommes co-actionnaire de la société d’économie mixte Nuove Acque, ou encore à Rouen où nous apportons notre appui à une régie publique. Renforcement des collectivités locales, implication des usagers et concurrence réelle entre les différents modes de gestion sont donc les trois piliers d’une gouvernance européenne des services d’eau apte à relever les défis d’une nouvelle ère : celle de la rareté.

Par Jean-Louis Chaussade, directeur général de Suez environnement

Source : EurActiv;fr

Traitement des eaux industrielles : un logiciel concilie chimie et technique

[Publié le 25/02/2010]

De nombreux process industriels ne peuvent pas fonctionner sans eau propre, pure, voire ultra-pure. Il est donc essentiel de disposer d’installations de traitement performantes, dont la maîtrise de la conception est toutefois très complexe. Il y a vingt ans, la Business unit Ion Exchange Resins (ION) du groupe chimique de spécialités Lanxess était l’une des premières entreprises opérant sur ce marché à présenter un utilitaire de planification destiné au calcul des projets. Puis, elle n’a pas cessé depuis de développer et d’améliorer ce programme. La nouvelle version de Lewatit-CalculatION 5.0 permet une conception encore plus aisée des installations de traitement. Ce programme réduit le temps nécessaire au calcul des projets et peut même aider les utilisateurs à faire baisser les coûts d’exploitation des installations existantes. Ce logiciel multilingue, disponible gratuitement auprès de Lanxess, s’est encore enrichi de nouvelles fonctions.

 

« Le défi que constitue la conception d’installations de traitement d’eau destinées à la fourniture d’eau de process est très simple à résumer », déclare Björn Dinges, du Marketing technique Industrial Water Treatment au sein de la Business unit ION, qui a participé à l’élaboration du nouveau système. « Les spécialistes qui planifient et développent ces installations sont généralement très compétents dans le domaine des techniques de procédés, mais ils connaissent moins bien les processus chimiques se produisant dans les échangeurs d’ions, qui sont pourtant l’élément clé du procédé. Si on considère ces produits comme une « boîte noire » autour de laquelle on se contente de concevoir le système de filtre sans chercher à en comprendre le contenu, on peut parfois passer à côté d’économies substantielles. » C’est d’autant plus vrai avec le niveau de performance des résines échangeuses d’ions de Lanxess, surtout face aux exigences de plus en plus sévères que doivent actuellement remplir les circuits d’eau ultra-pure et d’eaux usées.

Un diagnostic précis d’une installation existante

Le choix judicieux du type de résines échangeuses d’ions l’optimisation des séquences de régénération, ainsi qu’une appréciation réaliste des quantités d’eaux usées et de leur composition permettent de respecter les contraintes réglementaires en toute fiabilité. « C’est là qu’intervient Lewatit-CalculatION 5.0 », indique Björn Dinges.« Le programme permet de coller parfaitement le système de traitement d’eau aux exigences du process. » Il aide l’utilisateur à analyser de façon détaillée ses besoins réels et propose, au cas par cas, en fonction du client, la résine échangeuse d’ions Lewatit la mieux adaptée, ainsi que la quantité à mettre en œuvre. «Le programme fournit une aide à la conception d’un vaste choix de procédés chimiques, adaptables à chaque application spécifique grâce aux nombreuses variables.» Des fonctions supplémentaires de calculs de chimie de l’eau permettent d’évaluer avec précision la charge spécifique en silice, de prévoir la composition des eaux usées ou de déterminer les débits optimaux. Le programme est complété par des fonctions de détermination des temps de contact et de la consommation de produits chimiques en vue d’une optimisation des coûts de régénération.

« Il faut souligner que le logiciel n’est pas uniquement destiné au dimensionnement de nouvelles installations », précise Björn Dinges. « Il permet aussi de réaliser un diagnostic très précis d’une installation existante.» Les utilisateurs peuvent ainsi identifier et chiffrer les possibilités d’économies d’eaux usées et de réduction des coûts d’exploitation. En outre, le logiciel met en évidence les potentiels inutilisés qu’un remplacement de résine échangeuse d’ions rendrait accessibles et indique à quel moment celui-ci est conseillé

Ce logiciel vise un très vaste public: « Les clients de la construction automobile ou de la micro- électronique ne sont pas les seuls à pouvoir bénéficier de ce programme, il concerne aussi les utilisateurs des secteurs de l’énergie thermique ou nucléaire, du papier, de l’industrie chimique, pour n’en citer que quelques-uns. Nous visons aussi tout particulièrement les ingénieurs des bureaux d’études, des constructeurs d’appareils et d’installations et, bien entendu, les étudiants des établissements d’enseignement supérieur », souligne Björn M. Dinges.

Marc CHABREUIL&

Eau : propriétés, qualité, valeurs d’usage

Sa gestion questionne donc des aspects quantitatifs et qualitatifs qu’il convient de replacer dans une dynamique spatiale et temporelle : pénuries en période d’étiage, prévention du risque lors des crues, problématiques différenciées suivant une situation en tête de bassin, en plaine ou en estuaire, en zone rurale ou urbaine…

Au cœur des besoins anthropiques, les modalités d’aménagements et de régulation des réseaux hydrographiques pour exploiter cette ressource existent depuis des siècles. Dans un premier temps, nous replacerons les modalités qui ont régi la politique de l’eau dans une perspective historique, avant d’analyser les apports des lois sur l’eau successives en France.

Pour assurer la bonne gestion de la ressource en eau, ces lois ont mis en place des périmètres géographiques et des circuits financiers dédiés, ainsi que des modalités spécifiques de relations entre les usagers et les pouvoirs publics, que ce soit par le biais de la réglementation ou de la concertation.

Ces différents acteurs, dont nous dresserons un panorama rapide et orienté en fonction du rôle qu’ils occupent (usager, gestionnaire, instance de régulation ou d’incitation financière) doivent aujourd’hui plus que jamais travailler de façon complémentaire et concertée pour atteindre les objectifs de « bon état des eaux » fixés par l’Europe.

Lire la suite

Oxydation et réduction appliquées au traitement de l’eau

Leurs principes généraux ont été exposés dans un premier article (Oxydation et réduction appliquées au traitement de l’eau – Principes généraux). Un second article (Oxydation et réduction appliquées au traitement de l’eau – Oxygène, chlore et dérivés) a été consacré aux oxydants les plus traditionnels.

Dans le présent article, sont examinés :

  • les autres oxydants (dont l’ozone) ;
  • les procédés d’oxydation dite « avancée », associant l’ozone et/ou le peroxyde d’hydrogène et/ou les rayons UV et/ou des catalyseurs… ;
  • les réducteurs, d’usage courant mais plus restreint que les oxydants.

Les principales applications et modalités de mise en œuvre de l’oxydo-réduction dans les technologies de l’eau seront enfin développées dans un dernier article en liaison avec les articles du traité Environnement :

  • Traitement des eaux avant utilisation. Substances dissoutes [G 1 171] ;
  • Traitement des eaux avant utilisation. Filière et applications [G 1 172] ;
  • Traitements physico-chimiques de la pollution soluble [G 1 271] ;
  • Traitements tertiaires des effluents industriels [G 1 310] ;
  • Lutte contre la pollution des eaux. Finitions à haute performance [G 1 330].

Lire la suite

Inhibiteurs de corrosion et traitement des eaux

Les produits chimiques utilisés pour le traitement des eaux ne sont pas tous des inhibiteurs de corrosion. On utilise également des inhibiteurs d’entartrage, des produits modifiant sensiblement le milieu (pH et conductivité principalement) et des biocides. L’emploi de ces produits a souvent un effet direct ou indirect sur les processus d’inhibition de la corrosion. Leurs rôle et mode d’action seront présentés aux paragraphes correspondants.

Parmi les installations traitées, on distingue :

  • les générateurs de vapeur et circuits annexes (vapeur, condensats) ;
  • les circuits de refroidissement ;
  • les circuits d’eaux fermés (chauffage, froid) ;
  • les réseaux d’eaux chaudes et froides sanitaires ;
  • les réseaux d’eau potable.

Enfin, l’emploi d’un inhibiteur doit être conforme à la législation en vigueur. Nous préciserons chaque fois que nécessaire les textes à consulter.

Lire la suite

News Environnement : juin 2012

Des robots, des caméras, des plantes et… l’agriculture durable

On se croirait dans un film d’anticipation. Imaginez une sorte de grand bâtiment, renfermant notamment des serres modulables et des chambres climatisées en confinement à l’intérieur desquelles les parties aériennes et racinaires de milliers de plantes, dont certaines convoyées depuis les lieux de culture par des robots, sont filmées par des caméras dans différentes longueurs d’ondes ! Bienvenu à l’intérieur de la Plateforme de Phénotypage Haut Débit (PPHD) de Dijon qui sera inaugurée le 6 juillet prochain. Unique en son genre, celle-ci permettra aux chercheurs de l’Unité Mixte de Recherche Agroécologie (INRA/CNRS/Université de Bourgogne/AgroSup Dijon), et plus largement à la communauté scientifique nationale et internationale de disposer d’un équipement « high-tech » pour produire, dans des conditions parfaitement contrôlées, et caractériser, à l’aide de moyens non-destructifs, du matériel végétal.

Le développement d’une agriculture dite « durable », autrement dit qui respecte davantage l’environnement, exige un renouvellement des systèmes de cultures basé sur l’exploitation accrue de la variabilité génétique des plantes et celle des interactions entre organismes. « Il est donc nécessaire de caractériser les phénotypes de plantes cultivées, de focaliser sur les interactions plantes – microorganismes telluriques pathogènes/mutualistes et l’effet de l’environnement abiotique », explique Christophe Salon, Directeur de recherche à l’INRA et Directeur scientifique de la PPHD. Or cela implique de pouvoir réaliser l’exploration systématique intra ou inter spécifique de la diversité génétique naturelle ou induite des plantes et de leur adaptation à des conditions environnementales fluctuantes, contraintes, voire stressantes. D’où la nécessité de disposer de plateformes phénotypiques en conditions contrôlées associant un haut débit et une mesure précise et continue de l’environnement des plantes et de leur phénotype.

Une serre où les plantes sont sous l’oeil de caméras

La PPHD qui sera inaugurée le 6 juillet prochain à Dijon est l’aboutissement d’un projet qui a commencé dès 2006 et dont le développement a été financé par l’INRA, le Conseil Régional de Bourgogne, les fonds européens FEDER, le plan de relance 2010, et pour une partie, dans le cadre des investissements d’avenir via le projet PHENOME qui fédère toutes les compétences françaises en matière de phénotypage des plantes. Déjà impliquée dans plusieurs projets Européens comme ABSTRESS, ARIMNET et European Plant Phenotyping Network (EPPN), cette plateforme dijonnaise est dotée d’un certain nombre de dispositifs innovants parmi lesquels deux systèmes de phénotypage, basés sur l’analyse d’images dans différentes longueurs d’ondes, qui représentent des outils phares. Ils permettent en effet de caractériser différentes unités biologiques à l’aide de moyens non-destructifs automatisés. « Ce phénotypage pourra être mené soit sur un très grand nombre de plantes sur lesquelles nous effectuerons un nombre limité de mesures, soit sur un nombre réduit de plantes, caractérisées plus fréquemment au quotidien », résume Christophe Salon.

Ainsi le premier système de phénotypage, adapté aux unités de petite taille que sont les graines en boîte de pétri, les plantules ou encore les colonies de microorganismes, est équipé d’une caméra mobile capable de balayer la zone de mesure. Destiné davantage aux grosses unités telles les plantes en pots et les rhizotrons, le second de ces systèmes de phénotypage est doté de caméras fixes devant lesquelles les plantes seront amenées depuis les zones de cultures via des convoyeurs. Les caméras fonctionnent évidemment dans le visible, mais aussi le proche infrarouge, certaines d’entre elles utilisant même la fluorescence, ce qui permet de suivre, via une « protéine rapporteur », le niveau, la fréquence ou le site d’expression in situ d’un gène d’intérêt.

Autre dispositif particulièrement original de cette plateforme, les fameux rhizotrons dont elle va pouvoir être dotée grâce aux investissements versés dans le cadre de PHENOME. Constitué de deux lames de verres entre lesquelles sont placés la terre et le système racinaire de la plante cultivée, ce type de dispositif permet en particulier de visualiser l’interaction entre la plante et les microorganismes telluriques, résultant par exemple dans la formation de nodosités chez les légumineuses. « Ce travail est d’autant plus important que le système racinaire, auquel les chercheurs s’intéressent pourtant depuis longtemps, a été délaissé de part sa difficulté d’accès », rappelle Christophe Salon. Plus d’un millier de rhizotrons vont être ainsi progressivement mis en place au sein de la PPHD qui, dans quelques mois, pourra alors se targuer d’être la seule au monde à disposer d’un système d’une telle ampleur.

Innovation, un mot qui résume parfaitement la PPHD

Des rhizotrons particulièrement innovants conçus dans le cadre d’un partenariat entre l’INRA et Inoviaflow, une PME bourguignonne. « Ces rhizotrons nous permettront en effet de cultiver des plantes en conditions stériles, ce qui est une première. Nous pourrons ainsi sélectionner un type de plante et un microbe ou une collection de microorganismes et les combiner dans ce type de rhizotron pour observer comment ils se comportent », s’enthousiasme le Directeur scientifique de la PPHD. Autant d’innovations qui permettront, à terme, de déboucher sur la création et la sélection de nouvelles variétés de plantes. A l’aide d’une telle plateforme, les chercheurs vont pouvoir en effet combiner plus rapidement les vitesses de phénotypage et de génotypage et progresser plus vite dans la compréhension du génome des plantes. « Notre objectif est de trouver les génotypes qui correspondent le mieux à nos besoins et sont les plus aptes à s’adapter aux conditions environnementales dans lesquelles nous souhaitons les développer », indique Christophe Salon qui ne cache pas que les industriels qui pratiquent la sélection variétale, en particulier les semenciers, sont très intéressés par les travaux qui seront développés au sein de cette plateforme. Un outil exceptionnel, qui n’a pas d’équivalent, dont vont pouvoir bénéficier certains projets labellisés par le pôle Vitagora impliqué pleinement dans le développement de la PPHD, en particulier via le projet PHENOME.

Source : Bulletins électroniques

Ecornet : un réseau de recherche écologique

Sept instituts de recherche pionniers dans le domaine de la durabilité en Allemagne ont récemment uni leurs forces pour former un réseau de recherche écologique : Ecornet. Principale organisation, hors réseau universitaire, d’instituts de recherche allemands axés sur la durabilité, la mission d’Ecornet repose sur la mise en place des bases scientifiques nécessaires à la réussite d’une transformation sociale pour construire une société et une économie durables post-combustibles fossiles.

Changement climatique, destruction de l’environnement, sécurité alimentaire ne sont que quelques-uns des domaines de recherche dans lesquels les instituts Ecornet [1] sont engagés. Ils ambitionnent de relever ces défis grâce au large spectre de compétences qu’ils réunissent, allant de la recherche appliquée en durabilité, à l’étude des politiques internationales climatique et environnementale et l’utilisation efficace des ressources, jusqu’à l’intégration de l’éducation environnementale et de conseils stratégiques auprès des autorités compétentes. Ecornet rassemble les leaders de divers domaines de recherche devenus aujourd’hui des thèmes incontournables, tels que la sûreté des réacteurs et la sortie du nucléaire, l’évaluation des bilans énergétiques, la protection du climat, les transports, la gestion durable des entreprises, et le développement de méthodes de recherche transdisciplinaires.

Dans le cadre de l’Année de la Science 2012 dédiée à la recherche pour le développement durable, le réseau écologique mettra en place des événements de différents formats pour échanger autour des thèmes et des défis à affronter sur le chemin d’une société durable.

Les sept membres d’Ecornet sont les suivants :
– l’Institut écologique de Berlin
– l’Institut de recherche sur l’énergie et l’environnement de Heidelberg (IFEU – Bade-Wurtemberg)
– l’Institut d’étude économique d’écologie de Berlin (IOW)
– l’Institut de recherche socio-écologique de Francfort-sur-le-Main (ISOE – Hesse)
– l’Institut d’écologie appliquée de Fribourg (Bade-Wurtemberg)
– l’Institut indépendant des questions environnementales de Berlin (UfU)
– l’Institut pour le climat, l’environnement et l’énergie de Wuppertal (Rhénanie du Nord-Westphalie)

Source : Bulletins électroniques

Une part importante des eaux servant à l’irrigation sont non renouvelables

Environ 20% de l’eau utilisée pour l’irrigation n’est pas renouvelable. C’est ce que les hydrologues de l’Université d’Utrecht et de Deltares ont calculé. Leurs recherches montrent également que la consommation d’eau souterraine non renouvelable a triplé depuis 1960. « Cela conduit dans de nombreux endroits à l’épuisement des réserves d’eau souterraine et pourrait présenter à l’avenir un danger pour la production de nourriture  » a déclaré Marc Biekens.

Environ 40% de la nourriture consommée dans le monde est cultivée en utilisant une forme d’irrigation. C’est notamment le cas dans les régions où la pluie ne peut suffire à l’agriculture. L’eau servant à l’irrigation est la plupart du temps issue des cours d’eau ou des réservoirs. Comme ces réserves d’eau sont limitées ou trop éloignées des cultures, les agriculteurs utilisent souvent des eaux souterraines avec un système de pompage.

La taille des cercles indique la quantité d’eau utilisée pour l’agriculture. Les couleurs utilisées sont le vert ( l’eau de pluie), le bleu (l’eau provenant des réservoirs et des cours d’eau), le bleu foncé (l’eau issue de réserves souterraines non renouvelables). Le reste présente les autres sources (telle que l’eau issue du dessalage ou importée). Les tableaux indiquent pour chaque pays le pourcentage d’eau non renouvelable utilisée pour l’irrigation. Les couleurs à l’arrière plan montrent l’état d’épuisement des réserves souterraines.

L’eau souterraine non renouvelable

Une équipe d’hydrologues dirigée par Marc Bierkens, professeur d’hydrologie géographique à l’Université d’Utrecht, a calculé à l’aide d’un modèle hydrologique global la recharge des eaux souterraines mondiales : quelle part de l’eau de pluie, sur les différents endroits du globe, rejoint une nappe phréatique ? Les chercheurs ont estimé à l’aide de modèles statistiques la quantité d’eau utilisée pour l’irrigation et son origine (lacs et réservoirs, ainsi que les nappes phréatiques). De cette manière, les scientifiques d’Utrecht peuvent déterminer combien d’eau souterraine peut être utilisée pour que les nappes puissent se reconstituer naturellement.

L’eau souterraine devient rare

« Le problème de ces extractions d’eau souterraine, c’est l’épuisement des ressources » explique Bierkens. « Aujourd’hui, on produit de plus en plus de nourriture avec de l’eau qui sera bientôt épuisée ou plus difficilement accessible. Si vous devez nourrir une population croissante dépendante des réserves en eau souterraine, cela risque de conduire à des pénuries alimentaires « . Dans le nord de l’Inde par exemple, on pompe plus d’eau qu’il n’en tombe durant la période des pluies. Cela entraîne une diminution du niveau des nappes phréatiques, qui baissent jusqu’à un mètre par an.

Les grands utilisateurs mondiaux

Les résultats de l’étude montrent qu’entre 1960 et 2000, la consommation d’eau non renouvelable a augmenté de 75 à 234 km3 par an (par rapport au 3,4km3 de l’Ijsselmeer, le lac le plus important des Pays-Bas). Ces 20% d’eau souterraine utilisée pour l’irrigation servent à produire 8% de la nourriture mondiale. Les principaux utilisateurs de ces réserves d’eau souterraine sont l’Inde (68km3 par an), le Pakistan (35km3 par an), les Etats-Unis (30km3 par an), l’Iran (20 km3 par an), la Chine (20km3 par an), le Mexique (10km3 par an) et l’Arabie Saoudite (10km3 par an).

Publication :

Y. Wada, L.P.H. van Beek en M.F.P. Bierkens (2012), Nonsustainable groundwater sustaining irrigation: A global assessment, Water Resources Research 48, W00L06, doi:10.1029/2011WR010562.

Source : Bulletins électroniques

 

News Informatique : juin 2012

La réalité virtuelle au service de la formation : un outil prometteur

Au sein du Département Intelligence Ambiante et Systèmes Interactifs (DIASI) du CEA/LIST, les chercheurs du Laboratoire de Simulation Interactive (LSI) développent des travaux autour de la simulation. Autrement dit, ils reproduisent des phénomènes physiques de manière interactive, l’objectif étant de permettre à un opérateur humain non seulement de visualiser ces phénomènes mais de pouvoir interagir avec eux. Aussi la simulation interactive présente-t-elle un grand intérêt dans le domaine de la réalité virtuelle. C’est ainsi que dans le cadre du projet Descartes, piloté par Thales, labellisé par le pôle de compétitivité Systematic Paris Région et financé en partie par le Fonds Unique Interministériel (FUI), un projet d’une durée de 42 mois qui vient de s’achever, les chercheurs du LSI ont développé, en collaboration les pompiers du centre CEA de Fontenay-aux-Roses, un outil qui permet à celui qui l’utilise d’être en immersion dans une rame de RER accidentée, et de s’y déplacer à la lueur de la lampe frontale fixée sur son casque afin d’effectuer une reconnaissance. Outil idéal pour la formation des pompiers, un système similaire pourrait à terme séduire également d’autres secteurs, et en particulier l’Education nationale.

« Imaginez que l’on simule un écoulement de fluide. On souhaitera alors pouvoir y plonger une main afin d’observer comment celle-ci perturbe cet écoulement », déclare Philippe Gravez, chercheur au sein du Laboratoire de Simulation Interactive du CEA/LIST. Eh bien l’exercice auquel se sont livrés les chercheurs du CEA dans le cadre du projet Descartes, c’est un peu la même chose, à la seule différence que là, c’est un être humain, en l’occurrence un pompier, qui a été immergé dans un environnement virtuel, à savoir l’intérieur d’une rame de RER qui vient d’être l’objet d’un attentat. Un observateur extérieur verra ce pompier, dans une pièce, équipé de capteurs grâce auxquels le système informatique va être capable de suivre tous ses mouvements. « Ce vrai pompier et les mouvements qu’il effectue servent à animer un pompier virtuel, l’avatar du premier, qui, lui, se déplace dans un environnement virtuel en prenant en compte toutes les contraintes de ce dernier », explique le chercheur du CEA. Autrement dit, pas question pour le pompier de ne pas tenir compte des obstacles, comme la paroi de la rame du RER ou encore les sièges qui s’y trouvent. Ainsi, chaque fois qu’il se produit un contact entre le pompier virtuel et un élément de son environnement, il doit être aussitôt géré, ce qui n’est pas sans difficulté quand on sait qu’un modèle de rame de RER représente des centaines de milliers de polygones. « Il faut donc disposer d’algorithmes suffisamment rapides et d’une puissance de calcul importante pour détecter tous les contacts entre les polygones qui représentent l’humain virtuel et ceux qui représentent la rame dans laquelle il se déplace », précise-t-il.

Notre pompier réel est également équipé d’un casque de vision doté de deux petits écrans qui lui permettent de voir ce que verrait son avatar s’il était projeté dans cet environnement virtuel, les mouvements de ce casque étant traqués par rapport à la scène virtuelle. « Le casque est parfaitement adapté à la situation. En effet, il n’est pas trop lourd. Par ailleurs, les pompiers sont habitués à en porter un. Quant au champ de vision limité qu’il offre, ce n’est pas un problème puisque le pompier ne voit l’environnement que dans le faisceau de sa lampe frontale », indique Philippe Gravez. Ainsi équipé, celui-ci perçoit donc l’environnement virtuel et voit les contacts de ses mains. Grâce à cette vision 3D, il est par conséquent capable d’estimer les distances et de prévoir les contacts. Qui plus est, il ressent ces derniers, des vibreurs ayant été installés dans ses mains. Et que celui-ci vienne à ne pas tenir compte de cet avertissement sensoriel, de toute façon son avatar ne passera jamais à travers les obstacles et ne suivra pas alors tout à fait la progression du pompier.

Fruit d’un véritable partenariat entre les chercheurs du LSI et les pompiers du CEA – « dans ces domaines très appliqués, il n’y a pas de bons résultats sans partenariat fort « , tient à souligner Philippe Gravez – ce projet désormais achevé devrait connaître une suite. Aujourd’hui, les chercheurs s’orientent dans deux directions. La première a pour objectif de trouver une entreprise prête à investir dans le développement de ce produit. D’ores et déjà des discussions sont en cours avec certains partenaires. La seconde part du constat que le rendu des contacts à l’aide de vibrations n’est pas pleinement satisfaisant. D’où l’idée de faire appel à une autre technologie, la réalité augmentée qui, même si le concept sur lequel elle repose est connu depuis déjà longtemps, a enregistré quelques avancées notoires au cours de ces dernières années. « L’idée de la réalité augmentée c’est de pouvoir ajouter des objets virtuels dans un environnement réel », précise le chercheur du LSI. L’objectif de ces chercheurs serait alors d’utiliser une vraie rame de RER, voire une maquette réelle, et d’y recréer certaines conditions, par exemple une fumée virtuelle, un feu virtuel, des bruits virtuels, autrement dit combiner une situation totalement virtuelle à une rame bien réelle. « Le pompier aura alors de vrais contacts avec la rame. En revanche, si un siège brûle à l’intérieur, ce sera virtuel. Or dans ce cas, il semblerait que le potentiel pour un pompier soit beaucoup plus important », observe le chercheur du CEA qui indique que ce type d’applications fait déjà l’objet de travaux mais cette fois-ci pas pour les pompiers.

La réalité virtuelle dans l’Education nationale : bientôt une réalité ?

Car si ce type d’applications pourrait permettre aux pompiers d’appréhender des situations exceptionnelles auxquelles il leur est difficile d’être confronté hormis dans le cadre d’interventions sur le terrain, elle intéresse aussi de vastes secteurs comme l’Education nationale. Des appels d’offres sont en cours dans le cadre des Investissements d’Avenir, ceux-ci visant à développer des outils numériques pour les classes. « Les élèves pourraient alors laisser libre cours à leur imagination puisqu’ils se trouveraient plonger dans un univers virtuel », estime Philippe Gravez. Ce serait pour eux la possibilité de travailler à des échelles qui ne sont pas toutes accessibles, comme celle de l’Univers ou encore celle de l’atome et du monde quantique, mais aussi de manipuler des bâtiments complets dans le cadre de formations aux métiers de ce secteur. « Nous avons d’ores et déjà rencontré des équipes d’enseignants très enthousiastes pour développer ce genre d’outils du futur ». Les chercheurs du LSI sont allés jusqu’à proposer un projet, en collaboration avec les fameux Compagnons du Devoir, visant à développer une formation pour les tailleurs de pierre, « avec la possibilité de pouvoir tester son geste en fonction des propriétés du matériau choisi. Cette démarche présente un intérêt pédagogique considérable puisqu’elle permet un lien fort entre le cours théorique et la partie pratique ». Preuve que l’aventure ne fait que commencer tant les applications potentielles sont immenses.

Source  : Bulletins Electroniques

Qui sont les utilisateurs de « The Pirate Bay » ?

L’université de Lund dirige une étude sociologique sur les internautes partageant et téléchargeant des fichiers en ligne à partir du site « The Pirate Bay ». Plusieurs chercheurs s’intéressent aux relations parfois conflictuelles qui existent entre la diffusion de la culture sur Internet et les réglementations nationales qui encadrent le partage des fichiers.

L’étude s’appuie sur les activités du site « The Pirate Bay » afin de connaître le contenu des fichiers téléchargés et d’étudier le rapport à l’anonymat qu’entretiennent les internautes au cours des téléchargements de fichiers. L’université de Lund a déjà mené une étude similaire en 2011, 75.000 réponses ont été reçues en seulement 72 heures. Cette année, l’université de Lund effectue la même opération pour observer d’éventuels changements et les analyser.

Cette étude s’appuie également sur la décision des fournisseurs Internet britanniques de supprimer l’accès au site « The Pirate Bay ». Le débat sur le partage de fichiers est relancé ainsi que sur les comportements des internautes. Les chercheurs considèrent qu’il s’agit d’une opportunité pour connaître et étudier les dispositifs mis en place par certains internautes pour poursuivre les téléchargements illégaux. L’université de Lund rendra publique cette étude et mettra l’accent sur les différences de pratiques selon les pays.

Source  : Bulletins Electroniques

Un modèle informatique pour améliorer la capture et stockage du carbone

Les technologies de capture et de stockage du carbone suscitent l’intérêt chez de nombreux industriels et législateurs, qui considèrent que le futur énergétique des Etats-Unis ne peut que rester étroitement lié à l’exploitation des énergies fossiles à grande échelle – notamment du charbon pour la production d’électricité, et cherchent à limiter l’impact environnemental des énergies fossiles. Cependant, l’utilisation à grande échelle de ces technologies est encore lointaine, puisque celles-ci sont bien trop coûteuses à l’heure actuelle pour être rentables économiquement sur des installations industrielles.

Le principal problème est que le procédé de capture et de stockage du carbone nécessite beaucoup d’énergie, ce qui fait chuter le rendement et augmente les coûts de la production électrique. Dans cette optique, une équipe de chercheurs de l’Université de Californie Berkeley (UC Berkeley) a conçu un modèle informatique avec pour but d’aider les chimistes à choisir de meilleurs matériaux, plus efficaces et meilleur marché, dans leurs tentatives d’améliorer le rendement énergétique du procédé de capture et stockage de carbone, une priorité de la recherche dans ce domaine.

La capture et le stockage du dioxyde de carbone reste pour l’heure limité à quelques projets pilotes, mais il existe néanmoins plusieurs procédés jugés fonctionnels à l’échelle industrielle. Quelle que soit la voie choisie pour le traitement du dioxyde de carbone (CO2) – pré-combustion, post-combustion ou oxy-combustion, cela implique un traitement supplémentaire ultérieur des rejets de CO2. Les gaz résiduels de la combustion sont ainsi envoyés dans un bain d’amines qui capture le CO2 et le sépare des autres gaz. Les amines sont ensuite portées à ébullition pour récupérer le CO2 et régénérer le solvant. Enfin, le CO2 est compressé et acheminé vers son lieu de stockage. Si ce procédé est relativement efficace pour capturer le CO2, il est en revanche extrêmement coûteux sur le plan énergétique, pouvant consommer jusqu’à un tiers de l’énergie produite par une centrale électrique. « Le procédé actuellement disponible de capture et stockage du carbone présente des problèmes, y compris au niveau environnemental, si vous l’exploitez à grande échelle » déclare Berend Smit, professeur d’ingénierie chimique et biomoléculaire à UC Berkeley, « senior scientist » au Lawrence Berkeley National Laboratory et co-auteur de l’étude.

S’il existe potentiellement des millions d’autres matériaux capables de capturer le CO2, il convient d’évaluer leur efficacité réelle au sein d’un procédé industriel de capture et de stockage de carbone, et il est physiquement et économiquement inconcevable d’envisager tester toutes les possibilités. Le modèle informatique conçu par les chercheurs d’UC Berkeley a pour ambition de faciliter la tâche des chercheurs dans ce domaine.

En 2007, une équipe de chercheurs menée par Michael Deem, professeur de bioingénierie, de physique et d’astronomie à l’université de Rice (Texas) et co-auteur de l’étude, a calculé la structure atomique de millions de zéolites – des composés de dioxyde de silicium poreux – et de structures d’oxyde métalliques, et a rassemblé ses résultats sous forme d’une base de données qui compte aujourd’hui près de 4 millions de structures différentes.

L’équipe du professeur Smit a analysée cette base de données à l’aide de son modèle informatique pour faire ressortir les matériaux les plus adaptés à la capture du carbone. En particulier, les chercheurs ont voulu établir une formule permettant de calculer la consommation d’énergie totale d’un matériau au sein du procédé de capture de carbone, en se basant sur ses coûts énergétiques de capture, de libération et de compression du dioxyde de carbone.

Par cette méthode, l’équipe de recherche a déterminé que des dizaines de zéolites étaient capables de capturer le dioxyde de carbone plus efficacement que les amines actuellement employés. De manière générale, les matériaux solides ont un meilleur rendement énergétique au sein de procédé de capture du carbone, puisqu’ils libèrent le CO2 capturé à une température moindre que les amines. Cependant, il existe de grandes différences parmi les matériaux entre leur capacité à capturer le CO2 et celle à le restituer. Les procédés les plus efficaces devront employer les matériaux ayant le meilleur compromis capture/libération de CO2, déclare Smit. « Nos calculs montrent qu’il est possible de réduire de 30% les pertes d’énergie du procédé en utilisant ces matériaux, ce qui devraient encourager les industriels et les chercheurs à leur accorder de l’intérêt » ajoute-il.

La base de données a été mise en ligne et est accessible aux autres chercheurs [3]. Ces derniers peuvent soumettre la structure d’un matériau qui sera analysée par le modèle informatique de l’équipe du professeur Smit, et qui déterminera si ce matériau offre un avantage en terme énergétique par rapport à ceux utilisés à l’heure actuelle dans le procédé de capture du carbone. Cette base de données devrait également être associée à des logiciels de conception de centrales électriques, afin de pouvoir mieux analyser l’efficacité de certains matériaux novateurs au sein du procédé global.

« Ce qui rend ce modèle unique est que, pour la première fois, il est possible d’orienter la recherche dans le domaine des matériaux et de dire « voici les propriétés que nous voulons, même si nous ne savons pas quel sera le matériau final » déclare Adhoyjit Bhown, cadre technique au Electric Power Research Institute (EPRI) et co-auteur de l’étude. « Auparavant, les chercheurs essayaient de deviner quels matériaux ils devaient étudier, et il n’avait pas de réponse à cette question ».

Source  : Bulletins Electroniques

 

 

 

 

 

Des alliages de titane innovants pour les compresseurs de réacteurs d’avion

Prévu pour une durée de trois ans et demi, ce projet est mené dans le cadre du Programme d’innovation en matériaux pour l’industrie et la société (WING) [1] du BMBF. Il associe des chercheurs de l’Institut des sciences et technologies des matériaux (IWW) et du Centre en technologies des matériaux (CZM) de l’Université technique de Clausthal (Basse-Saxe), de l’Université d’Erlangen-Nuremberg (Bavière) ainsi que des entreprises Rolls-Royce Deutschland, ThyssenKrupp VDM, Otto Fuchs KG, et Dyconn GmbH.

Les alliages de nickel sont utilisés dans les ensembles disque-aubes des compresseurs de réacteurs d’avion en raison de leur stabilité à haute température. Néanmoins, de nouveaux alliages de titane résistants à la chaleur, de masse plus légère, peuvent remplacer les alliages de nickel dans certains segments de la pièce. De plus, des alliages de titane distincts peuvent être introduits le long des éléments, en fonction des différences de contraintes subies. Ces combinaisons multi-matériaux exigent de nouvelles technologies d’assemblage, telles que le soudage par friction multi-orbitale. Outre une réduction des coûts de production, ce dernier permet la production de concepts de refroidissement innovants, améliorant le rendement des réacteurs. Pendant la période du projet, l’Université technique de Clausthal disposera d’une installation de soudage par friction multi-orbitale afin de mener à bien ses recherches.

(Source : http://www.bulletins-electroniques.com/actualites/70396.htm)

L’essentiel de Reach (juin) 2/2

Trois nouveaux pesticides interdits

(16/06/2012)
Le règlement PIC concerne les exportations et importations de produits chimiques dangereux. La Commission européenne a adopté, le 15 juin 2012, une décision finale relative à l’importation de trois pesticides, l’Alachlore, l’Aldicarbe et l’Endodufan, interdisant à la fois leur importation quelle qu’en soit la provenance, ainsi que leur production nationale aux fins de consommation.

Le texte est disponible sur :
http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:C:2012:177:0022:0031:FR:PDF

Mise à jour de l’inventaire C&L

(18/06/2012)
L’ECHA a mis à jour l’inventaire des classifications et étiquetages, suite aux informations reçues en date du 31 mai 2012. Cette base de données contient les notifications de 98 898 substances. Cette base de données est consultable sur :
http://echa.europa.eu/web/guest/information-on-chemicals/cl-inventory-database

13 nouvelles substances sur la liste candidate

(18/06/2012)
Le 18 juin, l’ECHA a ajouté 13 nouvelles substances SVHC sur la liste candidate pour l’autorisation, ce qui porte cette liste à 84 substances. Les substances sont classées CMR (cancérogène, mutagène, toxique pour la reproduction).

Cette nouvelle liste est consultable sur http://echa.europa.eu/web/guest/candidate-list-table. Les substances concernées sont :

  • α,α-Bis[4-(dimethylamino)phenyl]-4 (phenylamino)naphthalene-1-methanol (solvant Blue 4) (avec ≥ 0.1% de Michler’s ketone (N°CE: 202-027-5) ou Michler’s base (N° CE : 202-959-2)) (N° CAS : 6786-83-0 et N° CE : 229-851-8)
  • N,N,N’,N’-tetramethyl-4,4′-methylenedianiline (Michler’s base) (N° CAS : 101-61-1 et N° CE : 202-959-2)
  • 1,3,5-tris[(2S and 2R)-2,3-epoxypropyl]-1,3,5-triazine-2,4,6-(1H,3H,5H)-trione (β-TGIC) (N° CAS : 59653-74-6 et N° CE : 423-400-0)
  • Diboron trioxide (N° CAS : 1303-86-2 et N° CE : 215-125-8)
  • 1,2-bis(2-methoxyethoxy)ethane (TEGDME; triglyme) (N° CAS : 112-49-2 et N° CE : 203-977-3)
  • 4,4′-bis(dimethylamino)-4 »-(methylamino)trityl alcohol (avec ≥ 0.1% de Michler’s ketone (N° CE : 202-027-5) ou Michler’s base (N° CE : 202-959-2)) (N° CAS : 561-41-1 et N° CE : 209-218-2)
  • Lead(II) bis(methanesulfonate) (N° CAS : 17570-76-2 et N° CE : 401-750-5)
  • Formamide (N° CAS : 75-12-7 et N° CE : 200-842-0)
  • [4-[4,4′-bis(dimethylamino) benzhydrylidene]cyclohexa-2,5-dien-1-ylidene]dimethyl ammonium chloride (Basic Violet 3) ([avec ≥ 0.1% de Michler’s ketone (N° CE : 202-027-5) ou Michler’s base (N° CE : 202-959-2)) (N° CAS : 548-62-9 et N° CE : 208-953-6)
  • 1,2-dimethoxyethane; ethylene glycol dimethyl ether (EGDME) (N° CAS : 110-71-4 et N° CE : 203-794-9)
  • [4-[[4-anilino-1-naphthyl][4-(dimethylamino)phenyl]methylene]cyclohexa-2,5-dien-1-ylidene] dimethylammonium chloride (Basic Blue 26) (avec ≥ 0.1% de Michler’s ketone (N°CE : 202-027-5) ou Michler’s base (N° CE : 202-959-2) (N° CAS : 2580-56-5 et N° CE : 219-943-6)
  • 1,3,5-Tris(oxiran-2-ylmethyl)-1,3,5-triazinane-2,4,6-trione (TGIC) (N° CAS : 2451-62-9 et N° CE : 219-514-3)
  • 4,4′-bis(dimethylamino)benzophenone (Michler’s ketone) (N° CAS : 90-94-8 et N° CE : 202-027-5)

Les producteurs et importateurs d’articles contenant l’une de ces nouvelles substances incluses dans la liste candidate doivent le notifier à l’ECHA avant le 17/12/2012 (6 mois après l’inclusion des substances dans la liste). Deux conditions doivent s’appliquer : la quantité totale de substance présente dans ces articles est supérieure à 1 tonne par producteur ou importateur par an et la substance est présente dans les articles à une concentration supérieure à 0,1 % en masse. Il existe toutefois des exemptions à cette obligation de notification lorsque la substance est déjà enregistrée pour cette utilisation ou lorsque toute exposition à la substance peut être exclue.

Informations pour éviter les essais inutiles sur les animaux – deux nouvelles demandes 

(18/06/2012)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. Les substances concernées sont :

  • trans-N1,N1,N4,N4-Tetrakis(2-hydroxyethyl)1,4-cyclohexanedicarboxamide
  • C26-28 (même nombre) α-alkenes || Note: test proposé avec oct-1-ene (N° EC 203-893-7, N° CAS 111-66-0), octadec-1-ene (N° EC 204-012-9, N° CAS 112-88-9), et C20-C22 (même nombre, linéaire et ramifié) et C24 (ramifié) alkenes (N° EC 700-497-0)

Les informations sur ces substances sont à soumettre pour le 2 août 2012.
http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Une restriction du 1,4-dichlorobenzène en consultation

(19/06/2012)
L’ECHA a lancé une consultation publique de six mois sur une proposition de restriction du 1, 4-dichlorobenzène dans les désodorisants et les blocs WC. Les commentaires sont à soumettre jusqu’au 19/12/2012. Plus d’information sur :http://echa.europa.eu/fr/restrictions-under-consideration

CHESAR 2.0

(20/06/2012)
L’ECHA a lancé CHESAR 2.0, une nouvelle génération d’outils de reporting et d’évaluation de la sécurité chimique pour permettre d’harmoniser et d’améliorer les informations pour une utilisation plus sûre des produits chimiques. Plus d’informations sur :
http://echa.europa.eu/view-article/-/journal_content/167a4d45-6180-4239-805d-6b33f1980c09
Site du CHESAR :
http://chesar.echa.europa.eu/

Consultation publique pour l’inclusion de nouvelles substances sur la liste d’autorisation

(20/06/2012)
L’ECHA lance une consultation publique sur son projet de recommandation de dix nouvelles substances prioritaires à inclure dans la liste d’autorisation (annexe XIV). La date limite pour les parties intéressées pour présenter leurs observations est le 19 septembre 2012. Les substances concernées sont :

  • formaldehyde, oligomeric reaction products with aniline (technical MDA)
  • arsenic acid
  • dichromium tris(chromate)
  • strontium chromate
  • potassium hydroxyoctaoxodizincatedichromate
  • pentazinc chromate octahydroxidebis(2-methoxyethyl) ether (diglyme)N,N-dimethylacetamide (DMAC)
  • 1,2-dichloroethane (EDC)
  • 2,2′-dichloro-4,4′-methylenedianiline (MOCA)

http://echa.europa.eu/view-article/-/journal_content/6958a7a9-d182-434d-b087-828b5ba2f3ca

Identification des parties concernées au cours des consultations publiques sur les propositions de C&L harmonisés

(21/06/2012)
L’ECHA invite les parties concernées à faire enregistrer leurs coordonnées au cours des consultations publiques sur les propositions de classification et d’étiquetage harmonisés. Cela permettra à l’ECHA d’identifier efficacement les parties concernées susceptibles d’être contacter pour tout complément d’informations.

Plus d’informations sur :
http://echa.europa.eu/en/view-article/-/journal_content/4c623900-30a4-4835-9265-1a95c8f9b3f0

Nouvelles consultations publiques sur la reprotoxicité de epoxiconazole et sur des propositions de C&L harmonisés pour 5 substances 

(21/06/2012)
ECHA lance de nouvelles consultations publiques sur la reprotoxicité de l’epoxiconazole et sur des propositions de classification et d’étiquetage harmonisés pour cinq biocides / pesticides et l’acide nitrique. L’Agence invite les parties concernées à formuler des observations jusqu’au 23 juillet 2012.

Plus d’informations sur : http://echa.europa.eu/en/view-article/-/journal_content/2b8d6bf0-bdab-440e-97ad-afe034eaab99

Substances concernées par la classification et l’étiquetage hamonisés :
http://echa.europa.eu/web/guest/harmonised-classification-and-labelling-consultation

Informations pour éviter les essais inutiles sur les animaux – 64 nouvelles demandes

(25/06/2012)
L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 64 substances sont concernées. La liste des substances est disponible sur : http://echa.europa.eu/information-on-chemicals/testing-proposals/current?p_p_id=substancetypelist_WAR_substanceportlet&p_p_lifecycle=0&p_p_state=normal&p_p_mode=view&p_p_col_id=. Les informations sur ces substances sont à soumettre pour le 9 août 2012.

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Publication d’une nouvelle fiche d’information sur les obligations de communication pour certaines substances exemptées d’enregistrement au titre de REACH

(26/06/2012)
L’ECHA a publié une nouvelle fiche d’information sur les obligations de communication pour certaines substances exemptées d’enregistrement au titre de REACH. Ce document explique que, même si certaines substances peuvent être légalement mises sur le marché sans numéro d’enregistrement, les fournisseurs de ces substances doivent communiquer des informations en aval de la chaîne d’approvisionnement afin de permettre leur utilisation en toute sécurité. Plus d’informations sur :
http://echa.europa.eu/documents/10162/13655/reach_factsheet_on_communication_obligation_en.pdf

Campagne conjointe avec les syndicats européens sur les obligations des employeurs au titre de REACH 

(27/06/2012)
Une campagne vient d’être lancée par l’ECHA en partenariat avec les syndicats européens. Cette campagne appelle les représentants des travailleurs à agir en tant qu’ambassadeurs dans leurs entreprises pour assurer l’enregistrement REACH avant la deadline de mai 2013.
Cette campagne est disponible sur :
http://echa.europa.eu/documents/10162/2621167/joint_campaign_trade_unions_2013_fr.pdf

Publication du nouveau règlement sur les biocides

(27/06/2012)
Le règlement européen N° 528/2012 du Parlement Européen et du Conseil du 22 mai 2012 concernant la mise à disposition sur le marché et l’utilisation des produits biocides a été publié au Journal Officiel le 27/06/2012. Ce texte, qui vise les insecticides, les désinfectants et les répulsifs s’appliquera à compter du 1er septembre 2013. Il abroge la directive 98/8. Plusieurs règles sont prévues, notamment l’établissement au niveau de l’UE d’une liste des substances actives pouvant être utilisées dans les produits biocides, octroi d’une autorisation pour ces produits, mise sur le marché. Retrouvez l’intégralité du texte sur : http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2012:167:0001:0123:FR:PDF

REACH-IT : mise à jour programmée pour le 11 juillet

(28/06/2012)
L’ECHA va publier la nouvelle version de REACH-IT le 11 Juillet 2012. A partir de cette date, l’ECHA ne pourra accepter que les dossiers créés avec IUCLID 5.4. REACH-IT ne sera pas disponible à partir du vendredi 6 Juillet 2012, pour le week end, afin d’installer la nouvelle version. Plus d’information sur :
http://echa.europa.eu/view-article/-/journal_content/f8f1fe21-0b5c-4888-9f71-db78de454813

Nouveau guide pour les utilisateurs en aval sur les scénarios d’exposition

(28/06/2012)
L’ECHA a publié un nouveau guide destiné aux utilisateurs en aval et relatif aux scénarios d’exposition. Ce guide donne des conseils pour vérifier si les utilisations et les conditions d’utilisation d’une substance chimique sont couvertes par les scénarios d’exposition fournis par les fournisseurs avec la fiche de données de sécurité. Il comprend des conseils sur les mesures à prendre sur la base du résultat de ce contrôle. Plus d’information sur : http://echa.europa.eu/view-article/-/journal_content/41581066-2a03-4298-8b85-1b4b0b66556d

Le guide est téléchargeable sur :
http://echa.europa.eu/documents/10162/13655/du_practical_guide_13_en.pdf

 

Par Céline Nectoux, ingénieur environnement CNRI

 

 

 

 

 

 

 

 

 

 

 

 

Les dernières NEWS REACH :

Et aussi :

Les entreprises énergétiques réclament le sauvetage du marché du carbone

En 2005, l’Europe s’est dotée d’un marché du carbone qui oblige certaines entreprises de payer pour leurs émissions de gaz à effet de serre. Mais depuis son établissement les prix ont chuté, et le système s’avère ainsi peu efficace.

Il est estimé que pour stimuler les investissements dans des technologies faibles en carbone, le niveau des quotas doit se situer à au moins 25-30 euros par tonne.

Or, cette année, le cours a chuté à un niveau record proche des 6 euros à cause d’un surplus de crédits, de la récession et de l’incertitude liée aux investissements pour le climat à long terme. Aujourd’hui, la courbe se situe atour de 8 euros par tonne. Dans une lettre adressée à la Commission européenne, 13 entreprises énergetiques ont appelé l’exécutif européen à rémedier à ce problème.

1,4 milliard de crédits

Les signataires de la lettre (dont Shell, E.On, Statoil, Alstom, Dong Energy et General Electric) estiment qu’un marché du carbone performant pourrait constituer la « principale politique » pour atteindre l’objectif européen ambitieux de réduire de 80-95 % les émissions de dioxyde de carbone d’ici 2050.

Les entreprises avancent que les revenus de la vente aux enchères des crédits carbone devraient jouer un rôle important dans le financement de techniques innovantes faibles en carbone, dans lesquelles bon nombre d’entre elles ont investi.

« Nous vous invitons donc à présenter incessamment une proposition pour décaler les dates de ventes des crédits carbone européens », ont affirmé les intéressés. « Votre proposition devrait refléter la position de la commission Environnement du Parlement européen, qui souhaite que 1,4 milliard de ces crédits soient mis de côté. »

Troisième phase de l’ETS

Ce « décalage » est une mesure à court terme visant à répartir dans le temps le volume de crédits carbone à vendre, sans en modifier le nombre total prévu, de façon à porter le prix du carbone à un niveau auquel il pourrait stimuler les investissements pour une économie faible en carbone.

Les fonctionnaires du cabinet de Connie Hedegaard, commissaire européenne à l’action pour le climat, considèrent le décalage comme une bonne méthode, à condition qu’elle soit coordonnée avec le Comité européen des changements climatiques, en prenant en compte l’évolution macro-économique et les conditions de marché.

Isaac Valero Ladron, le porte-parole de la commissaire, s’est félicité de l’initiative des entreprises.

« Les organisations professionnelles (…) misent sur l’innovation et la compétitivité. C’est la bonne voie à suivre pour encourager la croissance et l’emploi en Europe », a-t-il déclaré à EurActiv. « C’est pourquoi la Commission présentera avant les vacances d’été un calendrier révisé des ventes aux enchères des crédits carbone dans le cadre de la troisième phase de l’ETS. Nous présenterons à cette occasion les options structurelles envisageables à long terme pour renforcer le marché du carbone. »

Lors d’une réunion du Conseil au Danemark en avril dernier, les ministres européens de l’énergie et de l’environnement se sont mis d’accord pour réviser les mesures en vigueur, afin de faire remonter le prix du carbone avant l’été.

Industries énergivores

Le secteur industriel consommateur en énergie a eu une réaction très négative face à cette lettre.

Contrairement aux 13 entreprises signataires, les acteurs du secteur estiment qu’un prix du carbone plus élevé les rendrait moins compétitifs et augmenterait les risques de « fuite de carbone », ou de délocalisation des activités dans des zones moins réglementées en dehors de l’UE.

« Nous ne pensons pas qu’il faille réviser partiellement ces normes aujourd’hui et nous souhaitons que [l’ETS] demeure un moyen rentable de réduire les émissions de carbone », a expliqué Robert Jan Jeekel, directeur des politiques pour l’énergie et le changement climatique chez Eurometaux, la fédération européenne des métaux non ferreux.

L’ETS n’avait pas pour objectif d’augmenter le prix du carbone, a-t-il déclaré à EurActiv. Ce n’est pourtant pas l’avis de la Commission, ni des 13 géants énergétiques.

Source : EurActiv.fr

 

Un nouveau supercalculateur s’implante dans le Très Grand Centre de calcul du CEA

Le CEA et ses partenaires industriels du Centre de Technologie (CCRT) que sont Areva, Astrium, EDF et Ineris disposeront dès la rentrée d’un nouvel outil de calcul équipé des derniers processeurs Intel® Xeon® E5-2680 Sandy Bridge mis sur le marché début 2012, permettant d’atteindre 200 Teraflops crête, soit 200 000 milliards d’opérations par seconde !

Le CCRT voit ainsi sa puissance globale s’élever à 500 Téraflops. Le CEA et ses partenaires industriels du CCRT disposeront ainsi de ressources de calcul nécessaires aux développements de tous leurs projets pour lesquels la simulation numérique est un atout indispensable : études sur le fonctionnement des centrales électriques, conception de réacteurs nucléaires, développement de moteurs d’avion et d’hélicoptère, analyse des risques environnementaux, décryptage du génome, évolution du climat

Par Audrey Loubens, journaliste scientifique

Bienvenue à Nano-Rennes

La plateforme Nano-Rennes, créée en 2001, consiste en la mutualisation des moyens technologiques et humains des laboratoires IETR-GM et FOTON-INSA de Rennes.

Pour la première fois, elle ouvre ses portes au public pour présenter ses équipements. Suite à cette exhibition, les visiteurs pourront découvrir les différents projets portés par Nano-Rennes.

Sa particularité est de regrouper sur un même site un fort savoir dans la croissance et la technologie associée aux filières Silicium et III-V (principalement InP). Les domaines d’excellence sont la microtechnologie pour la réalisation de capteurs (MEMS, bio-chimiques), la croissance de nanostructures quantiques (puits, fils et boîtes quantiques), la croissance de composés silicium basse température (applications TFT, MEMs), la microtechnologie photonique (lasers, micro-cavités, VCSELs), et l’intégration hétérogène et/ou homogène des filières optoélectroniques et microélectroniques (hétéroépitaxie de composés III-V sur Si) pour le développement de nouvelles fonctionnalités sur Si (lasers, MOS à forte mobilité (III-V), cellules photovoltaïques à grande efficacité).

Pour tout renseignement sur cette journée portes ouvertes : [email protected]

Par Audrey Loubens, journaliste scientifique

Une nouvelle molécule émettrice de lumière bleue pour OLED

Parus dans la revue Journal of Materials Chemistry, les travaux des équipes du laboratoire « Sciences Chimiques de Rennes » (CNRS/Université de Rennes) démontrent pour la première fois que des molécules permettant l’émission de lumière bleue via la génération d’« excimères intramoléculaires » pouvaient être utilisées comme couche active dans une OLED.

L’architecture de cette molécule, contenant deux fragments moléculaires de type ‘Aryl/Fluorène/Aryl’ (systèmes π2) face à face à l’état fondamental, permet de favoriser la formation d’excimères intramoléculaires à l’état excité et d’exploiter leur fluorescence caractéristique de couleur bleue (ca 460 nm).

Une fois cette molécule synthétisée, les chercheurs de l’Université de Rennes, Joëlle Rault-Berthelot et Cyril Poriel, se sont associés aux chercheurs du Laboratoire de l’intégration, du matériau au système (Laurence Vignau – CNRS/Université de Bordeaux1/Institut Polytechnique de Bordeaux) pour utiliser ces nouvelles molécules comme couches actives dans des OLEDs.

Ce design original ouvre de nouvelles voies pour concevoir des émetteurs fluorescents pour les OLEDs de demain.

Par Audrey Loubens, journaliste scientifique

Les conditions d’exploitation d’une ICPE changent

Le dispositif réglementaire en vigueur prévoit tout d’abord que « toute modification apportée par le demandeur à l’installation, à son mode d’utilisation ou à son voisinage, entraînant un changement notable des éléments du dossier de demande d’autorisation doit être portée, avant sa réalisation, à la connaissance du préfet avec tous les éléments d’appréciation » (article R512-33 II alinéa 1er du code de l’environnement).

La première étape consiste donc à s’interroger sur le caractère « notable » ou non du changement. Cette notion n’est pas définie par les pouvoirs publics, et elle est appréciée au cas par cas par le Juge lorsqu’il est saisi.

Il a été jugé que ne constitue pas un changement notable le remplacement, au sein du service de sécurité d’une raffinerie, des sapeurs-pompiers professionnels par des personnels n’ayant pas cette qualité mais spécialement formés et entraînés (CAA Lyon, 10 décembre 2002, CHRCST de la raffinerie Elf Antar de Feyzin, n°98LY02085). Au contraire, ont été considérées comme des changements notables l’augmentation des capacités de stockage de substances polluantes (CAA Nancy, 30 juin 1994, Bouchard, n°93NC00690) ou l’installation d’un nouvel appareillage dans un atelier de menuiserie (Conseil d’Etat, 1er octobre 1976, Boutboul, Lebon Tables page 943).

Par précaution, et pour éviter toute situation difficile avec l’autorité préfectorale, il est conseillé de la tenir informée de tout changement suffisamment important et susceptible d’avoir un impact sur les conditions initiales de fonctionnement de l’installation, que cet impact soit positif ou négatif. Est au demeurant puni de la peine d’amende prévue pour les contraventions de la 5e classe (montant de 1 500.00 euros au plus) le fait d’omettre de procéder à cette information avant la réalisation de la modification.

C’est sur la base de cette information, délivrée par l’exploitant, que l’autorité préfectorale va apprécier l’importance du changement. Si le changement n’est pas substantiel, il peut simplement enregistrer la modification, mais il peut également inviter l’exploitant à déposer une demande d’enregistrement ou lui imposer des prescriptions techniques complémentaires (article R512-33 II alinéa 4 du code de l’environnement). « S’il estime, après avis de l’inspection des installations classées, que la modification est substantielle, le préfet invite l’exploitant à déposer une nouvelle demande d’autorisation » (article R512-33 II alinéa 3 du code de l’environnement).

Une modification est considérée comme substantielle notamment lorsque sont atteints des seuils quantitatifs, ou lorsqu’elle est de nature à entraîner des dangers ou inconvénients significatifs pour les intérêts protégés par la réglementation des ICPE (cf. liste figurant à l’article L511-1 du code de l’environnement).

Pour faciliter cette appréciation, la circulaire ministérielle du 14 mai 2012 fixe des lignes directrices dont elle préconise l’application « dans le cadre d’une analyse détaillée de chaque cas particulier ». Il ne s’agit en aucun cas de critères automatiques que l’autorité préfectorale peut utiliser pour motiver sa décision. La circulaire invite par ailleurs les préfets à statuer dans un délai maximal de deux mois à partir du moment où l’exploitant a transmis les éléments d’information nécessaires.

Trois situations sont distinguées :

  • Dépassement des seuils fixés par la nomenclature des ICPE ou par la directive n°2010/75/UE du 24 novembre 2010 relative aux émissions industrielles, IED (appelée à remplacer la directive relative à la prévention et à la réduction intégrée de la pollution, IPPC)

La circulaire précise que « le premier dépassement » soit du seuil haut de la directive Seveso, correspondant au seuil AS de la nomenclature des ICPE, soit d’un seuil de la directive IED constitue systématiquement une modification substantielle. Les dépassements ultérieurs de ces seuils, ou encore le dépassement du seuil bas de la directive Seveso, ne sont donc pas concernés par cette automaticité.

  • Dépassement de seuils réglementaires

Pour mémoire, l’arrêté ministériel du 15 décembre 2009 fixe des seuils et critères qui conduisent systématiquement à une nouvelle procédure d’autorisation. Sont concernées :

– les installations qui utilisent des solvants organiques relevant de la directive n°99/13/UE du 11 mars 1999 relative aux composés organiques volatils (COV),

– les installations relevant de la directive IED précitée,

– les industries chimiques et pétrolières relevant de la directiven°2011/92/UE du 13 décembre 2011 concernant l’évaluation des incidences de certains projets publics et privés sur l’environnement.

Dès lors que la modification entraîne un dépassement d’un seuil fixé par cet arrêté ministériel, pour ces catégories d’installations, elle doit automatiquement être considérée comme substantielle.

  • Evaluation au cas par cas

En dehors des cas d’automaticité précités, les modifications doivent faire l’objet d’un examen au cas par cas. La circulaire insiste tout d’abord sur la nature des éléments d’information qui doivent être transmis par l’exploitant, et à défaut, qui doivent lui être demandés : description suffisamment détaillée, modifications des rubriques de classement, rejets, incidences.

Le caractère significatif d’un accroissement des dangers et inconvénients doit être apprécié « de manière relative en fonction des enjeux principaux présentés par l’installation ». La circulaire rappelle enfin qu’en l’état de la jurisprudence, il convient de tenir compte des changements successifs et de leurs effets cumulés.

Par Solange Viger, avocate au barreau de Paris et consultante en droit de l’environnement

 

Pour aller plus loin :

Découvrez les Fiches Pratiques Techniques de l’Ingénieur :

Participez à la formation Techniques de l’Ingénieur :

 

 

 

 

 

 

 

REACH ne devrait pas être réformé à court terme

Les industriels devraient être satisfaits. La Commission européenne ne devrait pas proposer de réforme de la réglementation REACH dans l’immédiat.

Entrée en vigueur en 2007, ce texte est probablement l’une des législations environnementales les plus importantes de l’Union européenne. REACH oblige les industriels à enregistrer les substances chimiques produites ou importés en Europe auprès de l’Agence européenne des produits chimiques (ECHA). Les autorités publiques peuvent ainsi limiter l’utilisation d’une substance jugée particulièrement nocive pour l’environnement ou la santé humaine. Certaines ne peuvent être utilisées qu’après autorisation.

Après cinq ans d’existence, la Commission fait un bilan de la législation. Plusieurs études ont déjà été réalisées. Les premières conclusions générales seront publiées après l’été, indique le cabinet du commissaire européen Antonio Tajani, en charge du dossier. Mais les fédérations industrielles du secteur, et les organisations non-gouvernementales sont convaincues que la Commission ne réformera pas tout de suite la réglementation.

Pas de réforme

« Au cours des deux dernières années, la Commission a fait passer un message très clair à tout le monde : elle ne proposera aucune modification de la législation », affirme Vito Buonsante de l’ONG environnementale « ClientEarth ». Pour M. Lulei de la fédération allemande de l’industrie chimique « VCI », les études connues aujourd’hui laissent supposer que la Commission est globalement satisfaite de la mise en œuvre de REACH, et n’envisage pas de réformer le texte. Cette perspective satisfait l’industrie, qui espère que cette « jeune » législation ne sera pas modifiée.

« La première phase d’enregistrement s’est terminée en 2010, et il y en aura encore deux autres », rappelle ainsi Michael Lulei. « On est à mi-chemin », a pour sa part expliqué le directeur général de l’Union des Industries Chimiques (UIC) Jean Pelin, lors d’une conférence de presse le 29 mai à Paris. La plupart des petites et moyennes entreprises seront concernées à partir de juin 2013. Il est donc de toutes façon trop tôt pour tirer, aujourd’hui, des conclusions valables de l’expérience REACH, estime M. Lulei. Par conséquent, les résultats de l’examen de la Commission actuellement entrepris n’auront, pour lui, qu’une « signification limitée ».

Coûts et bénéfices

Les entreprises ont fait d’énormes efforts pour se conformer à la législation, rappelle l’UIC. Et les coûts engendrés ont été largement sous-estimés lors du lancement de REACH. Une entreprise européenne paie en moyenne 70 000 euros pour monter et déposer un dossier d’enregistrement auprès de l’ECHA. Toutefois, « tant que les coûts ne dépassent pas les bénéfices indéniables, cela se justifie », estime M. Buonsante. Et les industriels ne nient pas l’intérêt de la législation.

REACH a permis d’acquérir une grande quantité d’information sur les risques liés aux substances chimiques. Mais les fédérations industrielles, tant au niveau national qu’européen, se battent pour que la charge administrative ne devienne pas trop lourde, notamment pour les PME.

Chantiers

Les ONG de protection de l’environnement savent que la prochaine réforme de REACH n’est pas pour demain. Elles identifient néanmoins un certain nombre de chantiers à moyen terme. Tout d’abord, la mise en œuvre de la réglementation devrait être accélérée. Aujourd’hui seuls 84 produits sont sur la « liste candidate » des substances préoccupantes et ainsi susceptibles de faire l’objet d’une restriction d’utilisation.

L’objectif initial de la Commission, déclaré en 2010, était d’arriver à environ 150 à la fin de l’année 2012. « Si on continue à cette vitesse là, on n’y arrivera sûrement pas », met en garde M. Buonsante. Le comité en charge de la décision exige souvent des preuves très détaillées sur la nocivité d’une substance, avant de l’inclure sur la liste candidate, poursuit-il. Et cela n’est pas compatible avec le principe précaution, qui sous tend la législation : l’absence de preuves scientifiques ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures préventives, estime l’ONG.

Ensuite, REACH devrait aussi s’appliquer à certains produits chimiques qui échappent aujourd’hui à la réglementation, tels que les mélanges de produits et les nanotechnologies. La Commission européenne pourrait aborder ces sujets lors de l’évaluation de REACH à l’automne 2012. Mais des propositions de réformes substantielles sont peu probables d’ici la prochaine évaluation prévue en 2017.

Julian Schorpp

Source : Euractiv.fr

 

La situation des forages de Shell en Guyane sera réévaluée… plus tard

Les choses vont très vite au Ministère de l’écologie depuis quelques jours.

Le 13 juin dernier, la première ministre de l’Ecologie du gouvernement Ayrault, annonce avec le ministre du Redressement productif Arnaud Montebourg, une « remise à plat » de tous les permis d’exploration pétroliers et gaziers, dont ceux déjà accordés à Shell en Guyane, en attendant une refonte du code minier. « On est très attachés à la protection de la faune marine et de l’environnement, et nous n’avons aucune garantie quant à ça », justifie alors Nicole Bricq.

Depuis, Nicole Bricq n’est plus Ministre de l’écologie, et le pétrolier Shell va reprendre son activité d’exploration au large de la Guyane.

L’Elysée et Matignon ont finalement arbitré contre Nicole Bricq

Le sénateur Georges Patient et la députée Chantal Berthelot ont ainsi indiqué à l’Agence France Presse le 20 juin, après avoir rencontré le ministre des Outre-mer, Victorin Lurel, que le préfet de Guyane avait eu « l’autorisation de signer les arrêtés préfectoraux ».

Ceux-ci autorisent la relance de la nouvelle campagne d’exploration du groupe Shell dans les eaux guyanaises. Il s’agit d’un camouflet pour Nicole Bricq, réfutée sur ses arbitrages.

Les écologistes, totalement solidaires de la décision de Nicole Bricq dans un premier temps, soupçonnent aujourd’hui le gouvernement d’avoir retourné sa veste et de céder à la pression du lobby pétrolier et de Shell en particulier.

De plus, ils estiment que les conditions nécessaires en termes de sécurité environnementale pour ce forage à grande profondeur ne sont pas réunies.

Du côté de Matignon et de l’Union française des industries pétrolières (Ufip), on s’étonne que Nicole Bricq ait pu vouloir suspendre des permis d’exploration accordés il y a plus de onze ans par le gouvernement Jospin. L’argent déjà investi par les pétroliers suite aux autorisations préalables rendrait tout retour en arrière impossible, selon l’UFIP  qui ajoute également que ces suspensions ne sont pas prévues dans le cadre de la loi.

Des permis d’exploration accordés il y a plus de 11 ans

Quoi qu’il en soit, la refonte du code minier, inchangé depuis 1810, et qui régit l’exploitation du sous-sol français, notamment pour la recherche de gaz et de pétrole, était le premier chantier lancé par Nicole Bricq à son arrivée au ministère en mai. « Cette refonte est une priorité », a déclaré Delphine Batho, qui lui a succédé au Ministère depuis, dans un communiqué diffusé dans la nuit de vendredi à samedi.

C’est également l’avis du Président Hollande, qui l’a confié à Daniel Cohn-Bendit :  « Il m’a dit […] que, de toute façon, il y aurait une nouvelle loi minière, donc sur les forages, et qu’en fonction de cette nouvelle loi, après serait réévaluée la situation en Guyane », a déclaré à la presse le coprésident du groupe écologiste au Parlement européen.

Ainsi, Nicole Bricq voulait suspendre les explorations en profondeur jusqu’à la modification du code minier. François Hollande préfère autoriser l’application des permis délivrés jusqu’à la modification du code minier.

A la vue des enjeux financiers, on comprend l’importance de cette distinction : Le coût total du projet, qui réunit Shell (45 %), Total (25 %) et Hardman Petroleum (27,5 %), a été évalué entre 4 et 8 milliards d’euros. Le site de Zaedyus pourrait contenir jusqu’à 300 millions de barils de pétrole.

Par Pierre THOUVEREZ

Gaz de schiste : les discussions au Parlement promettent d’être tendues

La Commission européenne a annoncé, en janvier, qu’il n’y avait pas de « besoin immédiat » de modifier la législation européenne en fonction des nouvelles activités autour du gaz de schiste.

Mais le rapport d’un député polonais fait débat au Parlement.

Extrapolation

Boguslaw Sonik (PPE) a présenté, fin avril, un texte sur les impacts environnementaux de l’exploitation du gaz de schiste, dans lequel l’élu conservateur se prononce en faveur de l’exploitation de ce gaz.

Tout en soulignant l’importance du « principe de précaution dans tout développement futur des ressources en Europe », il déplore « le discours public, qui a délibérément (…) extrapolé, généralisant des incidents hypothétiques ou isolés à l‘ensemble de l’extraction de gaz de schiste ». Lors de sa présentation, le texte a suscité une levée de boucliers d’organisations environnementales, qui ont appelé à la suspension des activités d’exploitation du gaz de schiste dans un communiqué commun.

« Volonté de dédramatiser »

Au Parlement européen, la commission en charge du développement a voté, mardi 19 juin, en faveur d’un texte de la députée verte Catherine Grèze, qui va à l’encontre des arguments avancés par M. Sonik. L’élue souligne les impacts négatifs de l’exploitation de gaz de schiste sur les pays du Sud. De son côté, la commission des affaires juridiques rappelle que la mise à jour de certains textes est nécessaire pour prendre en compte l’exploitation de cette nouvelle énergie.

Dans son rapport, adopté mercredi 20 juin, la députée Eva Lichtenberger (Verts/ALE) demande notamment la révision de la directive sur l’évaluation des incidences environnementales, qui n’introduit pas d’étude d’impact obligatoire sur le gaz de schiste. Les émissions du gaz de schiste devraient également être comprises dans la directive sur les émissions industrielles, indique-t-elle.

De son côté, la députée verte Michèle Rivasi, déplore la « volonté (de M. Sonik) de dédramatiser » les effets du gaz de schiste sur l’environnement. « Il est à côté de la plaque », estime la Française. La question soulevée par les parlementaires lors de la réunion de la commission de l’Environnement du 21 juin est aussi celle du financement de l’exploitation du gaz de schiste, qui pourrait se faire au détriment du développement des énergies renouvelables.

Les objectifs fixés pour 2020 en matière d’efficacité énergétique pourraient également être difficiles à atteindre.

Déstabilisation des « régimes nationaux »

La position de Boguslaw Sonik n’est pas surprenante. La Pologne compte beaucoup sur cette énergie pour développer son économie et réduire sa dépendance au gaz russe. Varsovie a prévu de démarrer l’exploitation du gaz de schiste en 2013.

Tout ce qui pourrait limiter son action dans ce domaine est donc mal vu. De nouvelles règles européennes « déstabiliseraient l’actuel réseau adéquat de régimes nationaux et européens », estime M. Sonik.

Règles d’or 

La Commission européenne n’a pas prévu, pour le moment, de modifier la législation en vigueur. Elle devrait recevoir en août des études sur les risques sanitaires et environnementaux des activités liées au gaz de schiste, et pourrait dès lors se prononcer sur l’instauration de nouvelles règles. Les différentes phases d’exploitation du gaz sont actuellement régies par des textes spécifiques.

L’utilisation des substances chimiques lors de l’extraction de cette ressource est par exemple réglementée par la directive REACH sur les produits chimiques. Selon les règles d’or de l’Agence internationale de l’énergie (AIE), publiées le 29 mai, l’exploitation du gaz de schiste fait partie intégrante du développement de l’utilisation du gaz naturel. Le rapport de M. Sonik devrait être présenté en séance plénière au mois d’octobre.

Par Ann-Laure Bourgeois

 

A lire aussi :

Les gaz de schiste enflamment l’Assemblée

Gaz de schiste : pour ou contre ?

Gaz de schiste : « Il y a des risques de contentieux »

Gaz de schiste : Fillon veut « tout remettre à plat »

L’exploitation des gaz de schiste plus polluante que celle du pétrole ou du charbon ?

Révélations inquiétantes aux Etats-Unis sur les Gaz de schiste

Le gaz de schiste, au premier plan de l’actualité

Apple : Pourquoi Tim Cook ne doit pas être le clone de Steve Jobs

Scruté dans les moindres détails depuis sa prise de fonction à la tête d’Apple en octobre 2011, Tim Cook sait pertinemment qu’il est attendu par les médias, la communauté « geek », les analystes et tous les aficionados de la marque désormais orphelins du gourou si disruptif et charismatique qu’était Steve Jobs. Un jour avant le décès de ce dernier, Tim Cook a d’ailleurs dû monter sur scène pour le traditionnel keynote Apple dévoilant l’iPhone 4S. Au-delà de la déception de ne pas voir surgir un téléphone mobile totalement nouveau, les commentaires sont également allés bon train concernant la prestation oratoire du nouveau n°1. Tim Cook fut jugé terne et en retrait par rapport aux discours inspirés et fascinants que délivrait Steve Jobs avec une aisance confondante.

Ni disciple, ni clone !

Tim Cook lors de son interview avec AllThings D

Quelques mois plus tard, Tim Cook assume pourtant pleinement son choix de refuser le rôle de clone qu’un certain écosystème nostalgique des années Jobs aurait inconsciemment aimé le voir endosser. Lors d’une conférence organisée par le site américain spécialisé All Things Digital, le nouveau commandeur d’Apple a été sans ambages sur le leadership qu’il compte appliquer en lieu et place de celui de son prédécesseur (1) : « Steve était un génie et un visionnaire. C’est une personne irremplaçable. Steve était un original, et je ne pense pas qu’on en trouve d’autres comme lui aujourd’hui. Je ne me suis jamais senti l’étoffe d’essayer d’être Steve. Ce n’est pas qui je suis, et ce n’est pas mon but dans la vie ».

A ceux qui espéraient voir un disciple formaté de Steve Jobs conduire les destinées de la firme de Cupertino, la déclaration a probablement dû doucher quelques attentes d’Applemaniacs. D’autant qu’au cours de ce même entretien, Tim Cook a clairement enfoncé le clou en se démarquant quelque peu de la philosophie du père d’Apple sans cesse obsédé par le fait d’imaginer des produits émotionnels. Son successeur résume son ambition (2) : « Je veux simplement faire de bons produits. Je pense que si nous faisons cela, tout le reste suit ».

Est-ce alors à dire que Tim Cook va vider Apple et ses produits de leur quintessence magique et par ricochet de leur capacité à innover et fédérer des communautés de fans irréductibles ? Rien n’est moins acquis. Certes, les mélancoliques ne résoudront sûrement jamais à voir Apple inexorablement muter depuis la disparition de Steve Jobs. Pour autant, l’approche managériale et communicante de Tim Cook est avisée.

Rupture et ouverture au menu

A la tête d’Apple, Tim Cook n’entend pas être un disciple formaté de Steve Jobs

Mieux, il assume totalement la rupture qu’il entend enclencher au sein d’Apple et qu’il juge nécessaire pour éviter que l’entreprise ne s’assoupisse dans un hasardeux culte passéiste. Pour expliquer son approche, Tim Cook se plaît souvent à évoquer la comparaison avec Walt Disney à laquelle Steve Jobs lui-même recourait lorsqu’il songeait à un Apple sans lui (3) : « Steve m’a dit, lorsque nous discutions de la possibilité que je devienne CEO, « j’ai vu ce qu’il s’est passé chez Disney, les gens tournaient en rond toute la journée en se demandant « ce que Walt aurait fait ». » Il m’a jeté un regard intense, et m’a intimé de ne jamais faire ça. De simplement faire les bons choix. Et c’est ce que je fais. Est-ce que cela veut dire que des choses vont être différentes ? Bien sûr ».

De fait, Tim Cook n’a guère tarder à faire évoluer les choses et a imprimé sa marque de PDG fraîchement nommé. Il a notamment remanié récemment certains organigrammes emblématiques de l’ère Steve Jobs. A cet égard, les départs de Pascal Cagni, directeur général et vice-président d’Apple EMEIA et d’Hervé Marchet, directeur d’Apple EMEIA et proche du premier, sont symptomatiques de la reprise en main enclenchée par Cupertino sur ses filiales. Deux évictions d’autant plus significatives que ce tandem était réputé pour être proche de Steve Jobs mais ne plaisait plus selon certains observateurs (4) au nouveau PDG d’Apple allergique à certaines baronnies managériales qui s’étaient constituées au sein de l’entreprise.

Au-delà des traditionnels jeux de chaises musicales lors d’une succession à la tête d’une entreprise, Tim Cook rompt également avec certains dogmes qui régissaient inflexiblement le comportement de Steve Jobs. Le premier d’entre eux est notamment ce superbe isolement légèrement teinté d’arrogance que Steve Jobs ne manquait jamais de manifester à l’égard de ceux qui contestaient ou faisaient part de certaines requêtes ou critiques. Avec Jobs, celles-ci étaient balayées d’un revers de main en quelques phrases lapidaires, voire un silence obstiné comme ce fut le cas lors des crises produits rencontrées avec les explosions d’écran de l’iPhone 3 ou les défaillances techniques de l’antenne de l’iPhone 4.

Steve Jobs était tout aussi intraitable avec ses concurrents. Il était par exemple parti dans une guerre sans merci envers le système d’exploitation Android que Google avant lancé pour contrer le système iOS d’Apple, en déclarant péremptoire en 2010 (5) : « Je vais détruire Android parce que c’est un produit volé ». Interrogé sur ce thème lors de la présentation des résultats du 1er trimestre 2012, Tim Cook s’est nettement dissocié de cette vision belliqueuse (6) : « J’ai toujours détesté les contentieux et je continue de les détester. Nous voulons juste que les gens inventent leurs propres choses (…) Je préférerais grandement régler les litiges que batailler ».

Lire la suite ici

Par Olivier Cimelière Le blog du Communicant 2.0 / Le Plus, Le Nouvel Observateur

 

Olivier Cimelière

Après avoir été reporter en presse écrite et en radio à la sortie de son école de journalisme (CELSA), Olivier s’est orienté vers la communication d’entreprise au sein de grandes entreprises internationales dans successivement le secteur pharmaceutique (Bœhringer Ingelheim), le secteur alimentaire (Nestlé Waters) et le secteur des technologies de l’information et de la communication (Ericsson & Google). Olivier compte plus de 20 ans d’expérience professionnelle en communication, relations presse et réseaux sociaux. Il anime en outre un blog personnel sur la communication, l’information, la réputation et la distorsion d’image : www.leblogducommunicant2-0.com. Il est l’auteur d’un essai intitulé « Journalistes, nous avons besoin de vous !  »

 

 

 

 

 

 

 

 

 

 

Probiotiques et obésité : des experts contre-attaquent

Nous assistons ces derniers jours à une multiplication des articles sur un lien supposé entre la consommation de probiotiques et l’obésité, allant jusqu’à une remise en cause de l’intérêt des produits laitiers pour la santé humaine. Des amalgames malheureux et des raccourcis trompeurs sont à l’origine de ces articles. Il est nécessaire et urgent de combattre les fausses rumeurs qui touchent à un champ de recherche aussi prometteur pour la santé humaine.

Depuis plusieurs années, des amalgames sont faits dans les média entre les études chez l’homme et les études chez l’animal, entre les études portant sur des probiotiques utilisés pour améliorer la croissance des animaux d’élevage et celles sur des probiotiques utilisés dans les produits laitiers. Ces amalgames peuvent être compréhensibles au vu de la complexité de la recherche dans ce domaine. Néanmoins, la communauté internationale est catégorique aujourd’hui : rien ne permet de conclure à un lien entre obésité et probiotiques. Les scientifiques internationaux les plus renommés dans ce domaine, regroupés au sein de l’Association Scientifique Internationale pour les Probiotiques et les Prébiotiques (ISAPP), ont conclu à cette absence de lien après une analyse approfondie de la littérature dès 2009.

Analyse critique de l’article paru dans la revue Microbial Pathogenesis, mai 2012 : ne confondons pas « croissance en bonne santé » et « obésité »

L’origine des articles parus ces derniers jours est la parution fin mai d’une méta-analyse  intitulée « Méta-analyse comparative des effets des espèces de lactobacilles sur la prise de poids chez l’homme et l’animal ». Elle a conclu à une association entre la consommation de certaines souches de probiotiques et une prise de poids. La prise de poids ne signifie pas obligatoirement une augmentation de la masse grasse : en particulier chez ces animaux en croissance (poulets, porcs), il s’agit surtout de muscles et d’os, pas de graisse.

En réalité, cette méta-analyse montre que :

  • Certaines souches de Lactobacilles ont des effets anti-obésité, chez des sujets minces ou en surpoids (six études chez l’animal, une étude chez l’homme).
  • Le probiotique L. fermentum, utilisés par des éleveurs de volailles ou autres animaux d’élevage, favorise la croissance des animaux et non l’augmentation de leur masse grasse. Pour rappel, cette espèce probiotique n’est pas présente dans les produits laitiers. Concernant l’espèce L. ingluviei, qui fait l’objet de plusieurs études traitées dans la méta-analyse, elle ne figure pas dans la liste des espèces autorisées en Europe pour l’alimentation animale.
  • Chez l’animal, le probiotique L. acidophilus a des effets différents selon l’espèce à qui il est donné : 4 études sur 11 rapportent un gain de poids (qui correspond, là encore, à une meilleure croissance et non un gain de masse grasse), les 7 autres études ne montrant aucune influence du probiotique sur le gain de poids.
  • Chez l’homme, les 2 seules études considérées dans la méta-analyse suggèrent que le probiotique L. acidophilus a des effets différents selon qu’il est consommé par des adultes ou des nourrissons : chez l’adulte, les variations de poids sont qualifiées de « négligeables » par les auteurs de l’étude. L’étude faite chez le nourrisson, qui date de 1952, comporte trop de biais pour être interprétable, comme l’auteur l’indique lui-même. Conclure des seuls résultats de cette étude que L. acidophilus serait un facteur favorisant l’obésité reviendrait à postuler que l’allaitement maternel favorise l’obésité des enfants…
  • Par ailleurs, les auteurs de la méta-analyse ignorent de nombreuses études portant sur l’impact de L. acidophilus sur le métabolisme humain, qui concluent à l’absence d’effet sur la prise de poids, voire à une perte de poids.

La consommation de laits fermentés et de yaourt ne fait pas grossir

Les études de consommation réalisées par le CCAF (Comportement et Consommation Alimentaire en France) montrent qu’il n’y a aucun lien entre consommation de laits fermentés et surpoids ou obésité. Au contraire, les résultats de ces études suggèrent que les personnes minces (IMC<18,5), consomment davantage de yaourts et de lait fermenté que le reste de la population.

Le yaourt fait l’objet en France d’une définition très précise quant aux bactéries qu’il contient : il s’agit exclusivement des espèces Streptococcus thermophilus et Lactobacillus bulgaricus. Ces bactéries, utilisées depuis des milliers d’années par l’homme dans les processus de fermentation du lait, n’ont jamais été mises en cause par des études scientifiques sur un quelconque lien avec une prise de poids.

Au contraire, des travaux récents montrent un rôle bénéfique des probiotiques sur la prévention de l’obésité :

  • Une étude finlandaise présentée au 17e Congrès Européen sur l’Obésité en mai 2009  montre sur 256 femmes que la prise d’une combinaison de probiotiques pendant la grossesse diminue très significativement l’apparition d’obésité abdominale un an après l’accouchement
  • Une autre étude  montre que les bébés qui possèdent un nombre élevé de bifidobactéries dans leur microbiote intestinal (de la naissance à 12 mois) sont moins nombreux à devenir obèses à l’âge de 7 ans.

Les produits laitiers participent à un meilleur équilibre alimentaire

La consommation de 3 à 4 produits laitiers est un des repères de consommation du Programme National Nutrition Santé. Les produits laitiers fermentés représentent une famille de produits très variés, ancrée dans la culture alimentaire française. Ils regroupent les yaourts, les fromages, les petits suisses… Ils sont une source de plaisir alimentaire importante, tout en apportant des nutriments essentiels à notre santé. Il nous semble important de le rappeler ici, car l’équilibre alimentaire est un facteur majeur de bonne santé tout au long de la vie.
La recherche sur les probiotiques et le microbiote porte de nombreux espoirs pour la santé humaine

Les produits laitiers fermentés comme le yaourt, les fromages ou les laits fermentés contiennent des bactéries aux propriétés bénéfiques utilisées depuis des centaines, voire des milliers d’années. Ces bactéries sont l’objet d’études scientifiques depuis le début du 20ème siècle.
Depuis 20 ans et l’amélioration des techniques de recherche scientifiques, le nombre d’études sur les probiotiques ne cesse d’augmenter. Les études scientifiques sont particulièrement prometteuses sur l’influence positive des probiotiques sur le système immunitaire et le système digestif, et les champs de recherche s’élargissent en permanence.

Nous devons prendre le temps de l’analyse et favoriser le partage de nos questionnements avec nos confrères. La diffusion d’informations alarmistes et erronées, ou au contraire trop élogieuses, peut conduire à des comportements alimentaires à risque, l’éviction ou la surconsommation de catégories d’aliments importants pour notre équilibre, pas seulement sur le plan nutritionnel.

Par Pr Jean-Louis Bresson, Dr. Jean Fioramonti, Dr Gérard Corthier, Dr Robert Ducluzeau

A lire également

Des éoliennes offshore à axe vertical

NORCOWE est un des centres de recherche sur l’énergie respectueuse de l’environnement (FME) [1] mis en place par le Conseil Norvégien de la Recherche (RCN) [2].

Le projet est divisé en deux parties. La première partie, « technologie éolienne offshore et concepts innovants », couvre la période 2011-2012. La deuxième, « éolienne à axe vertical offshore flottante », sera conduite en 2012-2013.

Comme son nom l’indique, le produit final sera une éolienne flottante à axe vertical. L’axe devrait s’élever à 132 mètres au dessus du niveau de la mer et réaliser un tour complet en 28 secondes. « Nous envisageons dans l’avenir la conception d’un produit du même gabarit que le projet Hywind. Nous pensons pouvoir développer une solution moins chère à puissance équivalente. », dit Arnfinn Nergaard [3], professeur à l’UiS.

Hywind [4] est un prototype d’éolienne flottante (à axe horizontal) de 2,3 MW, développé par le groupe Statoil et en test depuis 2009 en Mer du Nord.

Prekubator [5], le bureau de transfert de technologie (TTO) de l’Université de Stavanger, est en charge des tests et de la commercialisation du projet. « Le premier modèle devrait être prêt pour les essais en 2013. Nous avons ciblé dans un premier temps les clients potentiellement intéressés par une turbine individuelle, tels que les plateformes pétrolières et les installations d’aquaculture. A plus long terme, nous envisageons la construction de parcs éoliens, mais cela a peu de chance d’aboutir avant dix ou quinze ans. », dit Simen Malmin [6], chef de projet pour l’innovation et le développement des affaires à Prekubator.

Le financement total du projet atteint aujourd’hui 5,35 millions de couronnes norvégiennes (environ 700.000 euros), fonds attribués par le Conseil Norvégien de la Recherche.


– [1] FME : http://redirectix.bulletins-electroniques.com/s2J8l
– [2] RCN : http://www.forskningsradet.no
– [3] Arnfinn Nergaard : [email protected]
– [4] Hywind : http://redirectix.bulletins-electroniques.com/9NkZ9
– [5] Prekubator : http://prekubatortto.no/english
– [6] Simen Malmin : [email protected]

(Source : http://www.bulletins-electroniques.com/actualites/70315.htm)

Revue du Web #27 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • La vidéo virale de la semaine : casser un oeuf à 20 mètres de profondeur ;
  • la combustion du lithium, en slow-motion ;
  • une micro-bulle d’air contrôlée au laser ;
  • le gadget (inutile ?) de la semaine : Ascending Aggies, le ninja lent et bruyant
  • enfin, en bonus, une photo au timing parfait d’une abeille perdant son dard.

Casser un oeuf à 20 mètres de profondeur :

Pour débuter cette vingt-septième revue du web, voici la vidéo virale de la semaine : un groupe de plongeurs amateurs se demandant ce qu’il adviendrait d’un oeuf – cru – à 20 mètres de profondeur, s’est donc livré à une expérience amusante. Observant que la coquille de l’oeuf résistait parfaitement aux nouvelles conditions de pression (à savoir : à 20 mètres de profondeur, la pression est de l’ordre de trois atmosphères, trois fois plus qu’en surface au niveau de la mer), l’un des plongeurs casse alors la coquille.
Que voit-on ? Le blanc et le jaune d’oeuf, en dehors de la coquille, restent solidaires, conservant plus ou moins la forme de l’oeuf. Commence alors un jeu rappelant de nombreuses vidéos d’astronautes en impesanteur : les plongeurs jouent avec l’oeuf, le faisant même tournoyer sans qu’il ne s’étale le moins du monde, jusqu’au moment où l’un d’entre eux décide de le faire exploser entre ses deux mains. L’explication est très simple : ce sont bien évidemment les conditions de pression à 20 mètres sous l’eau qui permettent au jaune d’oeuf de garder sa belle forme sphérique, et au blanc de rester solidaire de celui-ci. Les forces exercées à cette profondeur « enveloppent » l’oeuf cru, qui n’a d’autre solution que de maintenir – à peu près – sa forme.

Lithium, combustion au ralenti :

Métal alcalin de numéro atomique 3, le lithium, originellement de couleur blanc argenté mais virant au noir au contact de l’air , est notamment connu pour son utilisation dans les batteries au lithium, en tant qu’anode grâce à son très grand potentiel électrochimique. Il est le seul métal alcalin pouvant être manipulé à l’air libre sans danger, alors que les autres s’oxydent avec le plus souvent inflammation.

La vidéo suivante est un petit bijou : la combustion du lithium, ralentie une dizaine de fois (filmée à 300 images par seconde), nous permet de voir le métal passer par différentes phases, toutes plus impressionnantes les unes que les autres. Lorsque le lithium est placé au-dessus d’une flamme, cette dernière se teinte d’un rouge profond alors que lorsqu’il commence à brûler, la flamme prend des reflets d’un blanc irridescent comme le magnésium. La combustion du lithium est très exothermique, et produit de l’oxyde de lithium. Le produit de la réaction, à la fin de la vidéo, a la forme de méristèmes de choux-fleurs. La réaction :
4 Li + O2 → 2 Li2O

Micro-bulle d’air contrôlée au laser :

Intéressante découverte d’un groupe de chercheurs de l’université de Hawaii, à Manoa, affiliés au laboratoire de recherche en micro-fluides : à l’aide d’un guidage laser, les scientifiques sont parvenus à contrôler le mouvement d’une micro-bulle d’air dans une solution d’eau salée, s’en servant de micro-robot obéissant au doigt et à l’oeil. La bulle d’air suit très fidèlement la position du laser, laissant entrevoir à l’équipe américaine un certain nombre d’applications.

En effet, cette bulle peut par exemple aider à déplacer des éléments à l’échelle cellulaire, poussant des cellules vivantes avec une facilité déconcertante. La deuxième partie de la vidéo démontre, à l’aide de blocs d’hydrogel ayant la forme de pièces de puzzle, l’extrême précision atteinte par ce système.

Le gadget (inutile ?) de la semaine : Ascending Aggies, ou comment essayer d’imiter un ninja… lent et bruyant

Un groupe d’étudiants ingénieurs de l’Université d’Utah a répondu à l’appel lancé par l’US Air Force à dix-sept des plus grandes universités américaines de manière ingénieuse et… particulièrement bruyante. La célèbre branche aérienne des forces armées des États-Unis a demandé aux aspirants ingénieurs de concevoir un système permettant à un groupe de quatre agents des unités spéciales d’éscalader la façade d’un bâtiment sans grapin et dans des conditions diverses et particulières. Autre point du cahier des charges : le poids du dispositif ne doit pas dépasser les dix kilogrammes, avec un objectif annoncé de moins de trois kilos.Responsables du seul dispositif ayant véritablement fonctionné, les « Ascending Aggies » comme ils se sont baptisés, ont remporté le premier prix decerné par le laboratoire de recherche de l’US Air Force.

S’inspirant tout simplement du principe de l’aspirateur-ventouse, la succion générée par les deux pads rend possible – mais malaisée et bruyante – l’ascension du mur par la jeune étudiante. Chacun des pads délivre 4,5 psi (livres par pouce carré), pression sensiblement plus élevée qu’un aspirateur classique.

Un procédé déjà vu à maintes reprises, et probablement inspiré par la seconde vidéo, épisode de la fameuse série scientifique « Bang goes the theory » créée par la BBC.

Bonus : la mort programme d’une abeille 

En bonus, voici une photo au timing parfait, prise par Kathy Keatley Garvey de l’Université de Californie à Davis. On y voit une abeille perdre son dard après la piqûre d’un bras humain, entrainant dans son sillage une partie des organes internes de l’insecte.
L’abeille est un insecte généralement inoffensif, mais qui peut défendre farouchement son nid et les routes aériennes qu’elle emprunte.

Lorsqu’elle se sent menacée, elle se sert de son dard pour injecter du venin, mais son dard est dentelé et reste ainsi fiché dans la peau de l’agresseur. Il est arraché de l’abdomen lorsque l’abeille s’éloigne, entrainant à sa suite une partie des organes internes de celle-ci, ainsi que son sac à venin qui, à cause des contractions réflexes des muscles arrachés (durant jusqu’à trente secondes), continue de se vider.

Par Moonzur Rahman, journaliste scientifique

A lire aussi :

Revue du Web#26

Revue du Web#25

Revue du Web #24

Revue du Web #23

Revue du Web #22

Co-Pilot, un portail collaboratif pour piloter et animer les systèmes de management

La société VA, PME toulousaine spécialisée dans l’édition de plate-forme logicielle, a identifié un certain nombre de problématiques rencontrées par les responsables des systèmes de management dans les PME, parmi lesquelles :

  • des difficultés pour trouver l’information dans une arborescence par répertoires, sous-répertoires, etc. ;
  • des outils « maison », Word, Access, Excel, incompatibles ou non interfaçables avec les progiciels de gestion intégrée (Sage, CGID, etc…) ;
  • des limites dans la gestion et le classement des mails ;
  • des non-conformités et actions d’amélioration qui ne sont pas suivies ni valorisées ;
  • des indicateurs difficiles à suivre et souvent non pertinents ;
  • Etc…

La solution est donc de structurer l’information pour mieux la piloter. Pour faire, la mise en place d’un portail collaboratif, en mode web 2.0, permet d’assurer quatre fonctions principales :

  1. La communication : les outils de communication facilitent la circulation organisée des diverses informations en interne entre les différents acteurs et/ou en externe avec plusieurs partenaires. Exemples : visio-conférence, web-conférence, tableau blanc, messagerie électronique, forum, etc…
  2. La coordination : les outils de coordination permettent la gestion des actions et des ressources autour d’un projet. Exemples : outils de workflow, outils de gestion de projet, outils de suivi des plans d’actions, etc…
  3. La gestion de contenu permet de classer la documentation, de concevoir des contenus tout en maîtrisant les accès et la diffusion. Exemples : GED, flux RSS, wiki, etc…
  4. Le pilotage : les tableaux de bord et les indicateurs de performance sont actualisés en temps réel optimisant ainsi le pilotage des processus.

Quels sont les avantages d’une telle démarche ?

Un portail collaboratif permet l’amélioration du travail collaboratif et la transmission des connaissances pour une organisation plus productive et performante. Les principaux atouts d’un tel outil sont de :

  • Mettre en lumière et faciliter la participation de chaque communauté de métiers.
  • Simplifier la recherche d’information et d’expertise.
  • Capitaliser les informations et les savoir-faire.
  • Centraliser toutes les données dans une seule base de connaissances.
  • Fédérer les équipes/communautés pour faire progresser l’entreprise dans une démarche commune.

La solution VA Co-Pilot

Les consultants VA, forts de 20 ans d’expérience, ont su décrypter ces attentes et problématiques. Cette PME toulousaine a donc fait le choix de développer des progiciels en mode web 2.0 autour des expertises Finance, Qualité et RH.

L’analyse du marché et des différents produits a amené le dirigeant de VA, Patrick Gagnol, à opter pour un des portails collaboratifs les plus utilisés dans le monde, modulable en fonction des besoins de chaque société : Microsoft SharePoint.

Construit sur cette application web éprouvée, Co-Pilot, solution de pilotage d’entreprise, est un progiciel modulaire intégrant un module de base composé d’un portail collaboratif et d’une fonction GED performante, plusieurs Applications métiers dont le module Qualité et différents Outils.

Ainsi, l’ensemble des acteurs de la démarche qualité a accès à l’ensemble des informations nécessaires pour piloter efficacement sa démarche (actions d’amélioration, suivi des non-conformités et des réclamations clients, gestion de documents, suivi des indicateurs de pilotage., etc…).

La solution VA Co-Pilot en images

 

Par Jérémy Cicéro, responsable et auteur du Qualiblog

 

Jérémy CICÉRO

Jérémy Cicéro est consultant, formateur, et auditeur ICA pour le Qualipole Languedoc-Roussillon. Il est aussi formateur pour le Laboratoire National de Métrologie et d’Essai (LNE).

Ancien commercial puis responsable qualité dans les poids et mesures, il accompagne depuis plusieurs années les TPE et PME de la région Languedoc-Roussillon (tous secteurs d’activités) pour la mise en place et l’amélioration de leurs systèmes de management.

Il intervient également comme expert qualité sur le site Manager-Go! en répondant aux questions des internautes soucieux de comprendre les mécanismes de la qualité.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Pour aller plus loin :

Découvrez les fiches pratiques Techniques de l’Ingénieur :

Efficacité énergétique : les professionnels sont mitigés

Les discussions entre le Parlement, le Conseil et la Commission ont abouti à l’adoption d’une proposition de directive sur l’efficacité énergétique dans la nuit du 14 au 15 juin.

Réduire de 20% la consommation d’énergie d’ici 2020

L’objectif pour l’UE est toujours de réduire de 20% d’ici 2020 la consommation d’énergie. Pour l’organisation de défense de l’environnement WWF Europe, les « Etats ont vidé de leur substance les propositions de la Commission, et surtout celles du Parlement ». « L’accord ne reflète ni l’urgence, ni l’ambition nécessaire pour que l’UE aille dans la bonne direction d’ici 2020, estime Arianna Vitali, chargée de l’énergie au sein de l’organisation. Les Etats doivent se réveiller et réaliser que cet accord est juste un petit pas dans la création d’une efficacité énergétique robuste dont nous avons besoin pour le futur. » Dans un communiqué de presse commun six ONG dont le réseau Action Climat France, dénoncent « les offensives des Etats » et affirment que le texte « a été affaibli à tel point que les mesures prévues dans la directive ne permettront d’atteindre qu’un objectif de 15% d’efficacité énergétique en 2020 ».

Même constat pour l’eurodéputé Claude Turmes, qui a conduit les négociations au nom du Parlement européen. Tout en reconnaissant que « la législation comprend un certain nombre de mesures cruciales qui engendreront de véritables économies d’énergie », l’eurodéputé Vert déclare que « les gouvernements européens, notamment les gouvernements allemand et britannique, n’étaient pas prêts à accepter des mesures plus ambitieuses qui auraient permis d’atteindre l’objectif de -20% dans sa totalité ». Le Parti populaire européen au Parlement se félicite d’une « solution pragmatique » qui laisse aux Etats le choix de « mesures individuelles sur le terrain » pour atteindre les objectif prévus. Les socialistes et démocrates (S&D) au Parlement ont conclu sur le même ton dans un communiqué intitulé « Meilleur accord possible »:

« Nous voulions aller beaucoup plus loin mais au cours des dernières semaines, le Conseil faisait reculer les négociations au lieu de leur permettre d’avancer. Nous avons donc accepté ce compromis comme seul scénario réel permettant d’améliorer dans un avenir proche l’efficacité énergétique, » explique Britta Thomsen négociatrice S&D. La ministre de l’Ecologie française, Nicole Bricq, estime au contraire que le texte permet à l’UE de se doter « d’un cadre communautaire pour atteindre l’objectif de 20 % d’économies d’énergie en 2020 ». Pour la commissaire au Climat Connie Hedegaard, l’accord trouvé est un pas important vers des efforts pour protéger le climat. Même si la Commission aurait voulu « aller plus loin ».

  • Rénover 3% des bâtiments publics

Selon la directive, les Etats devront rénover chaque année 3 % des bâtiments appartenant à l’administration centrale et occupés par celle-ci » (départements administratifs dont les responsabilités couvrent l’ensemble du territoire d’un État membre). Les propositions initiales imposaient une rénovation de tous les bâtiments publics. Le WWF regrette ce changement. « Les rénovations des bâtiments sont particulièrement peu ambitieuses par rapport aux grandes économies qui pourraient être réalisées dans ce secteur », indique le communiqué. Dans le même sens, les socialistes et démocrates au Parlement estiment cette mesure regrettable. Selon eux, elle aurait dû être « obligatoire », et non « volontaire ».

Pour l’Union sociale pour l’habitat, une organisation représentative du secteur français des habitations à loyer modérés, cette mesure aurait été coûteuse pour les organismes de logement social qui sont considérés comme des bâtiments publics. Laurent Ghekiere, chef de mission Affaires européennes de l’organisation, explique dans un communiqué que les logements sociaux restent des entités économiques indépendantes, disposant de participations privées mais n’ayant pas le droit de disposer de l’impôt, contrairement aux autorités publiques. « Imposer une obligation légale de rénovation thermique annuelle de 3% aux organismes de logements sociaux sans mettre sur la table les financements et les compensations nécessaires, n’était tout simplement pas responsable ».

  • 1,5% de réduction des ventes d’énergie

La proposition initiale de la Commission imposait aux entreprises énergétiques de réduire d’au moins 1,5 % par an leurs ventes aux consommateurs industriels et particuliers (en dehors des transports). Les États ont toutefois obtenu qu’un quart de ce pourcentage puisse être atteint via une série de mesures dérogatoires. Pour la fédération des petites et moyennes entreprises européennes (UEAPME), cette mesure est nuisible aux petites et moyennes entreprises. « L’accord laisse les Etats membres libres de décider quels fournisseurs d’énergie ou quels détaillants devront économiser 1,5% de leurs ventes annuelles d’énergie à leurs clients finaux tandis que les petites entreprises dans le domaine étaient exemptées de cette mesure dans le texte original, explique Guido Lena, responsable du développement durable. Cela mettra des barrières pour les petits acteurs pour entrer sur le marché et survivre dans cette arène compétitive. »

  • Audits énergétique

Toutes les grandes entreprises devront enfin faire l’objet d’un audit énergétique. Ils devront débuter dans un délai de trois ans après l’entrée en vigueur de la directive et être effectués tous les quatre ans par des experts qualifiés et agréés. Pour les socialistes-démocrates, cette mesure fait partie des « bons éléments ». L’UEAPME se félicite, elle, que des mesures aient été prises pour que les audits énergétiques des PME ne soient pas à leur charge.

Par Ann-Laure Bourgeois

 

Source : EurActiv

My Plug : une prise intelligente pour communiquer avec les équipements domestiques

My Plug (Ma Prise) est une prise électrique intelligente permettant de piloter à distance ses appareils domestiques, où que l’on soit. Dotée d’une carte SIM et de son propre numéro de téléphone, My Plug répond à des ordres reçus par SMS à partir de n’importe quel portable.

My Plug dispose bien sûr d’un vocabulaire assez limité, mais il suffit de lui envoyer un SMS  choisi dans ce dernier pour déclencher l’action : ON ou OFF pour allumer et éteindre un appareil électrique, mais aussi ETAT pour savoir si l’appareil est en marche ou non, et CONSO pour connaitre la consommation électrique des équipements branchés sur les dernières 24 heures. Il répond au total à 5 SMS, le plus important à retenir étant MEMO, car il récapitule tous les SMS à connaître. Et My Plug est capable de répondre en envoyant des SMS sur le(s) portable(s) qu’on lui aura déclaré(s). Il peut en effet être utilisé par 8 personnes maximum.

Mieux, en cas de coupure d’électricité, My Plug le signale immédiatement par SMS : « Alerte coupure de courant », et renouvelle l’envoi toutes les trente minutes. Il prévient aussi lorsque le courant est rétabli. Orange fournit le dispositif avec un porte-clés qui communique avec lui : un bon moyen pour savoir si la personne à qui on a remis les clés est à domicile ou pas, car il détecte sa présence ou son absence.

Commercialisé 79,99 €, ce pack a surtout l’avantage de ne demander aucune installation spécifique pour piloter des appareils à distance, ni d’abonnement spécifique. La seule limite est de disposer d’une couverture mobile Orange sur le lieu d’installation. D’autre part, le petit service CONSO est une bonne idée : il permet de réfléchir à sa consommation d’électricité, premier pas pour la maîtriser, en donnant une indication sur l’énergie nécessaire pour 24 heures de fonctionnement de l’appareil.

(Source : Orange)

Par Claudine / blog EcoCO2

 

EcoCO2

La réduction des émissions de gaz à effet de serre est un enjeu planétaire. Certes, mais pourquoi ? Comment puis-je y contribuer à mon niveau ? D’ailleurs quelle est mon empreinte carbone ? Mes consommations d’énergie sont-elles normales ?

Par une approche pédagogique et participative, Eco CO2 fournit des clés pour progresser : un portail et une lettre d’informations pour découvrir les actions de ceux qui agissent déjà ; des outils simples pour comprendre, évaluer, mesurer ; un blog pour partager nos bonnes pratiques ; une boutique pour trouver des solutions aidant à comprendre et maîtriser ses consommations d’énergie et son empreinte carbone.
 

Play and Connect : la raquette de tennis du futur ?

Après les chaussures de football intelligentes, c’est au tour du tennis d’intégrer la high-tech dans sa panoplie d’équipement. Alors que son aspect extérieur ne permet pas de la différencier d’une raquette classique, le manche de la raquette Play and Connect est quant à lui truffé de capteurs. Les sensations de jeu restent ainsi les-mêmes.

La Play and Connect permet au joueur de mesurer en continu la puissance de ses frappes, d’analyser le type de ses coups, les effets de balles et le centrage sur le tamis. Les données sont ensuite transmises via Bluetooth en temps réel vers un ordinateur, une tablette ou un smartphone pour y être décryptées. Selon Éric Babolat, arrière-arrière petit-fils du père fondateur de la société, ces informations servent à la progression des joueurs. Elles peuvent également être comparées et échangées entre passionnés. Munis de ces précieux renseignements, les joueurs vont-ils se passer d’entraîneur ?

La commercialisation devrait avoir lieu courant 2013 après qu’une centaine de joueurs professionnels l’ait testée. Le prix, sans être encore défini, se veut accessible à un public intéressé par les raquettes expertes classiques. Il pourrait donc se situer entre 200 et 300 euros.

Par Sébastien Tribot, journaliste scientifique

Coups de pied aux cultes du management

Drôle, parfois corrosif, Coups de pied aux cultes du management n’est pas un manuel de management traditionnel. Il innove pour mettre en garde les managers, les managés, les chefs d’entreprises et même les étudiants sur les dérives du management. Bref, un livre à mettre entre toutes les mains.     

« La loi du mâle dominant », « le roi des animaux », « charisme chic et toc », « prise de tête », « un petit tas de crottes »…Voici quelques chapitres de Coups de pied aux cultes du management. L’auteur ne mâche pas ses mots et c’est ce qui rend son livre si intelligible.

Le livre se compose de dix-sept chapitres. Chacun correspond à un mythe managérial qui affecte tout particulièrement les nouveaux promus et étouffe au quotidien le management de proximité. Pour y échapper, Daniel Feisthammel décortique ces situations en différentes phases :

  • Intox – analyse et origines de la situation ;
  • Désintox – présentation des éléments qui discréditent la situation ;
  • Eclairage – outils d’analyse et explications ;
  • Invitation – conseils d’attitude pour un management efficace dans ce type de situation ;
  • Repères – tableaux permettant au lecteur d’évaluer l’influence que la situation a sur lui.

Une analyse claire et approfondie qui révèlera aux lecteurs les dessous d’un management qui marche vraiment.

 

Coups de pied aux cultes du management, Antidotes aux croyances nocives sur l’exercice de l’autorité

Daniel Feisthammel

Ed. Afnor, 2012, 336 pages

Daniel Feisthammel, cofondateur du cabinet AxCiome C, est conseil et formateur en management depuis plus de vingt ans. Il développe des outils et intervient dans des organisations de toutes natures, de tous milieux et de toutes tailles. Plus récemment, il a infléchi son activité vers le conseil en stratégie et en gouvernance. Il a déjà publié plusieurs ouvrages sur les comportements professionnels, la formation et les compétences, le pilotage de la performance, les conduites de management et l’autorité.

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : INGÉNIEUR MANAGER

 

 

 

 

Publié par Carole Hamon