Réussir l’industrialisation française des énergies renouvelables

 

Grâce à l’appel d’offre concernant l’installation de 6 000 MW d’éoliennes offshore en 2020, la filière offshore a atteint le besoin critique nécessaire à une industrialisation de la filière française. Dans le cadre du premier appel d’offre concernant l’installation de 1 928 MW, Alstom et EDF se sont engagés à construire quatre usines et à créer environ 7 500 emplois pour fabriquer et assembler les éoliennes en France. Les turbines seront assemblées à partir de composants français, ce qui créera également une dynamique pour toutes les PME du secteur.

Deux usines verront le jour à Saint-Nazaire et deux à Cherbourg. Un second appel d’offre devrait être lancé sur 1 300 MW dans les prochaines semaines. Un troisième appel d’offre est prévu pour le second semestre 2013 pour atteindre cet objectif global de 6 000 MW en 2020.

L’éolien terrestre, fragilisé par la règlementation

La filière de l’éolien terrestre est à présent mûre et sera bientôt compétitive contre le nucléaire et les énergies fossiles. En revanche, il n’existe pas pour le moment de filière française industrielle de montage. « On vend les turbines cinq par cinq, dix par dix au mieux, ce qui ne conduit pas à arriver à créer une filière industrielle », se désole Jérôme Pécresse, président d’Alstom Energies Renouvelables.

Les éoliennes installées aujourd’hui sont importées d’Allemagne, d’Espagne et d’ailleurs. Le débat sur la transition énergétique doit être un levier pour lever certaines barrières règlementaires au développement de l’éolien et des autres énergies.

Un photovoltaïque encore à la traîne en France

Pour Thierry Lepercq, président de Solairedirect, le solaire est l’énergie qui devrait s’imposer rapidement. 30 GW d’énergie solaire s’est installé dans le monde en 2011. « En 2020, on peut installer 1 000 GW par an, soit l’équivalent d’environ 200 EPR par an à l’échelle mondiale », estime-t-il. Il n’y aurait aucune contrainte de ressources à cela, car le silicium est disponible en abondance et son prix n’arrête pas de baisser à cause d’une surproduction mondiale. De 500 $ le kilo en 2008, le silicium polycristallin a atteint 50 $/kg début 2012 et  22 $/kg fin 2012. Ainsi, le prix d’un module photovoltaïque a baissé d’environ 85 % entre 2008 et 2012. 

Là encore, en France, il faut massifier la production et le marché pour atteindre la masse critique indispensable au développement industriel. Les appels d’offre sont aujourd’hui à 100-300 MW, il faudrait en faire à 3000-30 000 MW pour lancer cette industrie.

Des signaux intéressants sont reçus par le marché. Récemment, le gouvernement a annoncé une surprime au tarif d’achat en fonction de l’origine des panneaux. De son côté, la Commission européenne a accepté une plainte déposée par les industriels européens contre les subventions que la Chine accorde aux fabricants de ses panneaux solaires.

D’autres énergies à ne pas négliger !

Les énergies en mer constituent une filière très prometteuse au niveau mondial. Outre l’éolien offshore posé et flottant, la filière comprend l’hydrolien, l’houlomoteur, l’énergie thermique et l’énergie osmotique. Des sauts technologiques sont nécessaires et des filières industrielles sont nécessaires pour réduire les coûts mais celles-ci ne devraient pas être sensiblement développées avant 2030. Des fermes pilotes doivent d’abord voir le jour pour avoir des retours d’expériences concluants. Et cela arrive : un appel à projets est annoncé par le gouvernement pour début 2013. « L’opportunité de développer une filière français industrielle et exportatrice est réelle », estime Marcel Deneux, sénateur de la Somme.

Concernant la filière de méthanisation pour le développement du biogaz, la France est en retard par rapport à d’autres pays. Il n’existe pour le moment qu’une trentaine de méthaniseurs dans le pays contre plus de 5 000 en Allemagne. La méthanisation permet un cycle vertueux en utilisant les déchets organiques, qu’ils soient ménagers, d’élevage ou agricole pour remplacer les énergies fossiles dans une part des transports.

De son côté, la biomasse représente déjà près de la moitié de la consommation finale d’énergie renouvelable et contribuera grandement à la réalisation des objectifs européens. Elle couvre la chaleur et la production d’électricité depuis les grandes installations industrielles jusqu’au résidentiel. Des progrès technologiques sont encore possibles, tout en contrôlant les émissions de particules. Particulièrement, les réseaux de chaleurs doivent être se développer.

Avoir une vision globale et ambitieuse

Toutes les énergies n’atteindront peut-être pas le stade industriel mais tout doit être exploré. Pour y parvenir, les filières doivent être soutenues. « Le soutien peut prendre différentes formes selon la maturité de la filière : aide aux investissements d’avenir pour productions encore en phase de recherche, tarif d’achat ou appel d’offre pour les filières plus proches de la maturité, crédit d’impôt pour les particuliers.  Cette règlementation doit être stable ou en tout cas prévisible pour permettre aux industriels de prévoir leurs investissements », défend Roland Courteau, sénateur de l’Aude et Président du groupe d’Etudes sur les énergies du Sénat.

 « D’un côté, avec des projets ambitieux et avec le développement des interconnexions, nous pourrions profiter des éoliennes de la Mer du Nord, voire des barrages de Norvège et pourquoi pas du Soleil du Sahara […] de l’autre, des énergies renouvelables permettraient aux territoires de retrouver une certaine autonomie énergétique grâce à des sites éoliens et photovoltaïques, grâce aux centrales à biomasse, à la valorisation des déchets, à la méthanisation agricole », conclut Roland Courteau.

 

Par Matthieu Combe, journaliste scientifique

 

 

Découvrez les formations Techniques de l’Ingénieur relatives à cette thématique :
 

RT 2012 en vigueur, la RBR 2020 déjà en construction

Contrairement à la RT 2012 qui ne s’intéresse principalement qu’à la baisse de la consommation énergétique, la prochaine réglementation ne sera pas simplement thermique. Provisoirement nommée RBR 2020 pour « Réglementation Bâtiment Responsable 2020 », elle donnera aux énergies renouvelables et à la réduction des émissions de gaz à effet de serre une place prépondérante.

« Deux postes nouveaux vont apparaître : celui de la production d’énergie d’une part et celui de la prise en compte de l’empreinte environnementale du bâtiment d’autre part », projette Philippe Pelletier, avocat et président du Plan bâtiment durable et responsable du plan de performance thermique des bâtiments voulu par François Hollande. En plus de la consommation par mètre carré, le poids carbone par mètre carré sera aussi pris en compte. Entre autres, cette réglementation devrait s’intéresser au cycle de vie des matériaux, du bâtiment et aux conditions de fabrications des équipements.

L’aspect thermique ne devrait pas tellement évoluer « Les bases que pose la règlementation thermique 2012 pour nourrir la réglementation future suffisent sur le plan thermique de l’isolation pour guider la construction future de ces bâtiments », confie Philippe Pelletier.

Place aux énergies renouvelables !

Le premier défi du groupe de travail sera de définir les énergies renouvelables à privilégier et de retenir une logique pour l’atteinte des objectifs. Va-t-on s’enfermer dans une logique où chaque bâtiment produit son énergie en proportion de la consommation d’énergie qu’il consomme ou davantage dans une approche  mutualisée et territorialisée ?

Autrement dit, un bâtiment à énergie zéro est-il un bâtiment qui produit réellement plus d’énergie qu’il n’en consomme ou bien est-ce un bâtiment pour lequel l’équilibre se fait au sein d’un quartier, d’un lotissement ou d’une ville ? Le choix n’est pas encore fait. « Probablement un bâtiment pourra être à énergie positive s’il justifie être dans un univers géographique qui produit de l’énergie de façon suffisante pour que l’équilibre de la consommation soit assurée », estime pour sa part Philippe Pelletier.  Une autre question se pose : l’énergie renouvelable produite sera-t-elle consacrée à l’auto-consommation ou sera-t-elle entièrement réinjectée dans le réseau national ? Cela reste à définir.

Cette réglementation devrait également  davantage prendre en compte le bien-être des habitants des bâtiments. « La qualité de l’air intérieur devra être mieux traitée, l’isolation phonique du logement ou du local professionnel également », affirme Philippe Pelletier.

Les incertitudes restent encore grandes mais les travaux prennent forme. La date de 2020 n’est pas non plus arrêtée. Selon l’avocat, cette réglementation thermique peut très bien encore être anticipée d’un ou deux ans.

Par Matthieu Combe, journaliste scientifique

 

 

Découvrez les formations Techniques de l’Ingénieur relatives à cette thématique :

L’intelligence est-elle le fruit d’un accident génétique survenu il y a 550 millions d’années ?

Autant le dire tout de suite, la recherche scientifique sur l’origine évolutive des comportements dits « intelligents » est une discipline où, s’il est aisé de produire toutes sortes d’hypothèses, il est en revanche plus difficile de produire de véritables démonstrations. D’où la plus grande prudence qu’il convient légitimement d’adopter quant aux conclusions auxquelles peuvent parfois parvenir les chercheurs de ce champ.

De la prudence, tout d’abord parce qu’il s’agit de remonter très loin dans le temps, afin de rechercher des indices auprès d’espèces animales qui ont généralement disparu depuis longtemps. Ce qui augmente considérablement le niveau d’incertitude, et donc la probabilité de faire des erreurs.

De la prudence aussi, parce que l’intelligence est une notion que les chercheurs peinent encore aujourd’hui à définir correctement. S’il existe un consensus relativement homogène sur la définition des bénéfices de l’intelligence (les scientifiques aiment ainsi à définir un comportement intelligent comme un comportement qui permet à son auteur de résoudre les différents problèmes qui se posent à lui dans son environnement), il est en revanche bien plus ardu de définir ce qu’est à proprement parler l’intelligence, d’un point de vue purement cognitif.

Certes, en décomposant l’intelligence en plusieurs catégories comme l’aptitude au calcul, la compréhension verbale, la vitesse de traitement, le niveau d’attention ou encore la mémoire, le test de Wechsler, qui est le test de mesure de l’intelligence aujourd’hui le plus utilisé dans le monde, a indéniablement proposé des pistes de définition intéressantes. Mais pour excellent que soit le pouvoir prédictif des résultats au test de Wechsler (en effet, de nombreuses études ont montré que les scores obtenus au test de Wechsler sont fortement corrélés à la réussite scolaire), lequel pouvoir prédictif suggère par conséquent le bien-fondé de ces pistes de définition, il n’en reste pas moins que ces dernières sont incomplètes. En effet, le test de Wechsler est par exemple incapable de mesurer des aptitudes comme la créativité ou l’aptitude à contrôler ses émotions, des qualités qui peuvent pourtant jouer un rôle important dans l’aptitude à résoudre les problèmes.

Face à ces difficultés méthodologiques, les chercheurs impliqués dans la recherche sur l’origine évolutive des comportements intelligents préfèrent généralement décomposer le concept d’intelligence en plusieurs capacités, comme la plasticité comportementale (c’est-à-dire la faculté de modifier et de faire évoluer son comportement), l’aptitude à focaliser son attention, la mémoire, ou encore les capacités d’apprentissage. Des aptitudes qui présentent de surcroît l’avantage de pouvoir être mesurées non plus seulement sur les êtres humains, mais aussi sur des animaux.

Il y a 550 millions d’années, une duplication soudaine des gènes Dlg chez le ver marin Pikaia

Ceci étant posé, qu’en est-il maintenant des travaux de Seth Grant, professeur de neurosciences à l’université de Cambridge (Grande-Bretagne), lesquels ont été publiés le 2 décembre 2012 dans la revue Nature Neuroscience sous le titre « Synaptic scaffold evolution generated components of vertebrate cognitive complexity » ? Selon ces travaux, l’émergence des comportements intelligents serait la conséquence d’un événement génétique survenu il y a 550 millions d’années environ chez un ver marin appelé Pikaia gracilens, une créature  de quelques centimètres de long aujourd’hui disparue, et dont plusieurs scientifiques considèrent qu’elle est l’ancêtre direct de tous les vertébrés.

Quelle est la nature de cet événement génétique survenu chez Pikaia gracilens il y a 550 millions d’années ? Selon Seth Grant, des gènes de la famille dite Dlg, qui codent des protéines permettant le bon fonctionnement du glutamate (le glutamate est un neurotransmetteur qui joue un rôle crucial dans notre système nerveux), auraient été dupliqués chez ce ver en plusieurs copies. Une duplication soudaine qui est peut-être liée à la survenue d’un événement environnemental particulier, lequel aurait favorisé la survie des Pikaia gracilens porteurs de certaines mutations génétiques spécifiques.

Des gènes notamment impliqués dans l’apprentissage

Or, les gènes Dlg sont loin d’être anodins : selon Seth Grant, ils sont notamment impliqués dans les processus de mémoire et d’apprentissage, dans l’aptitude à réaliser des tâches complexes, ou encore dans les processus de décision. Pour affirmer cela, Seth Grant et ses collègues ont mené des études sur des hommes et des souris, qu’ils ont soumis à plusieurs exercices. Pour les souris, ces exercices ont notamment consisté à appuyer sur un écran tactile avec leur museau : lorsque certaines images leur étaient présentées et qu’elles appuyaient sur l’écran, alors elles recevaient une récompense. L’aptitude des souris à mémoriser les images procurant des récompenses a alors été mesurée par les chercheurs. Résultat ? Certaines mutations sur les gènes Dlg ont impacté négativement les résultats aux exercices, alors que d’autres mutations ont au contraire augmenté les performances de leurs porteurs. Pour Seth Grant, ces résultats suggèrent que les gènes Dlg sont impliqués dans la faculté de penser, de mémoriser et de s’adapter. Soit, en d’autres termes, dans l’aptitude à développer des comportements intelligents.

En quoi la duplication en plusieurs copies des gènes Dlg serait la lointaine cause de l’émergence des comportements intelligents chez les vertébrés ? Pour comprendre, il faut d’abord savoir que lorsque des mutations affectent un gène crucial pour la survie, ces mutations sont la plupart du temps neutres ou délétères (c’est-à-dire affectant les chances de survie de son porteur), bien plus souvent que bénéfiques. Par conséquent, disposer d’un seul exemplaire d’un tel gène est donc extrêmement risqué.

C’est pourquoi, la duplication en plusieurs copies des gènes Dlg aurait permis aux espèces animales descendantes de Pikaia gracilens de développer toutes sortes de mutations sur l’une ou l’autre de ces copies, sans pour autant que cela affecte leurs chances de survie (puisqu’elles conservaient dans le même temps des exemplaires non mutés de ces gènes Dlg).

De la difficulté de relier l’intelligence à l’action de quelques gènes seulement

Résultat ? Les gènes Dlg auraient alors eu tout le loisir d’acquérir au fil du temps des mutations bénéfiques. Et donc, de déclencher in fine l’apparition de comportements de plus en plus intelligents chez les vertébrés, au fur et à mesure de leur évolution.

Pour passionnants que soient les résultats de cette étude, signalons toutefois qu’il est bien délicat d’associer l’émergence de comportements intelligents à un ou quelques gènes seulement. Tout d’abord, parce que plusieurs travaux récents ont montré l’implication de nombreux autres gènes que ceux de la famille des Dlg dans le développement des comportements dits intelligents (c’est par exemple le cas des travaux menés par Bruce Lahn). Mais aussi, parce que les recherches sur la corrélation entre le patrimoine génétique et les déficiences intellectuelles mettent chaque jour en évidence l’existence de nouveaux gènes, impliqués dans la probabilité de développer des déficiences intellectuelles ou des maladies mentales. Ce qui suggère par conséquent que l’aptitude aux comportements intelligents est la conjonction d’un très grand nombre de caractéristiques génétiques, bien plus que le résultat de l’action de quelques gènes seulement.

Des comportements intelligents qui, chez l’homme, rappelons-le, ne sont de toute façon pas le produit exclusif de ses caractéristiques génétiques, puisque ces dernières viennent ensuite se marier aux facteurs environnementaux (santé, alimentation, etc) et culturels (éducation, etc) propres à chaque individu.

OGM : l’autorité européenne rejette définitivement l’étude Séralini

Scène finale pour l’affaire Gilles-Eric Séralini au niveau européen. Mercredi 28 novembre, l’autorité européenne de sécurité des aliments (EFSA) a jugé nuls et non avenus les travaux du scientifique français sur la toxicité des organismes génétiquement modifiés. En septembre, la publication des résultats d’essais pratiqués sur des rats, nourris avec du mais NK603 (auparavant traité au pesticide Roundup) avait provoqué un tollé en Europe. La Commission avait réagi immédiatement et demandé à l’EFSA de se saisir du dossier.

OGM : la vague remonte jusqu’à Bruxelles

Le 4 octobre, un premier avis a été rendu. Les experts européens ont alors demandé des précisions à M. Séralini. Ils ont considéré que son travail était de « qualité scientifique insuffisante pour être considéré valide ». Aussitôt, l’intéressé a fait savoir qu’il n’en était pas question et a rejetét la faute sur l’agence.

OGM : l’autorité européenne juge la qualité de l’étude insuffisante

En rendant son avis final hier, l’EFSA vient donc d’enterrer définitivement le sujet. Le communiqué de presse annonce que « l’autorité a confirmé son analyse initiale selon laquelle les conclusions des auteurs ne peuvent pas être considérées comme scientifiquement fondées en raison des lacunes constatées ». Per Bergman, qui a dirigé les travaux de l’EFSA sur cette question, a ajouté que « plusieurs organisations nationales ont été mandatées de façon indépendante par les États membres afin d’évaluer cette étude.

Ces évaluations ont démontré que, pour une partie significative de la communauté d’évaluation des risques de l’UE, il existe un consensus sur le fait que les conclusions de M. Séralini ne sont pas étayées par les données contenues dans l’article publié. » Cette déclaration fait référence à des travaux réalisés en Allemagne, Belgique, Danemark, France, Italie et Pays-Bas, qui tous remettaient en cause les conditions dans lesquelles l’étude a été menée : échantillon trop faible, manque de détails sur l’alimentation, méthode statistique peu claire et un rapport jugé incomplet. Aucune nouvelle évaluation sur la toxicité du mais OGM NK603 se sera donc réalisée. Sa culture n’est pas autorisée en Europe, mais il est importé et sert dans la nourriture pour les animaux.

Par Jean-Sébastien Lefebvre
Source : http://www.euractiv.fr

Arrivée prochaine d’un nouveau ciment biomimétique injectable dans l’os

 

Parmi ces lauréates, Sylvaine Jacquart qui réalise sa thèse sous la direction de Christèle Combes, au sein de l’équipe Phosphates, Pharmacotechnie et Biomatériaux (PPB) de l’Institut Carnot CIRIMAT qui est un laboratoire de l’INP-ENSIACET de Toulouse. Objectif de ses travaux menés dans le cadre d’un projet avec six laboratoires français, en collaboration avec une PME lyonnaise, la mise au point d’un ciment biomimétique injectable directement dans une cavité osseuse à combler.

C’est au cours de ces études d’ingénieur à Chimie ParisTech que cette jeune femme originaire du nord de la France a commencé à s’intéresser plus particulièrement aux matériaux pour la santé. Son diplôme d’ingénieur en poche, c’est donc tout naturellement qu’elle décide de faire une thèse dans le domaine des biomatériaux au sein du Centre Inter-universitaire de Recherche et d’Ingénérie des Matériaux, le CIRIMAT, qui est une Unité Mixte de Recherche (CNRS/Université Paul Sabatier/INP Toulouse). Environ 200 personnes, réparties en 7 équipes, travaillent dans cet Institut Carnot CIRIMAT dont les activités couvrent un large éventail de matériaux, des métaux aux alliages métalliques en passant notamment par les polymères. « L’équipe Phosphates, Pharmacotechnie et Biomatériaux dans laquelle je réalise ma thèse travaille autour des phosphates de calcium qui constituent la partie minérale de l’os et de la dent et développe de plus en plus de matériaux divers appliqués au domaine de la santé, certains de ces matériaux, à visée thérapeutique, renfermant des particules ou des agents actifs », résume Sylvaine Jacquart.

Si le type de ciment injectable sur lequel elle travaille a commencé à être développé il y a une vingtaine d’années, « il y a encore des améliorations à apporter afin d’optimiser ce type de matériau », estime-t-elle. Elle rappelle qu’un tel ciment biomimétique injectable, s’il est utilisé pour combler les cavités osseuses, doit se dégrader en quelques mois alors que l’os se remodèle progressivement. Or les ciments disponibles aujourd’hui se dégradent difficilement, même après plusieurs années. « C’est pourquoi nous cherchons à obtenir un matériau qui se dégrade plus rapidement, tout en lui conférant des propriétés anti-bactériennes pour éviter les risques d’infections post-opératoires », précise-t-elle. Mené en partenariat avec une PME lyonnaise, ce travail devrait aboutir, courant 2013, début 2014, à un transfert de technologie, l’objectif de Sylvaine Jacquart étant de disposer d’un matériau de composition optimale à la fin de sa thèse qu’elle soutiendra à l’automne 2013.

La bourse qu’elle vient d’obtenir dans le cadre de la 6ème édition des bourses L’Oréal France-Unesco-Académie des sciences « Pour les femmes et la science », est évidemment une belle opportunité pour cette jeune femme, d’autant plus qu’elle a découvert ce prix « par hasard ». Et comme elle « correspondait aux critères requis, « j’ai tenté et j’ai réussi », dit-elle tout simplement, ravie d’avoir décroché cette bourse qui va lui permettre de réaliser un projet qui lui tient à coeur aussitôt sa thèse soutenue. « Je souhaite partir quelques mois à la rencontre de chercheurs spécialisés dans le domaine des matériaux pour la santé afin de découvrir les solutions qui sont en train d’émerger », explique-t-elle. Et comme Sylvaine Jacquart n’a pas qu’une seule corde à son arc et se passionne en particulier pour la photo, elle emmènera dans ses bagages de quoi témoigner en images de ses découvertes et de ses rencontres avec des chercheurs et des chercheuses du monde entier. « La recherche scientifique n’est pas toujours bien comprise et son image reste floue pour le grand public. Aussi je souhaite apporter comme une sorte de témoignage », conclut-elle. Alors que les rédactions de magazine en mal de sujets passionnants n’hésitent pas à la contacter, juste après sa thèse.

Source : bulletins électroniques

Tu veux un prix Nobel, alors mange du chocolat!

Les pays au plus haut taux de consommation de chocolat compteraient plus de prix Nobel. La raison selon le Dr Messerli, le cacao augmenterait les facultés cognitives grâce aux molécules qu’il contient. Exit la théobromine, la caféine ou les substances proches du cannabinoïde et place aux flavonoïdes, de puissants antioxydants. Plus précisément, il est question ici des flavonols, présents en quantité dans le cacao, les mûres, le vin…

Le chercheur souhaitait vérifier l’impact des flavonols sur l’intelligence et dans une plus grande mesure, sur les capacités mentales d’une population. Puis il est parti du principe que l’on ne pouvait pas réellement mesurer les fonctions mentales d’un pays. Mais que par contre, le nombre total de prix Nobel se révélait être un indicateur significatif. L’auteur de l’étude observe ainsi « une corrélation significative surprenante entre la consommation de chocolat per capita* et le nombre de lauréats du Nobel pour dix millions d’habitants dans un total de 23 pays ».

Résultat, les huit pays dont le nombre de prix Nobel est le plus élevé sont établis en Europe occidentale. Excepté les États-Unis qui arrivent en tête avec 228 récompenses on retrouve le Royaume-Uni (77), l’Allemagne (58), la France (34) et la Suède qui se place en 5e position avec 32 prix Nobel. Ce dernier, si l’on se fie à la règle du scientifique aurait dû, au regard de sa consommation de chocolat (12 kg par an), obtenir 14 prix Nobel. Dans le peloton des pays au rapport chocolat/prix Nobel élevé : l’Autriche, la Norvège, l’Irlande ainsi que les Pays-Bas.

Peut-on réellement y voir un lien de cause à effet ? Non probablement, l’étude montre peut-être simplement que les pays dont les capacités financières sont suffisantes pour acheter du chocolat le sont également pour assurer la recherche et obtenir des Nobel. Il ne s’agit là que d’une corrélation. Et lorsqu’on en cherche, on en trouve. Du type, les voitures rouges ont d’avantages d’accidents. Enfin, ces conclusions sont tirées de moyennes de consommation des pays. Elles ne sont donc pas nécessairement révélatrices des habitudes chocolatières des lauréats du Nobel.

Depuis, James Winters et Sean Roberts, deux jeunes chercheurs britanniques amusés par cette étude, ont répondu au Dr Messerli par une nouvelle corrélation avec le chocolat. Ces deux spécialistes de la science cognitive et de la science du langage ont repris le cheminement de pensée de Franz Messerli dans le but de prouver qu’il existe cette fois-ci un rapport entre la consommation de chocolat et le nombre de tueurs en série. Preuve s’il en est que la méthodologie et les conclusions apportées par l’étude du Dr Messerli sont discutables.

*Per capita : expression latine signifiant « par tête ».

Par Sébastien Tribot, journaliste scientifique

Linky, vers des compteurs électriques intelligents

La ministre de l’Écologie, du Développement durable et de l’Énergie Delphine Batho a annoncé la mise en œuvre du projet Linky en France pour fin 2014. Ce projet rassemble un grand nombre d’acteurs. Les groupes de travails réunissant les pouvoirs publics, l’ADEME, le Médiateur national de l’énergie, les associations de consommateurs, les fournisseurs d’électricité, les gestionnaires de réseaux, les fédérations d’équipementiers et d’installateurs, les industriels, des représentants des collectivités locales et la Fédération nationale des collectivités concédantes et régies (FNCCR) ont ainsi été mis en place.

Une première réunion de ces groupes de travail a eu lieu le 16 novembre dernier. Ses conclusions seront présentées en janvier 2013 dans le cadre du débat national sur la transition énergétique. « Sur la base de ces groupes de travail, le débat sur la transition énergétique sera saisi en début d’année prochaine, et nous prendrons les décisions afin de lancer les appels d’offres pour la fabrication des 35 millions de compteurs à installer », affirme Delphine Batho. Ainsi, « avant la fin du premier semestre 2013, on aura un calendrier très précis qui permettra que, d’ici la fin de l’année 2014, on entre dans la phase concrète du déploiement du compteur intelligent chez tous les Français », précise-t-elle.

De son côté, ERDF a annoncé que le déploiement de Linky devrait se réaliser simultanément sur tout le territoire. « Nous allons déployer Linky un peu en peau de léopard. Nous allons passer des appels d’offres pour que le déploiement commence dans tous les départements, sur des secteurs précis, en se poursuivant progressivement et en s’appuyant sur les retours d’expérience », explique Bertrand Dauce, directeur technique en charge de l’opération pour ERDF. Ce plan de déploiement devrait toucher toutes les tailles d’entreprises et favoriser la création d’environ 10.000 emplois sur la période 2014-2020, dont une grande partie en France.

Selon la commission de régulation de l’énergie, l’analyse technico-économique suggère qu’une généralisation du compteur Linky serait globalement neutre du point de vue financier grâce aux futures économies de coûts d’exploitation associées à l’installation du compteur.

Quelle est la particularité de Linky?

Les compteurs actuels mesurent uniquement l’électricité consommée et nécessitent l’intervention de techniciens  pour les opérations de maintenance. À l’inverse, Linky est un compteur intelligent. Cela signifie qu’il peut envoyer des données et recevoir des ordres à distance sans l’intervention physique d’un technicien. Finies les journées à attendre le passage d’un technicien pour mettre en service le compteur, le relever ou changer de puissance ! Ce relevé pourra à présent se faire à distance. La facture ne sera plus estimée, mais basée sur la consommation réelle, ce qui devrait limiter les mauvaises surprises. Dès lors, il sera possible de visualiser en temps réel sa consommation d’électricité et ainsi mieux la maîtriser.

Linky devrait également faciliter l’ouverture des marchés en simplifiant les changements de fournisseurs. Ce changement pourra se faire à distance sans intervention de technicien.

Vers le réseau intelligent

Les gestionnaires de réseaux doivent faire face à l’essor des énergies renouvelables, sources de production d’électricité intermittentes et décentralisées qui rendent plus difficile l’équilibrage entre la demande et l’offre d’électricité. Demain, le réseau intelligent doit permettre de réduire les pics de consommation sur le réseau et ainsi d’en augmenter l’efficacité énergétique tout en favorisant les économies d’énergie.  Au-delà de l’acheminement de l’électricité, le réseau intelligent devra en permettre le stockage. En cela, le compteur Linky, qui rendra possible un suivi beaucoup plus fin et en temps réel, constitue la première étape du développement de réseaux d’électricité intelligents.

Dans le secteur de l’électricité, les compteurs intelligents permettent la maîtrise de la demande en période de pointe. Pour cela, ils permettent d’agir directement sur la consommation des clients, avec le contrôle à distance, l’incitation financière et, parfois, le forçage par « délestage » pour les besoins de stabilité du système électrique. Ainsi, l’arrêt ou le report de la consommation pendant un certain temps est rendu possible. « Les trois fonctions les plus visées par le contrôle à distance sont la climatisation (chauffage et refroidissement) et l’eau chaude sanitaire. Le pilotage du thermostat individuel, dans une fourchette de quelques degrés et pendant une heure maximum, a peu d’incidence sur la qualité de vie du consommateur et permet d’obtenir des résultats significatifs en termes de Maîtrise de Demande d’Energie », analyse Rhita Chatila, consultante Senior chez Steria dans son avis « À quel point le comptage intelligent est-il un atout dans la maîtrise de la consommation d’énergie ? ».

Par Matthieu Combe, journaliste scientifique

Retour sur les premières rencontres interprofessionnelles des Techniques de l’Ingénieur

L’objectif de cette journée était de présenter les ressources documentaires de Techniques de l’Ingénieur à ses principaux clients, ainsi que le fonctionnement de leur éditeur, et l’ensemble des nouveautés proposées par les éditions E.T.I..

Mais aussi de leur offrir l’opportunité de faire connaissance avec les équipes éditoriales, web et commerciales des T.I. et bien sûr les autres invités, et ainsi de mieux se représenter le panel des clients des éditions Techniques de l’Ingénieur.

« Une journée riche en échanges qui a permis à nos clients de découvrir les nouvelles bases documentaires, les thèmes ou les univers sur lesquels nous travaillons, mais aussi les différents supports à travers lesquels nous délivrons aujourd’hui nous contenus – formats « brochés » pour la version papier,  intranet , tablettes… De notre côté, en présentant les statistiques Counter 4, ou en parlant des nouveaux services tels que l’Annuaire des laboratoires de recherches, nous avons pu avoir en direct la réaction des participants et ainsi mieux appréhender les besoins concrets de nos utilisateurs quotidiens » réagit François-Emmanuel Piacentini, directeur développement.

Introduite par Robin Dualé, président des Editions TI, la matinée s’est déroulée à l’auditorium du Muséum National d’Histoire Naturelle, où se sont succédé au micro Ariane Mizrahi, directrice éditoriale, et Marie Lesavre, responsable du site internet.

La première a présenté le processus éditorial des Techniques de l’Ingénieur et toute la chaîne qualité permettant de mettre en ligne un nouvel article tous les deux jours dans les bases documentaires, ainsi que les nouveautés à venir à l’horizon 2015 et l’utilisation permise des contenus éditoriaux. La seconde a quant à elle expliqué le fonctionnement du site de Techniques de l’Ingénieur : accès aux ressources documentaires en ligne, moteur de recherche interne, statistiques de consultation. La matinée s’est terminée par une séance de questions réponses.

L’après-midi était consacré à la conférence Trucs et astuces pour booster ses recherches sur Internet, animée par Béatrice Foenix-Riou, experte en recherche avancée sur l’internet, rédactrice en chef des lettres Bases et Netsources, auteure notamment de Recherche éveillée sur internet : mode d’emploi, et co-auteure des fiches pratiques Maîtriser la veille pour l’intelligence scientifique, à paraître en cette fin d’année dans le pack Ingénierie innovante et durable.

Certains des participants à cette journée ont accepté de réagir à l’issue de celles-ci, voici leurs témoignages :

 

 

Bruno Decottignies

Résoudre des sudokus les yeux fermés

Un sudoku est composé d’une grille carrée de neuf cases de côté, avec des sous-grilles de 3×3, à l’intérieur de laquelle certains chiffres ont été écrits. L’objectif est de remplir toutes les cases restantes avec un chiffre compris entre 1 et 9 inclus de telle sorte que chaque chiffre ne se retrouve pas plus d’une fois par ligne, colonne et diagonale. La résolution d’un problème comme le sudoku possède une complexité polynomiale. Il est donc possible de le résoudre brutalement, tout simplement en essayant toutes les combinaisons possibles. Efficace, mais peu élégant.

Dans leurs travaux publiés dans Nature Physics, Zoltan Toroczkai et Maria Ercsey-Ravasz  ont mis au point un algorithme qui recherche une solution le plus efficacement possible. Pour y arriver, le programme doit analyser la structure du problème et non pas se contenter de tester la validité d’une hypothèse. L’avantage ne réside donc pas dans la possibilité de résoudre un sudoku, cela fait longtemps que de tels programmes existent, mais plutôt dans la rapidité d’établissement de la solution. En effet, tester une par une toutes les combinaisons possibles prend du temps, alors que s’attacher à comprendre le problème pour le solutionner va beaucoup plus vite. L’objectif initial des chercheurs était de tester leur programme utilisable pour les problèmes SAT (boolean satisfiability problem), dont font partie les sudokus.

Leur approche a surtout permis de classifier les différents sudokus selon leur niveau de difficulté, cette échelle comptant quatre niveaux, de facile à très difficile. Car selon eux, ce qui fait la difficulté d’une grille est le temps mis pour la résoudre. C’est précisément la quantification du niveau de difficulté d’un problème de ce type qui est au cœur de leur recherche. D’après leur échelle, il faut dix fois plus de temps pour résoudre une grille de niveau 2 qu’une grille de niveau 1.

A quand un algorithme qui prend en compte le manque de sommeil, le taux d’alcoolémie ou encore le nombre de cafés avalés ?

Serions-nous moins intelligents que nos ancêtres?

Une affirmation surprenante et difficile à croire alors que l’on songe plus volontiers à la théorie inverse, au développement constant de nos capacités intellectuelles liées aux évolutions de notre civilisation.

Une question suit alors l’étonnement, « comment se définit l’intelligence ? ». Si l’on en croit la définition Wikipédia, l’intelligence serait « l’ensemble des facultés mentales permettant de comprendre les choses et les faits, de découvrir les relations entre eux et d’aboutir à la connaissance conceptuelle et rationnelle. Elle permet de comprendre et de s’adapter à des situations nouvelles et peut ainsi être définie comme la faculté d’adaptation ». Alors que notre quotidien nous confronte à des situations toujours plus variées, cette affirmation fait office de paradoxe.

Le professeur à l’Université de Standford et biologiste Gerald Crabtree, l’explique par la sensibilité de nos gènes face aux mutations génétiques. Or il est question ici des gènes responsables des capacités intellectuelles et émotionnelles. L’être humain ne naît plus dans une problématique de survie, la sélection naturelle n’opère plus. Les conforts de notre civilisation ont anéanti les pressions qui pesaient sur nous. En gros, nos « gènes de l’intelligence » se détériorent car ils sont mois sollicités. Il en résulte pour l’homme, une moins grande réactivité, vivacité et adaptation au quotidien.

Plus grave, toujours selon le Dr Crabtree et son équipe, deux mutations voire plus atteindraient l’intellect humain au cours des 3.000 ans à venir. Une dégradation génétique lente qui pourrait cependant être contrecarrée par les avancées scientifiques, estime-t-il.

Les réactions contestataires se sont fait entendre. Si personne ne nie le bouleversement génétique que subit l’homme au cours du temps, le type d’intelligence décrit par Crabtree est mis en cause. En effet, le temps de la chasse et de la cueillette est depuis longtemps révolu. Aujourd’hui, la taille du cerveau est davantage déterminée par le langage et nos relations sociales. Et pour le professeur Robin Dunbar, anthropologue à l’Université d’Oxford, « la complexité du monde (social) n’est pas sur le point de disparaître ». Tout comme la société, l’homme évolue. Ce que nous avons perdu dans un type d’intelligence, nous l’avons sûrement gagné dans un autre. Alors pas d’inquiétude.

Par Sébastien Tribot, journaliste scientifique

Source : http://www.maxisciences.com/intelligence/l-039-homme-devient-il-de-moins-en-moins-intelligent_art27488.html

Les lauréats du prix FIEEC de la recherche appliquée sont…

Stimuler les chercheurs pour les encourager à travailler à la croissance de nos industries mais aussi de l’emploi, voilà l’objectif de ce prix : « Nous constatons que les chercheurs sont principalement évalués en France sur leurs publications. Ils n’ont pas toujours conscience que si leur principal objectif est de développer la connaissance scientifique, ils peuvent aussi contribuer à créer des emplois, à lancer une dynamique économique sur un territoire. C’est cet état d’esprit que le prix FIEEC cherche à promouvoir : le monde de la recherche peut accompagner le développement des PME-ETI par un apport à fort contenu technologique »,  précise Joseph Puzo, initiateur de ce prix et PDG de la société Axon’Cable.

Le premier prix a donc été attribué à David Andreu, maître de conférence à l’université de Montpellier, de l’équipe projet DEMAR INRIA/LIRMM pour ses travaux sur la robotique et sur la stimulation électro-fonctionnelle appliquée à la santé. Ces travaux ont permis de fabriquer des dispositifs d’électrostimulation des nerfs et des muscles pour la rééducation des malades avec des fonctionnalités sans fil. Ces produits sont commercialisés par la société Vivaltis, PME de Montpellier de 25 personnes.

Le second prix récompense Dominique Bergogne, du Laboratoire Ampère CNRS UMR5005 Ingénieur et maître de conférence à l’université Claude Bernard de Lyon, ses travaux sur l’électronique de puissance et la gestion de l’énergie ont contribué à développer un convertisseur de puissance pour récupérer de l’énergie sur un réseau électrique de transport en commun, commercialisé par une ETI, la société ADETEL Group, basée en Rhône-Alpes et employant 600 personnes.

Le troisième lauréat est Sébastien Pellevrault, docteur en télécommunication optique, pour sa contribution au développement d’un capteur intégré dans un appareil portatif capable d’évaluer efficacement et de façon stable l’épaisseur d’une lame d’eau sur une piste d’aéroport. Cette solution est commercialisée par la société francilienne RINCENT BTP.

La Fédération des Industries Electriques, Electroniques et de Communication (FIEEC) est une Fédération de l’industrie qui rassemble 29 syndicats professionnels dans les secteurs de l’électricité, de l’électronique et du numérique (biens d’équipement, biens intermédiaires et biens de consommation). Le Prix de la Recherche Appliquée est un de ses engagements pour favoriser la rencontre entre l’entreprise et la recherche publique.

La FIEEC et ses partenaires, OSEO, l’association des Instituts Carnot, Supelec et la société 3A donnent d’ores et déjà rendez-vous pour l’édition 2013 aux chercheurs dont les travaux ont été industrialisés dans une PME ou une ETI. Le dossier sera disponible au printemps sur le site du FIEEC www.fieec.fr.

Par Audrey Loubens, journaliste scientifique

News Environnement : novembre 2012

Une éolienne offshore de 10 MW

La société norvégienne Sway Turbine AS, basée à Bergen, a présenté, lors d’une conférence à Brême (Allemagne) le 22 novembre 2012, une turbine éolienne offshore d’une puissance de 10 MW, nommée ST10.

L’alternateur de l’éolienne est entraîné directement, c’est à dire sans boîte de vitesse. « Cela permet de limiter la probabilité d’une défaillance. », d’après Ingelise Arntsen, PDG de Sway Turbine AS, société qui a été détachée de Sway AS en 2010 et est dorénavant indépendante. « Notre solution permet une intégration unique entre le rotor et le générateur. », ajoute-t-elle.

L’éolienne, en développement depuis 2005, utilise la technologie d’induction à flux axial et se distingue par le fait que le stator ne contienne pas de fer. « Le stator se compose normalement d’un noyau de fer entouré de cuivre. Notre stator est entièrement constitué de cuivre. Nous économisons ainsi beaucoup de poids et limitons les forces d’attractions magnétiques entre le stator et le rotor. », dit Ingelise Arntsen. « Notre solution unique permet la conception de machines de 10 MW et plus, là où les projets conventionnels sont généralement limités à 7 ou 8 MW en raison de la taille des composants. », ajoute-t-elle.

 
The 10MW offshore wind turbine designed by Sway Turbine : ST10
Crédits : Sway Turbine
 

Selon Sway Turbine, cette technologie permettrait de réduire les coûts au kilowattheure de 15 à 20% par rapport aux installations éoliennes classiques d’aujourd’hui. La société est actuellement en pourparlers avec plusieurs acteurs industriels pour le lancement de la construction d’un prototype. « Nous avons reçu l’approbation pour une subvention de 137 millions de couronnes norvégiennes (environ 18,4 millions d’euros), mais nous estimons le coût total du projet à 400 millions (environ 53,6 millions d’euros). Nous avons besoin d’investisseurs intéressés par la commercialisation de cette technologie. », dit Ingelise Arntsen.

L’éolienne pourra être implantée sur des installations fixes comme flottantes. Le projet pilote de grande échelle sera installé vers Øygaarden, près de Bergen, où la société a d’ores et déjà reçu une licence d’essai. Le diamètre du rotor devrait être d’au moins 145 mètres.

Source : www.bulletins-electroniques

 

 

Réseaux intelligents : première étude concernant leur influence sur l’économie allemande

Des chercheurs de l’Institut Fraunhofer de recherche sur les systèmes et l’innovation (ISI) de Karlsruhe (Bade-Wurtemberg) ont réalisé la première étude portant sur l’ensemble des conséquences de l’utilisation des réseaux intelligents sur l’économie allemande.

Cette utilisation deviendrait bénéfique une fois tous les réseaux électriques et leurs applications associées mis en place, c’est-à-dire d’ici une dizaine d’années, d’après les scientifiques de l’ISI. L’étude envisage alors des bénéfices totaux chiffrés à 55,7 milliards d’euros par an. Par ailleurs, d’ici à 2022, les bénéfices cumulés de la mise en place et l’utilisation des réseaux intelligents s’élèveraient à 336 milliards d’euros.

En revanche, les réseaux intelligents, dont l’utilisation ne se limite pas au secteur énergétique mais se développe également dans des domaines aussi variés que la santé, les transports ou l’administration, ne pourront, d’après les chercheurs de l’ISI, engendrer d’effets positifs sur l’économie allemande qu’une fois certaines conditions préalables remplies.

D’une part, la certitude de disposer de connexions Internet haut-débit fiables et constantes est une base nécessaire au développement des innovations. En outre, des conditions-cadre sont demandées à l’Etat afin de rendre possibles les coopérations interdisciplinaires, manquantes aujourd’hui, dans l’objectif de voir émerger de nouveaux modèles commerciaux.

Enfin, la question de la protection des données, dans une société où les réseaux intelligents sont fortement développés, est cruciale. Il est nécessaire de pouvoir offrir aux utilisateurs la possibilité de décider quelles données les concernant seront partagées et pour quelle utilisation. Dans cet objectif, des accords juridiquement contraignants entre fournisseurs et consommateurs ainsi qu’un cadre juridique fiable sont demandés par les rédacteurs de l’étude.

Les différents calculs mis en oeuvre sont basés sur une étude interdisciplinaire exploitant de façon systématique toutes les études pertinentes publiées sur le thème des réseaux intelligents. En outre, des entretiens avec des spécialistes issus de différentes disciplines furent utilisés afin d’approfondir l’étude sur chacun des domaines concernés. Enfin, furent prises en compte des évaluations d’experts ayant pris part à deux séminaires portant sur les conditions nécessaires et les effets des réseaux intelligents.

Ces résultats constituent la première partie d’une étude ayant pour titre « Réseaux intelligents : potentiels et défis » et réalisée conjointement avec le Cercle de Munich (Bavière). L’étude, commandée par l’Association allemande des technologies numériques (BITKOM), fut présentée le 13 novembre 2012 à Essen (Rhénanie du Nord-Westphalie), dans le cadre du Sommet national sur les technologies de l’information organisé par le Ministère fédéral de l’économie et de la technologie (BMWi).

Source : www.bulletins-electroniques

 

 

Focus sur la recherche dans l’arctique?

A l’occasion de la réunion des hauts responsables du Conseil arctique, la troisième sous présidence suédoise, qui a eu lieu mi-novembre, voici quelques-unes des dernières actualités concernant la recherche polaire en Suède.

INTERACT – une success story européenne

INTERACT, le réseau international pour la recherche terrestre et le suivi de l’Arctique, est une réussite. Il a été choisi par la Commission européenne comme une des success stories mises en avant sur le site web présentant la recherche et l’innovation. Cela en raison de la forte implication de l’ensemble des acteurs et des technologies innovantes utilisées dans ces infrastructures du grand nord.

Ce projet, financé par l’Union européenne, a pour objectif principal de mieux comprendre les changements en cours dans tout l’Arctique. Lancé en 2001 autour de neuf stations de recherche, ce réseau en réunit aujourd’hui 45, réparties tout autour de l’Arctique, de l’Europe du nord au Canada en passant par la Russie et les îles Féroé. Un programme d’accès transnational permet à des chercheurs du monde entier, issus de disciplines variées, de travailler dans ces stations généralement peu accessibles. Les mesures des changements environnementaux sont plus efficaces grâce à ces apports extérieurs. Le stockage et l’accès aux données sont également facilités.

La Suède est partie prenante de ce réseau puisque trois des stations de terrain sont situées sur son territoire (Abisko, Kolari et Tarfala). Plusieurs institutions suédoises sont également partenaires d’INTERACT : les universités de Stockholm, Lund et Uppsala, ainsi que l’Université des sciences agricoles (SLU), l’Académie royale des sciences (KVA) et le Secrétariat suédois à la recherche polaire (Polarforskningssekretariatet).

 

L’Arctique – un environnement en plein changement

Le Conseil arctique a également mis en place un programme de suivi de l’arctique (AMAP – Arctic Monitoring and Assessment Program) auquel participent des chercheurs suédois. Au sein de ce programme, le projet SWIPA dédié à l’étude de la neige, de l’eau, de la glace et des permafrosts dans la région a donné lieu, après trois ans, à un rapport évaluant les effets du changement climatique. Le court film ci-dessous met en images quelques-unes des conclusions de ce rapport.

Version courte du film « A Changing Environment » réalisé dans le cadre du projet SWIPA.
Crédits : SWIPA
 

Fonte des permafrosts et émissions de dioxyde de carbone

Les permafrosts sont l’une des composantes de la région arctique dont l’évolution a un impact sur l’ensemble de l’environnement. C’est justement à ces sous-sols gelés en permanence que des chercheurs de l’université de Stockholm se sont intéressés. Les résultats d’une étude réalisée en partenariat avec une équipe internationale ont été récemment publiés dans la revue Nature. Ils soulignent que l’impact du dégel des permafrosts côtiers de l’arctique sibérien sera sans doute plus important que prévu.

Ces sols gelés sont riches en matières organiques : environ la moitié du carbone organique dans les sols de la planète est stockée dans les permafrosts arctiques. En conséquence, lorsque ceux-ci se réchauffent, ils relâchent du dioxyde de carbone dans l’atmosphère. Ce mécanisme bien connu contribue à renforcer le réchauffement climatique en augmentant les émissions de gaz à effet de serre.

En travaillant sur une forme de permafrost, baptisée Yedoma, rarement étudiée auparavant, les chercheurs ont constaté qu’une grande quantité de carbone est relâché le long des 7000 kilomètres de côtes de l’Arctique sibérien. Les permafrosts sont rapidement convertis en dioxyde de carbone et dix fois plus de carbone qu’initialement prédit se décharge dans l’océan arctique.

Le processus de libération du carbone en provenance de ces immenses réservoirs bat son plein et pourrait s’accélérer du fait du réchauffement climatique amplifié en Arctique. Cette étude, comme de précédents travaux de l’équipe de l’université de Stockholm, montre l’importance de comprendre les interactions entre réchauffement climatique et cycle du carbone afin de mieux prédire l’évolution des émissions de gaz à effet de serre.

Source : www.bulletins-electroniques

News Informatique : novembre 2012

L’intelligence artificielle entre dans les systèmes de planification industrielle

L’IPH (Institut de production intégrée de Hanovre, Basse-Saxe) étend son expertise dans l’automatisation : en collaboration avec la Société pour la promotion de la recherche appliquée en informatique (GFaI, Berlin), il souhaite développer dans les deux prochaines années des solutions logicielles pour la planification et l’automatisation intelligente des flux, dans le sens des « Smart Factories » encouragées par le Ministère fédéral de l’enseignement et de la recherche (BMBF).

En collaboration avec des professionnels de la logistique industrielle, il compte ainsi développer un logiciel qui visera à accélérer la planification des flux de production et à les rendre plus fiables.

Après de nombreux autres domaines, l’intelligence artificielle est ainsi appliquée à la conception et à la planification des usines à l’aide de techniques de « data mining » automatisées et liées au contrôle de la production. Pour cela, les ingénieurs et les informaticiens de Hanovre et Berlin souhaitent utiliser un type d’algorithme basé sur les réseaux « bayésiens ».

Un réseau bayésien est en informatique et en statistique un modèle graphique probabiliste représentant des variables aléatoires sous la forme d’un graphe orienté acyclique. Ils servent ainsi à calculer des probabilités conditionnelles. Pour un domaine donné (par exemple médical, ou industriel), on décrit les relations causales entre des variables d’intérêt par un graphe, dans lequel les relations de cause à effet entre les variables ne sont pas déterministes, mais probabilisées. Ainsi, l’observation d’une cause ou de plusieurs causes n’entraîne pas systématiquement l’effet ou les effets qui en dépendent, mais modifie seulement la probabilité de les observer. L’intérêt particulier des réseaux bayésiens est de tenir compte simultanément de connaissances a priori d’experts (dans le graphe) et de l’expérience contenue dans les données.

Les algorithmes seront d’abord développés lors de recherches sur le terrain, sur la base des données logistiques existantes, puis un logiciel pourra générer des modèles de simulation. Des entreprises de la Basse-Saxe, de la Bavière et du Bade-Wurtemberg se sont déjà montré intéressées par une participation, qui reste ouverte à des sociétés allemandes ou étrangères jusqu’à la fin de la première phase en octobre 2014.

Ce projet de recherche illustre un des thèmes phares du CeBIT 2012 qui présentait les systèmes « cyber-physiques », c’est-à-dire l’innovation dans l’interconnexion du Cloud computing, des logiciels et des objets physiques (équipements de production, infrastructures, capteurs) comme l’avènement de la quatrième révolution industrielle.

Source : www.bulletins-electroniques

La société Fraunhofer et l’Université de Southampton explorent ensemble le web du futur

La Société Fraunhofer et l’Université de Southampton (Royaume-Uni) ont lancé le 19 novembre 2012 un partenariat de recherche stratégique sur le thème de la science de l’internet, ou « Web Science ». L’objectif est de développer de nouveaux services et technologies pour le World Wide Web. La Société Fraunhofer s’implique dans la coopération par le biais de son institut pour l’analyse et les systèmes d’information intelligents (Fraunhofer IAIS, Sankt Augustin, Rhénanie du Nord-Westphalie) et l’institut pour les systèmes de communication ouverts (Fraunhofer FOKUS, Berlin).

« Avec l’Université de Southampton, nous gagnons un partenaire de premier plan dans la recherche sur l’Internet. Son expertise de longue date sur le plan théorique sera connectée aux capacités de recherche appliquée des instituts Fraunhofer dans le but de développer des solutions d’information et de communication intelligentes », explique Ulrich Buller, directeur de recherche de la Société Fraunhofer et président de sa filiale britannique, la Limited Fraunhofer UK Research.

L’équipe des partenaires scientifiques concentrera son projet de recherche conjoint autour de cinq priorités :

– le domaine de l' »Open Data », dans lequel sera étudié comment les données accessibles au public, telles que dans le commerce électronique et l’administration en ligne, peuvent être utilisées plus efficacement.

– Le « Web Observatoire », qui traitera de l’identification des informations sur Internet et de leurs traitements, afin d’analyser des phénomènes (économiques, politiques, etc.) et prédire des tendances.

– La section « collaboration sociale et crowdsourcing », qui analysera le thème de la collaboration collective et plus particulièrement comment les plateformes numériques ouvertes permettent à de nouveaux concepts, ou des idées innovantes, d’émerger.

– Le champ des « objets web dynamiques », qui a pour objectif de mieux comprendre la nature, le comportement et le cycle de vie des objets multimédias dynamiques, afin de les rendre disponibles pour les organisations.

– Enfin le thème « Services Internet », où il s’agira de développer de nouveaux services numériques de confiance qui améliorent la circulation de l’information au sein des organisations.

Du côté de l’Université de Southampton seront mis à contribution Dame Wendy Hall et Nigel Shadbold, reconnus internationalement dans ce domaine de recherche. Des liens étroits sont également visés avec Sir Timothy Berners-Lee, considéré comme un des inventeurs du World Wide Web, et également titulaire d’une chaire à l’Université de Southampton. Les deux instituts Fraunhofer engagés dans la coopération développent quant à eux depuis de nombreuses années des systèmes d’information, de communication et d’administration en ligne, pour les entreprises industrielles et les organismes publics.

Source : www.bulletins-electroniques

Un Français à la tête d’un nouveau programme sur la sécurité informatique

Octobre 2012, dans l’Est des Etats-Unis, alors que dans les quatre coins du pays l’on célèbre le Mois National pour la Sensibilisation à la Cybersécurité, l’Université du Maryland, College Park, nomme à la tête de son tout nouveau programme éducatif sur les enjeux de la sécurité informatique un Français, Michel Cukier. Ce professeur spécialisé dans la cybersécurité et la sûreté de fonctionnement, est arrivé aux Etats-Unis en 1996 à l’occasion d’un poste de post-doctorant à l’Université de l’Illinois, Urbana-Champaign. En 2001, il rejoint l’Université du Maryland pour devenir professeur assistant, puis est promu en juillet 2008 professeur associé. Onze ans plus tard, il est choisi par cette même université pour diriger un nouveau programme éducatif basé autour de la cybersécurité, le programme ACES pour « Expérience Avancée sur la Cybersécurité pour les Etudiants ». Ce programme vise à offrir aux étudiants la possibilité d’étendre leurs compétences dans le domaine de la sécurité informatique avec une formation large et un accès à de multiples outils et ressources. Nous vous proposons donc de faire un retour sur cette nomination et d’en savoir plus sur ce programme. Propos recueillis en entretien téléphonique par Thomas Debacker.

 
 
Michel Cukier – Directeur d’ACES, Université du Maryland
Crédits : John Consoli, University of Maryland
 

M. Cukier, vous venez d’être nommé en tant que premier directeur du tout nouveau programme ACES, qu’est-ce cela représente pour vous de prendre les commandes d’un tel programme aux Etats-Unis ?

Michel Cukier : C’est d’abord un grand honneur que m’a fait l’Université du Maryland en me nommant directeur d’ACES. C’est ensuite une importante responsabilité. Avec l’équipe que nous sommes en train de composer, nous souhaitons essayer d’élargir la vision de la sécurité informatique. L’idée sur laquelle je souhaite avancer est que ce domaine a une forte composante multidisciplinaire. Nous souhaitons aussi disposer d’un panel large d’étudiants issus de différents milieux et de formations diverses. Notre but est de former la nouvelle génération de « leaders » en sécurité informatique. En plus des compétences techniques, nous développerons une formation pour que ces étudiants puissent posséder les compétences d’analyse et de réflexion les plus appropriées possibles pour faire face aux nouveaux challenges posés par la sécurité informatique.

Pouvez-vous nous en dire plus sur ce programme ?

Michel Cukier : Il existe beaucoup de programmes au niveau graduate (ndlr : études au delà de la licence) que ce soit des Masters, des thèses ou des programmes professionnalisants autour de la sécurité informatique. C’est cependant beaucoup plus compliqué pour des étudiants « undergraduate » (ndlr : équivalent du premier cycle universitaire en France). Il existe encore à l’heure actuelle de grandes discussions sur ce qui devrait leur être enseigné à ce niveau, sur ce que couvre la sécurité informatique ainsi que sur les disciplines couvertes. Est-ce une discipline à part entière ? Certains chercheurs avancent le fait qu’il n’y ait pas de sciences en sécurité informatique. Il est donc difficile de savoir comment enseigner à des étudiants sortants du lycée ce qu’est la sécurité informatique et surtout leur enseigner que c’est autre chose que du hacking. C’est une problématique plus complexe.

Le premier avantage conséquent de ce programme, c’est qu’il est lié au Honors College. Au niveau de l’Université du Maryland, le Honors College accueille les 1000 meilleurs étudiants de l’université chaque année (pour un cycle de 4 ans et un total de 4000 étudiants). Nous avons donc à disposition un vivier exceptionnel de candidats auprès desquels nous pouvons activement recruter et convaincre de suivre le programme.

Le second avantage de ce programme, c’est que je suis convaincu que le domaine est multidisciplinaire. La vision actuelle met en avant un aspect très technique de la cybersécurité. Je souhaite donc sortir de cette idée, de mettre de côté l’aspect purement technique et mettre en avant les aspects du système entier, les aspects humains aussi. Les classes seront donc formées autour de divers discipline comme l’économie, la politique publique, la criminalité ou encore la psychologie.

 
 
Logo du programme ACES, Université du Maryland
Crédits : University of Maryland
 

Nous nous intéressons en ce moment à l’idée de mettre en place un programme d’étude à l’étranger, et nous cherchons notamment à trouver des partenaires en France qui seraient intéressés pour accueillir des groupes d’étudiants durant des classes pour échanger et voir les différences de perception de la cybersécurité et des risques entre les Etats-Unis et la France.

Enfin depuis longtemps, j’attache de l’importance à promouvoir la diversité des étudiants et donc la présence de sous-groupes parfois trop peu représentés dans les domaines scientifiques. C’est quelque chose qui est important si l’on veut résoudre des problèmes complexes car on se rend compte que chacun réagit de façon différente. Nous faisons donc d’importants efforts pour recruter un grand nombre de femmes et de minorités, et faire en sorte qu’ils restent dans le programme.

Etre étranger et être nommé à la direction d’un programme américain, cela n’a-t-il pas une signification forte / particulière ?

Michel Cukier : J’ai effectivement la double nationalité française et allemande. Je suis né au Luxembourg, j’ai grandi en Belgique. Je suis donc très européen. L’Université du Maryland n’a donc pas cherché coûte que coûte un Américain, mais a au contraire accepté de mettre à la tête de ce programme avec beaucoup de visibilité quelqu’un qui n’est pas citoyen américain, quelqu’un avec un accent français pour diriger un programme unique en sécurité informatique. Cela donne une image très positive des Etats-Unis et met en avant une ouverture d’esprit. Cela prouve qu’il est possible aux Etats-Unis, en venant d’Europe, de se faire engager en fonction de ses qualités. Cette nomination surprend d’autant plus certaines personnes du fait du domaine stratégique et sensible qu’est la sécurité informatique.

Votre nomination va-t-elle influencer votre carrière, vos perspectives professionnelles ?

Michel Cukier : Cela change effectivement un peu les choses. Ce sont avant tout des responsabilités en plus qui me sont données, plus de gestion de personnel, budgétaire et la tâche de monter ce programme. Du point de vue de ma carrière, je vais avoir beaucoup plus de choses à faire sur un plan éducatif, là où j’étais jusqu’à maintenant principalement orienté recherche. Je travaille depuis plusieurs années sur le côté multidisciplinaire de la sécurité informatique et sur la diversité, cette nomination donne ainsi un côté légitime qui est formidable.

Avez-vous gardé des liens avec la communauté française ?

Je possède quelques contacts avec la communauté française au sein de l’Université du Maryland, dans les environs de Washington et au niveau de l’Université de l’Illinois où j’ai été post-doctorant. J’ai aussi gardé des contacts avec des personnes en France ou en Belgique. J’espère pouvoir ainsi renforcer les collaborations avec d’autres écoles françaises comme l’ENSI de Bourges ou l’ENSEEIHT á Toulouse pour n’en citer que deux. Si je peux aider à mettre en place des collaborations avec des écoles françaises, travailler avec des industries françaises ou encore donner des chances aux étudiants français de venir étudier aux Etats-Unis, je serais ravi de faire cela.

 

Ingénieurs et scientifiques de France, un organe représentatif de la profession

ll y a aujourd’hui plus d’un million d’ingénieurs en France et de l’ordre de 200.000 chercheurs dans les domaines qui sont les nôtres, c’est-à-dire maths, physique, chimie, etc… Ces ingénieurs sont issus à 80% des grandes écoles, ce qui signifie qu’ils ont obtenu leur diplôme d’ingénieur d’un des 200 établissements d’enseignement supérieur accrédités par la Commission des titres des ingénieurs (CTI), organe légal créé par décret en 1934.

Contrairement à d’autres pays, il se trouve qu’en France le phénomène associatif est assez développé chez les ingénieurs, et que l’école qui les a formés est leur principal critère de regroupement. Ingénieurs et scientifiques de France (IESF) est l’organe représentatif de la profession, reconnu d’utilité publique depuis 1860. Cette fédération regroupe environ 180 associations, pour la plus grande partie des associations d’anciens élèves, une partie d’associations scientifiques (sociétés savantes) mais aussi des associations professionnelles (par exemple les ingénieurs experts auprès des tribunaux, ou bien les IPF qui sont des ingénieurs dont les compétences professionnelles sont régulièrement contrôlées et validées par des représentants de l’État). Le troisième type d’association que nous fédérons est ce que nous appelons les Unions régionales d’ingénieurs et de scientifiques (URIS). Il y a, en France, 25 de ces organisations régionales. Quelques sections internationales aussi.

Dans la mesure où nous sommes l’organisme représentatif de la profession d’ingénieur et de scientifiques en France, nos membres attendent de nous leur représentation auprès des pouvoirs publics, la valorisation de la science et de la technologie, et, bien évidemment, la promotion des métiers scientifiques. En découle de fait un aspect formation, et nous suivons de très près ce qui se passe dans l’enseignement supérieur, dans les universités comme dans les écoles d’ingénieurs, ainsi qu’à l’Education nationale : c’est non moins important, car si l’on ne veille pas à ce que suffisamment d’élèves choisissent les études scientifiques, on aura beau développer des écoles et des cursus universitaires, ça ne servira pas à grand-chose si les filières scientifiques ne sont pas approvisionnées. Ce défi est commun à la France et à tous les pays développés.

Mon dernier point est, je dirais, tout ce qui concerne la place de la profession, sa structuration, son éthique, son organisation. Un million d’ingénieurs, c’est près de 4% de la population active de ce pays. « Les ingénieurs » sont un phénoménal réservoir de compétences, de savoir-faire, d’intelligence, une source d’innovation. Il faut aussi savoir qu’aujourd’hui 15% des ingénieurs travaillent à l’international, ce qui veut dire qu’ils ont la connaissance, une expérience profonde, vécue, de pays auxquels la France souhaite s’intéresser. Ils constituent une ressource nationale, ce que nos dirigeants économiques ou politiques n’ont pas pris réellement en compte.

IESF mène plusieurs grands programmes, dont tout d’abord l’enquête annuelle très détaillée que nous effectuons depuis plus de 20 ans sur la situation des ingénieurs. Au début, il s’agissait juste d’une enquête salaires, puis elle s’est enrichie avec le temps et couvre à peu près tout ce que l’on peut avoir envie de savoir sur les ingénieurs, leur formation, leur secteur d’activité, leur fonction, leur perception des entreprises, leur salaire bien sûr mais aussi leur point de vue… Avec chaque année près de 50.000 réponses, c’est un échantillon statistique absolument parfait, qui nous donne un aperçu limpide de ce qu’est la profession, de ses difficultés, de ses attentes, de ce qui va et de ce qui ne va pas.

Un autre programme majeur est ce que nous appelons le Répertoire des ingénieurs français. C’est une base de données de plus de 800.000 noms dont nous sommes les dépositaires et dans laquelle on retrouve les ingénieurs diplômés de ce pays, avec leur nom, leur diplôme ainsi que l’année d’obtention et l’établissement qui le leur a délivré. Ce registre de la profession qui fait foi est mis à jour chaque année par les associations d’anciens ou les écoles. On me parle d’un taux de consultation qui dépasserait les 100.000 par mois. Ce qui traduit entre autres que DRH et chasseurs de têtes consultent notre Répertoire pour vérifier que les gens qui disent avoir un diplôme l’ont effectivement obtenu. Rappelons l’histoire récente d’un individu qui avait dirigé un aéroport régional pendant quelques mois avec de faux diplômes. Les entreprises veulent se prémunir contre ce genre de choses…

Nous avons également des « comités sectoriels ». C’est-à-dire que sur une quinzaine de grands secteurs (énergie, aéronautique, environnement, génie civil…) des spécialistes se réunissent à intervalles réguliers. Ils assurent une fonction de veille technologique, et maintiennent aussi une forme de cohérence entre les associations d’ingénieurs qui ont souvent leurs propres groupes professionnels. Ces comités ont également mission de publier de temps à autre des « white papers » matérialisant leurs études et le fruit de leurs cogitations, ainsi que des « position papers » pour permettre à IESF de s’exprimer et de communiquer correctement à l’occasion de grands débats nationaux ayant une incidence scientifique ou technique, ou bien lorsque se produit un événement majeur qui peut concerner la communauté des ingénieurs et scientifiques.

Le dernier point que je voudrais mentionner est le « Livre Blanc » des ingénieurs et scientifiques de France. En termes de communication, ingénieurs et scientifiques sont rarement en lumière, plutôt occupés à travailler. Souvent pointilleux, préférant être absolument sûrs de leurs déclarations, ils ont tendance à tout vérifier cinq fois avant de s’exprimer, et arrivent souvent avec retard dans les débats, une fois que tout est joué. Nous avons publié le Livre Blanc en novembre 2011 dans la perspective des élections présidentielles, au terme d’une large consultation qui a duré plus de six mois auprès des ingénieurs et scientifiques français à travers leurs associations. Nous leur avons demandé quels étaient pour eux les sujets importants, les priorités.

Assorti de 40 propositions pour réindustrialiser la France, le Livre Blanc est axé sur l’industrie, sur l’innovation, sur la formation au long de la vie, sur l’énergie, sur le développement responsable, sur la maîtrise des risques, enfin sur l’image de la science et de la technologie. Ce n’est donc sans doute pas un hasard si ces thèmes ont été largement abordés par chacun des grands candidats tout au long de la campagne présidentielle.

Propos recueillis par Sébastien Tribot, journaliste scientifique

Chimie verte : nouvel eldorado

Chimie verte : définition

Le concept de chimie verte est défini en 1998 par les chimistes américains Paul Anastas et John C. Warner, appartenant à l’EPA, Environmental Protection Agency. La chimie verte prévoit l’utilisation de principes pour réduire et éliminer l’usage ou la génération de substances néfastes pour l’environnement, par de nouveaux procédés chimiques et des voies de synthèses « propres », c’est-à-dire respectueuses de l’environnement.

La chimie durable : définition

La chimie durable est un processus qui prend en compte tout le cycle de vie du produit, que l’on retrouve dans les produits comme les résines biosourcées.

Les résines biosourcées : définitions

Les résines biosourcées sont des résines qui sont essentiellement issues de ressources renouvelables – végétales – en remplacement, pour des produits techniques, des  produits issus de la chimie et produits pétroliers. Soit des résines epoxy ou polyurethane en partie bio – pas forcément traduissible par Agriculture Biologique – dans des proportion allant de 40 à 90% du produit total sans solvant.

Principes de la chimie verte

  • La prévention de la pollution à la source en évitant la production de résidus ;
  • L’économie d’atomes et d’étapes qui permet de réaliser, à moindre coût, l’incorporation de fonctionnalités dans les produits recherchés tout en limitant les problèmes de séparation et de purification ;
  • La conception de synthèses moins dangereuses grâce à l’utilisation de conditions douces et la préparation de produits peu ou pas toxiques pour l’homme et l’environnement ;
  • La conception de produits chimiques moins toxiques avec la mise au point de molécules plus sélectives et non toxiques impliquant des progrès dans les domaines de la formulation et de la vectorisation des principes actifs et des études toxicologiques à l’échelle cellulaire et au niveau de l’organisme ;
  • La recherche d’alternatives aux solvants polluants et aux auxiliaires de synthèse ;
  • La limitation des dépenses énergétiques avec la mise au point de nouveaux matériaux pour le stockage de l’énergie et la recherche de nouvelles sources d’énergie à faible teneur en carbone ;
  • L’utilisation de ressources renouvelables à la place des produits fossiles. Les analyses économiques montrent que les produits issus de la biomasse représentent 5% des ventes globales de produits chimiques et pourraient atteindre 10 à 20 % en 2010. Plus de 75% de l’industrie chimique globale aurait alors pour origine des ressources renouvelables ;
  • La réduction du nombre de dérivés en minimisant l’utilisation de groupes protecteurs ou auxiliaires ;
  • L’utilisation des procédés catalytiques de préférence aux procédés stoechiométriques avec la recherche de nouveaux réactifs plus efficaces et minimisant les risques en terme de manipulation et de toxicité. La modélisation des mécanismes par les méthodes de la chimie théorique doit permettre d’identifier les systèmes les plus efficaces à mettre en oeuvre (incluant de nouveaux catalyseurs chimiques, enzymatiques et/ou microbiologiques) ;
  • La conception des produits en vue de leur dégradation finale dans des conditions naturelles ou forcées de manière à minimiser l’incidence sur l’environnement ;
  • La mise au point des méthodologies d’analyses en temps réel pour prévenir la pollution, en contrôlant le suivi des réactions chimiques. Le maintien de la qualité de l’environnement implique une capacité à détecter et si possible à quantifier, la présence d’agents chimiques et biologiques réputés toxiques à l’état de traces (échantillonnage, traitement et séparation, détection, quantification) ;
  • Le développement d’une chimie fondamentalement plus sûre pour prévenir les accidents, explosions, incendies et émissions de composés dangereux.

L’actualité de la chimie verte en France

Leur activité est à peine amorcée mais déjà les investisseurs parient sur le succès de plusieurs petites sociétés françaises misant sur le végétal comme matière première de la chimie, à l’image de Global Bioenergies qui vient de réussir son entrée en Bourse.

Fondé en 2008 sur le Génopôle d’Evry (région parisienne), Global Bioenergies voulait lever 4,6 millions d’euros pour développer un procédé de conversion de ressources renouvelables en hydrocarbures.

Au final, la jeune société a obtenu 6,6 millions d’euros en s’introduisant sur le marché Alternext. Son action à 19,85 euros, dont la cotation débutera le 15 juin, valorise la start-up à 31,4 millions d’euros.

Ce succès dépasse nos attentes, s’est réjoui Marc Delcourt, son PDG et co-fondateur, interrogé par l’AFP.

Avant Global Bioenergies, d’autres jeunes pousses de la chimie du végétal, Deinove et Metabolic Explorer (MetEx), avaient déjà réussi le pari de l’introduction en Bourse, respectivement en 2010 et 2007.

Deinove, Metabolic Explorer, Global Bioenergies, Alcimed, Solazyme, Gevo… 

Et le phénomène ne se limite pas à la France. Aux Etats-Unis, des sociétés comme Solazyme ou Gevo ont récemment réussi leur appel au marché.

Leurs thématiques sont d’actualité et on sent pour elles un engouement fort et une réalité industrielle incontournable et irréversible, relève Pierre Gadrat, directeur de l’activité chimie-matériaux à la société de conseil Alcimed.

Signe de cet enthousiasme pour les voies alternatives à la pétrochimie, le projet PIVERT (Picardie Innovations Végétales Enseignements et Recherches Technologiques), futur institut d’excellence dans la chimie du végétal, vient d’être sélectionné par l’Etat, avec un budget de 220 millions d’euros sur dix ans.

Pendant longtemps, la chimie verte a été cantonnée à des applications de niche (…). Aujourd’hui, le volume des marchés ciblés est plus conséquent, donc cela donne une réalité industrielle plus forte, explique M. Gadrat.

Néanmoins, miser sur ces jeunes sociétés est un pari risqué, car elles sont encore davantage à un stade d’expérimentation qu’à un stade industriel. A l’heure actuelle, leurs revenus se limitent à d’éventuels paiements de licence et à des subventions.

MetEx, qui travaille à développer des micro-organismes capables de produire, en se nourrissant de matières végétales, les mêmes composés chimiques que ceux issus de la pétrochimie, veut commercialiser ses premiers produits en 2012. Alors que ses revenus ont été nuls au premier trimestre 2011, elle avait indiqué fin 2010 espérer un chiffre d’affaires de 20 millions d’euros en 2013.

De son côté, Deinove a réussi à sélectionner la bactérie déinocoque adéquate pour son projet de fabrication de bioéthanol nouvelle génération, ce qui a permis fin mai un financement de 1,6 million d’euros de la part de la banque d’aide aux PME (Oséo). Un essai en usine en grandeur réelle est anticipé pour début 2014.

Quant à Global Bioenergies, notre principale priorité est d’avancer vers l’industrialisation de notre procédé qui sert à produire de l’isobutène et de répliquer ce succès à d’autres molécules de la pétrochimie, a indiqué M. Delcourt. Une usine de démonstration est attendue pour l’exercice 2015/2016.

Son entrée en Bourse va lui permettre non seulement de financer son développement mais aussi d’être plus visible à l’égard de partenaires potentiels. On a un grand nombre de discussions en cours avec des industriels (pour d’éventuelles licences, ndlr). Le fait d’être une société visible et cotée en Bourse nous ajoute du poids, estime Marc Delcourt.

Dans 15 ans, 10 à 15% de la surface agricole française pourrait être dédiés aux besoins de la chimie du végétal. Au détriment des ressources alimentaires ?

Sources : Wikipedia, CNRS, Romandie.be et Résine biosourcée

L’industrie chimique occupe une place majeure en France

La place considérable quʼelle occupe au niveau national permet à lʼindustrie chimique française dʼoccuper le second rang européen et le cinquième rang mondial. Elle représente même le premier exportateur, avec 13,4% des exportations manufacturières. Enfin, un excédent commercial de 5 milliards dʼeuros fait de lʼindustrie chimique le troisième secteur industriel, derrière lʼaéronautique et la fabrication de médicaments.

Toutefois, face aux enjeux environnementaux actuels, la chimie de demain devra sʼadapter pour se montrer plus durable et plus respectueuse de lʼenvironnement. Après lʼexplosion dʼAZF (dont jʼai été le rapporteur de la commission dʼenquête) et de nombreux débats survenus dans le cadre du Grenelle de lʼenvironnement sur les effets toxiques et persistants de certains pesticides, une image dʼindustrie polluante et dangereuse a été associée à la chimie, occultant de fait les bénéfices quʼil est possible dʼen retirer.

La chimie durable compatible avec les objectifs du respect de lʼenvironnement constitue la chimie verte, dont les principes ont été théorisés par Paul Anastas et John C. Warner. La chimie verte prévoit lʼutilisation de technologies qui permettent de limiter les pollutions à la source, dʼoptimiser lʼincorporation de réactifs, de concevoir des synthèses chimiques propres (c’est-à-dire moins dangereuses), de réduire les produits dérivés qui peuvent générer des déchets, de limiter les pollutions, de privilégier lʼéco-conception du produit en anticipant sur son mode de dégradation finale, de mieux intégrer les processus réactionnels pour prévenir accidents et explosions, et dʼutiliser des matières biorenouvelables afin de limiter le recours aux matières fossiles.

De tels objectifs modifieront profondément les secteurs de la chimie. Notre rencontre ne doit pas pour autant conduire à différencier une chimie propre utilisant des produits naturels dʼune chimie polluante, dangereuse et donc à proscrire. Nous avons besoin de lʼensemble de la chimie dans nos activités industrielles. Ainsi, plus de 70% des produits fabriqués par lʼindustrie chimique sont en réalité destinés à dʼautres secteurs industriels. La chimie représente donc un moteur de lʼinnovation pour lʼensemble des secteurs industriels. Les objectifs doivent par conséquent devenir un véritable axe stratégique pour la recherche et lʼindustrie.

Les modifications apparaissent au niveau politique, avec bien entendu les règlements REACH et le fait que, depuis lʼannée 2008, les industriels sont contraints de prouver lʼinnocuité de leurs produits pour lʼhomme et pour lʼenvironnement. Jʼétais moi-même, avant de devenir parlementaire, biochimiste. Jʼai beaucoup travaillé sur la catalyse enzymatique. Jʼai vu comment la catalyse est capable de fabriquer extrêmement rapidement des produits sans augmentation de température et sans augmentation de pression. La catalyse permet ainsi de réduire la consommation dʼénergie et la quantité de réactifs utilisés. La fabrication dʼune molécule simple comme lʼibuprofène nécessitait par exemple par le passé six réactions chimiques avec la disparition de 60% de masses de réactifs transformés en déchets.

Aujourd’hui, un système catalytique permet de fabriquer lʼibuprofène en trois réactions. En outre, nous retrouvons dans le produit final 77% de la masse atomique de la fabrication du produit, tandis quʼune part des 23% restants est réutilisable. Les réactions ont donc été profondément modifiées. Nous devons par conséquent privilégier la recherche dans les domaines concernés.

Avec mon collègue Daniel Garrigue, nous avons souhaité réfléchir à la possibilité que la chimie durable devienne un axe stratégique majeur pour la recherche et le développement en France. Nous avons donc tenté, par nos rencontres, de faire en sorte quʼau niveau des pouvoirs publics, la chimie durable soit effectivement retenue comme axe stratégique majeur dans notre pays. Nous avons par conséquent lʼobjectif de nous montrer transparents, les industries qui nʼont pas été transparentes ayant rencontré de graves difficultés dans le passé. Si nous nous montrons transparents, nous réconcilierons la chimie avec le grand public. Nous démontrerons que la chimie française se situe à un niveau dʼexcellence européen, ayant su faire peau neuve et sʼadapter aux défis du XXIe siècle.

Jean-Yves Le Déaut est docteur ès sciences en biochimie, ancien professeur des Universités, député de Meurthe-et-Moselle depuis 1986, vice-président de lʼOffice parlementaire dʼévaluation des choix scientifiques et technologiques, vice-président du Groupe dʼétudes sur les Biomatériaux et membre du Groupe dʼétudes sur lʼIndustrie chimique. Il est actuellement vice-président de lʼOffice parlementaire dʼévaluation des choix scientifiques et technologiques, office quʼil a présidé plusieurs fois depuis 1989. Rapporteur et membre de plusieurs Missions dʼinformation parlementaires et de Commissions dʼenquête, il est également auteur de nombreux rapports, notamment sur les biotechnologies, dont les OGM, lʼamiante, la gestion des déchets nucléaires, la recherche, les énergies renouvelables, les risques industriels et lʼeffet de serre. Jean-Yves Le
Déaut est également premier vice-président du Conseil régional de Lorraine depuis 2004.

Chimie et développement durable – Vers une chimie organique écocompatible

Composante fondamentale de l’industrie chimique et pharmaceutique, la chimie organique, ou chimie des composés du carbone, a connu un développement prodigieux au cours du siècle précédent, et ce principalement grâce à la découverte et à l’élaboration de nouvelles molécules. Son impact sur notre société est visible, multiple et positif. Aujourd’hui, elle fait, à juste titre, partie intégrante de notre quotidien, à travers une variété de produits indispensables à notre santé (alimentation, médicaments…) ou qui contribuent grandement à l’amélioration de notre qualité de vie (matériaux, cosmétiques…). Qui plus est, elle prend une part active à notre développement économique.

Toutefois, sa forte dépendance vis-à-vis du pétrole, comme source de matières premières, menace considérablement son avenir. Déjà, à l’heure actuelle, ce secteur est confronté à la montée rapide et inexorable des cours du pétrole, engendrée par une demande mondiale grandissante en matière d’énergie ; mais aussi il doit prévenir l’épuisement programmé à court terme des ressources fossiles non renouvelables. D’autre part, cette chimie véhicule souvent une image négative auprès de la société aussi bien en matière de santé et de sécurité que d’environnement, et ce d’autant plus lorsqu’elle est à l’origine ou associée à des catastrophes écologiques et/ou humaines.

Tout le monde a encore en mémoire la tragédie de la thalidomide en 1961 (sédatif hypnotique dont l’énantiomère (S) a montré très vite des effets tératogènes importants chez la femme enceinte) et l’usage excessif des pesticides comme le DDT (puissant insecticide dont la persistance est évaluée de 1 à 10 ans), mettant en cause tour à tour l’industrie pharmaceutique et l’industrie agrochimique. Les accidents industriels les plus médiatiques – comme ceux de Feyzin (France, 1966), Seveso (Italie, 1976), Bhopal (Inde, 1984), Bâle (Suisse, 1986), Protex (France, 1987), La Mède (France, 1992) ou encore l’explosion de l’usine AZF à Toulouse (France, 2001), ainsi que les problèmes liés à la gestion des rejets et des déchets chimiques et à l’accumulation des gaz à effet de serre n’ont fait qu’accentuer cette crise de confiance.

Pourtant, au cours de ces dernières années, l’industrie chimique a, pour sa part, profondément évolué en contrôlant la plupart des cycles de vie des produits (production, manipulation et recyclage) et en s’efforçant ainsi à intégrer les principes d’une chimie durable dite chimie écocompatible ou chimie verte – c’est-à-dire plus soucieuse de l’environnement et qui cherche à prévenir la pollution tout en restant compétitive – devenant de ce fait un acteur majeur en matière de développement durable.

En savoir plus

Chimie par transfert de phase

Le développement d’une chimie durable dite « chimie écocompatible » ou « chimie verte » constitue un défi majeur pour les chimistes de synthèse. Un des objectifs de la chimie verte est de concevoir des produits et des procédés chimiques permettant de réduire ou d’éliminer l’utilisation et la synthèse de substances dangereuses et toxiques. Pour atteindre ce but, le chimiste de synthèse doit intégrer un certain nombre de principes de base (12 principes de la chimie verte) parmi lesquels on peut citer la limitation de l’emploi de solvants organiques (toxiques et inflammables) et de réactifs coûteux et dangereux, la diminution de la quantité de sous-produits et de déchets des réactions en incluant les étapes de séparation et de purification, l’économie d’atomes et d’étapes en privilégiant les réactions catalytiques plutôt que stoechiométriques. Cette démarche doit inclure la totalité du procédé, à savoir la réaction en elle-même ainsi que son traitement en limitant les problèmes de séparation et de purification.

L’approche classique du chimiste organicien de synthèse, qui consiste à effectuer les réactions en milieu homogène en utilisant un solvant organique commun à l’ensemble des partenaires réactionnels, induit non seulement des étapes de séparation et de purification coûteuses et génératrices de déchets supplémentaires, mais aussi des effets de dilution et de solvatation qui peuvent limiter l’efficacité.

L’utilisation de systèmes polyphasiques (par exemple liquide-liquide ou solide-liquide), avec transfert d’un ou plusieurs partenaires d’une phase vers l’autre, constitue une alternative plus écorespectueuse et généralisable à la plupart des réactions de la chimie organique. Cette chimie par transfert de phase s’applique aussi bien à des processus stoechiométriques que catalytiques, le transfert de phase ayant lieu soit en cours de réaction, soit après réaction. Les procédés par transfert de phase présentent de multiples intérêts en termes de chimie durable : ils permettent de limiter, voire de s’affranchir, de l’utilisation de solvants organiques (avec la possibilité d’effectuer des réactions uniquement en présence d’eau) et de faciliter la séparation (idéalement par simple décantation) minimisant ainsi la quantité d’effluents toxiques et le coût énergétique. Ils sont généralement très efficaces, sélectifs et s’opèrent dans des conditions douces.

Dans cet article nous nous focaliserons sur les applications du transfert de phase en chimie de synthèse selon trois grandes approches : la catalyse par transfert de phase qui implique un transfert en phase organique, le transfert de phase inverse qui implique un transfert en phase aqueuse et les systèmes thermorégulés qui impliquent un transfert de phase ou une séparation de phase induite par variation de température.

En savoir plus

Des peintures qui tournent au gris : la faute du cobalt

La faute en incombe au bleu d’émail, un pigment très utilisé dans la peinture murale à partir du 15ème siècle, qui, soumis à l’humidité devient, grisâtre. L’étude a été publiée dans le Journal of Analytical Atomic Spectrometry.

Pour comprendre ce phénomène d’altération des couleurs, les chercheurs ont étudié une oeuvre qui avait été récemment restaurée, « Le Baptême de Jésus », de Luca Signorelli (fin du 15ème siècle), et qui contient du bleu d’émail dans ses couleurs originales. Les chercheurs ont isolé des fragments microscopiques de peinture et les ont comparés avec d’autres échantillons vieillis artificiellement. Ceci a été notamment possible grâce aux méthodes de microscopie électronique à balayage et de spectroscopie à rayons X.

« Ces examens ont montré que les granulés de pigments altérés sont dépourvus de potassium, et que le cobalt, lui aussi contenu dans le pigment, est entouré de 6 atomes d’oxygène en forme d’octaèdre dans 30% des cas, alors que dans les granulés inaltérés, le cobalt possède se trouve au centre d’un tétraèdre formé de 4 atomes d’oxygène. », explique Francesco d’Acapito du Cnr-Iom. « Le changement de la structure du cobalt, observé également chez des peintures de Murillo ou de Veronese par des chercheurs français, semble expliquer le changement de couleur ».

Les chercheurs ont aussi réalisé des calculs théoriques sur les propriétés optiques du cobalt tétraédrique et octaédrique : le premier absorbe fortement le spectre rouge, ce qui permet d’obtenir une couleur bleue, le second, absorbe lui le bleu, ce qui donne une couleur rose. « La présence simultanée des deux structures dans le cas d’un pigment dégradé, entraine une tonalité grisâtre ».

 

Courant Continu Haute Tension : ABB annonce une rupture technologique historique pour l’ingénierie électrique

C’est une innovation attendue depuis plus d’un siècle.  Avec ce disjoncteur, ABB estime avoir pris de l’avance sur ses deux principaux concurrents, le français ALSTOM et l’allemand SIEMENS, sur ce marché à forte croissance  portant sur des milliards de dollars dans le monde.

Plus vite que Lucky Luke

Le disjoncteur mis au point par ABB est dit « hybride » car il s’agit d’un disjoncteur mécanique couplé à de l’électronique de très haute puissance. Il est capable de stopper un flux de courant continu d’une puissance équivalente à celle qui sort d’une grande centrale nucléaire, ceci en 5 millisecondes, c’est-à-dire 30 fois plus rapidement qu’un battement de cil au niveau d’un œil humain.

La prouesse réalisée peut être comparée à stopper complètement en quelques millisecondes un énorme camion roulant à sa vitesse maximale sur une autoroute  a déclaré Claes Rytoft, chef du département ingénierie électrique d’ABB.

Le HVDC (Courant Continu Haute Tension) permet le transport d’électricité sur de longues distances avec un très bon rendement : moins de 3 % de pertes en 1 000 km parcourus. Une caractéristique qui
change radicalement l’équation des énergies renouvelables. Et l’innovation d’ABB bouleverse encore davantage cette équation.

La plus longue ligne HVDC du monde (2375 km) va être inaugurée au Brésil en 2013, record qui sera battu peu de temps après par l’Inde avec une ligne de 2600 km.

Mais sans disjoncteur, l’utilisation de l’HVDC était néanmoins très limitée. Grâce à cette innovation, c’est « un nouveau chapitre de l’histoire de l’ingénierie électrique » qui commence a déclaré Joe Hogan, Directeur exécutif d’ABB.

« S’il sont parvenus à faire ça, c’est très important » a commenté à Reuters-UK Roger Kemp, professeur d’ingénierie à l’université Lancaster en Grande-Bretagne. « Le courant continu est une façon beaucoup plus efficace de transporter l’électricité ».

Du point à point au multipoint

Avec la rupture technologique d’ABB, il devient à présent possible d’élaborer de grands réseaux électriques (SuperGrid HVDC), c’est-à-dire de travailler en multipoints. Cela n’était pas possible jusqu’à présent et a fortement limité l’attractivité du courant continu dans le passé.

Le réseau électrique évolue et a besoin d’être de plus en plus flexible et interconnecté, et aussi de plus en plus fiable et intelligent pour faire face à de nouveaux défis tels que l’intégration à grande échelle des énergies renouvelables.  Un pays comme l’Allemagne pourraient être l’incubateur d’une telle vision, et de nombreuses études appellent à un réseau plus intégré dans ce pays.

Par Olivier Danielo

Le HVDC : une revanche posthume pour Edison

Le courant continu consiste en un mouvement des charges dans un seul sens, avec une tension constante. C’est ce type de courant qui est par exemple généré par la première pile du monde, celle mise au point par Alessandro Volta (1800). C’est aussi celui qui est délivré par les modules photovoltaïques et qui utilisé par les ordinateurs, les téléviseurs et les téléphone portables.

Avec le courant alternatif, les charges se déplacent successivement dans un sens puis dans l’autre. Ceci au rythme d’un alternateur, constitué d’un rotor aimanté qui tourne à une fréquence donnée et d’un stator, permettant l’induction électromagnétique.

Les alternateurs de bicyclette, les éoliennes ainsi que toutes les centrales thermiques génèrent ce type de courant. La tension obtenue est sinusoïdale et les fréquences (nombre de tours par seconde) utilisées aujourd’hui dans le monde sont le 50 Hz et le 60 Hz.

Le courant continu possède une « tare congénitale », qui sera fatale aux efforts d’Edison : il est en effet impossible d’augmenter directement sa tension. Or, à puissance délivrée égale, augmenter la tension permet de diminuer l’intensité et donc de diminuer à la puissance 2 les pertes par effet Joule ((P = U x I) où U est la tension et I l’intensité. L’effet Joule (RI2) est l’effet thermique associé à la résistance électrique (R). Plus les pertes par effet Joule sont importantes, moins loin pourra être transférée l’énergie électrique.

L’Edison Illuminating Company parvient en 1884 à alimenter 508 clients (10.164 lampes) localisés sur un rayon d’environ 1,5 kilomètre autour d’un générateur à courant continu (110 volts) installé à Pearl Street, au coeur de Manhattan, New York. L’exploit est historique et marque le début d’un business très prometteur. Mais Edison ne parvint pas à dépasser cette distance très limitée.

L’invention du transformateur ouvre le règne de l’alternatif

Parallèlement, le Français Lucien Gaulard et l’Anglais John Dixon Gibbs réussirent les premiers, en 1883, grâce à un courant alternatif et une tension de 2.000 volts, à transporter de l’énergie électrique sur une distance de 40 km, pulvérisant l’exploit d’Edison. Plus encore, Lucien Gaulard réalise une véritable rupture technologique en mettant au point en 1886 le transformateur. Il devient ainsi possible d’augmenter la tension du courant alternatif et d’allonger considérablement les distances de transfert électrique.

Le transformateur, constitué de deux bobines de cuivre au nombre de spires différent, permet d’augmenter ou d’abaisser la tension alternative par induction électromagnétique. Étant donné qu’il n’y a pas de variation de champ magnétique avec le courant continu, variation nécessaire à l’induction, le transformateur ne peut donc fonctionner qu’avec du courant alternatif.

Facteur aggravant pour Edison, en 1887, une autre innovation apparaît avec Nikola Tesla : celle du courant triphasé (trois sinusoïdes) qui économise entre 30 et 50 % de matériau au niveau de la ligne électrique, facilitant la construction des lignes et la réduction des pertes.

L’homme d’affaires Westinghouse saisit immédiatement l’opportunité, dès 1887, fait breveter un transformateur, puis réalise à Buffalo le premier réseau à courant alternatif du monde pour l’éclairage.

En 1891, la première expérience pour le transport d’énergie sur longue distance est faite en Allemagne, avec une ligne électrique de 175 kilomètres entre la centrale hydroélectrique de Lauffen sur Neckar et Francfort, avec seulement 25% de perte. Battu sur le plan technologique, Edison, qui est allé jusqu’à électrocuter un éléphant pour monter les dangers inhérents au courant alternatif,  perd alors l’énorme marché américain de l’électrification.

Les redresseurs au secours du courant continu

Les défenseurs du courant continu ne s’avouent pas vaincus pour autant et poursuivent leurs recherches. Mais par quel artifice augmenter la tension du courant continu ? Le Suisse René Thury, surnommé le « roi du courant continu », propose alors de brancher plusieurs générateurs en série. En 1906, une liaison de 200 km, sous 75 kV, est construite avec succès entre la centrale hydroélectrique de Moutiers et Lyon. L’approche montre toutefois ses limites et se révèle rapidement non compétitive. Pendant ce temps, le courant alternatif continue sa fulgurante progression.

Une seconde stratégie émerge alors, notamment de la part des Suédois: utiliser du courant alternatif, augmenter la tension avec un transformateur puis redresser et lisser (le redressage et le lissage de tension, c’est l’inverse de ce que fait un onduleur dans une installation photovoltaïque) le courant alternatif haute tension obtenu pour en faire du courant continu haute tension. Une évolution qui n’a été possible qu’avec l’apparition des premiers redresseurs de tension aux vapeurs de mercure (il s’agit de diodes, c’est-à-dire de dipôles non linéaires et polarisés.) au milieu du XXe siècle. Mais le coût de ce lourd arsenal technologique était rédhibitoire.

Atlantropa ou l’émergence du concept de supergrid

A l’issue de la Première Guerre mondiale, l’état de l’Europe inquiétait de nombreux intellectuels, comme l’architecte allemand Herman Sörgel. Ce dernier rencontra Oswald Spengler, l’auteur du livre Le Déclin de l’Occident, et craignit que l’Europe ne sombre dans une pénurie de ressources alimentaires et énergétiques provoquant un nouveau conflit planétaire.

Né d’un père constructeur de barrages hydroélectriques en Bavière, Herman Sörgel élabore alors un plan pour donner un nouveau souffle le à l’Europe : construire un énorme barrage hydroélectrique au niveau du détroit de Gibraltar pour fermer la mer Méditerranée, et créer ainsi, du fait de l’évaporation solaire, un dénivelé d’une dizaine de mètres avec l’océan Atlantique ! Un débit d’eau de mer équivalent à 12 fois les chutes du Niagara aurait alors permis de générer des quantités phénoménales d’électricité hydrosolaire, qu’il fallait ensuite distribuer. Herman Sörgel conçut alors en 1928 un réseau d’autoroutes d’électricité haute tension à l’échelle de l’Afrique et de l’Europe qu’il baptisa « Atlantropa ». Il est le premier à avoir imaginé un supergrid à l’échelle continentale. Atlantropa suscita, à l’époque, une véritable passion. l’hydroélectricité, cœur des premiers projets de super-réseaux.

Quelques années après, en mai 1929, à l’occasion d’un colloque organisé par le groupe du sud-est de la Société française des électriciens, un certain Georges Viel présente un plan visant à construire en Europe un réseau de 3.000 km sous 400 kV. Cet ingénieur français soulignait qu’avec du 220 kV seulement, il était difficile d’envisager l’exploitation de ressources hydroélectriques éloignées de 1.000 km, mais que cela devenait possible avec un réseau 400 kV. Il comprit que l’interconnexion de la France avec l’Italie, l’Espagne et l’Allemagne permettrait de mutualiser les réservoirs hydroélectriques, et d’économiser la ressource charbon. Dans les années 1930, l’Allemand Oskar Oliven proposa un réseau de 9.750 km sous 200 et 400 kV, permettant de relier le Portugal, la Norvège et la Russie.

Le Suisse Ernst Schönholster vint avec un plan similaire. L’Allemagne hitlérienne, qui avait l’ambition de construire la « Neuropa » (Nouvelle Europe), reprit les idées d’Oliven. Le régime nazi élabora alors un plan de supergrid s’étalant entre Londres, Oslo, Barcelone et Donetzk en Ukraine. Le projet fut abandonné suite à la victoire des Alliés en 1945.

20.000 lieues sous les mers

Ce sont les liaisons électriques sous-marines qui ont permis au HVDC de démontrer sa compétitivité pour la première fois. En effet, dans ces conditions, le courant alternatif souffre de l’effet capacitif (l’effet capacitif, quand il est parasite, désigne l’accumulation de charges entre deux lignes conductrices).

La première ligne HVDC sous-marine commerciale du monde, entre l’île suédoise de Gotland et le reste du pays, a été inaugurée en 1954. Le HVDC s’imposa alors dans les liaisons sous-marines et souterraines de plus de 50 km. De nombreuses autres liaisons sous-marines HVDC ont été construites depuis, notamment celle r e l i a nt l a France à l’Angleterre (1961) et celle reliant le Danemark à la Norvège. La plus longue du monde, NorNed 1, mesure 480 kilomètres et relie les Pays-Bas aux réservoirs hydroélectriques norvégiens. Dans les années à venir, une liaison HVDC de plus de 1.000 km reliera l’Islande à la Grande-Bretagne. La conquête terrestre par le HVDC n’arrivera
qu’ensuite.

HVDC : la sortie des eaux

Si le HVDC remporte sa première victoire sous l’eau, sur terre, en revanche, il faut attendre l’arrivée de progrès technologiques sur les redresseurs permettant de travailler à des tensions plus élevées (en électronique de haute puissance) pour que débute son développement. Dans les années 1970 apparaissent les semiconducteurs, et notamment les thyristors, qui se déclinent au début du XXIe siècle en de nombreuses variantes. Aujourd’hui encore, le fait que, par unité de puissance transférée, les pertes par effet Joule soient deux fois plus faibles en courant continu qu’en alternatif ne suffit pas, pour les distances inférieures à environ 500 km, à rendre le HVDC économiquement pertinent. Le HVDC nécessite en effet la construction de deux convertisseurs de tension à chaque extrémité de connexion, l’un convertissant le courant alternatif en courant continu, l’autre faisant l’inverse, tout ceci avec une électronique de haute puissance coûteuse. Pour les projets portant sur de très grandes distances, comme par exemple relier les centrales solaires d’Afrique du Nord à l’Europe, le HVDC est en revanche tout à fait pertinent.

« Il est aujourd’hui possible de transmettre 6.000 MW par ligne entre le Sahara et l’Europe centrale et même le nord de l’Europe », affirme le Suédois Gunnar Asplund, directeur R&D chez ABB Power Technologies Grid Systems. « Transmettre 700 TWh (environ 20% de la demande électrique de l’Europe, ndlr) requiert une capacité de transmission d’environ 150 GW. 25 lignes seraient donc nécessaires à un coût total (conditions européennes) d’environ 60 milliards d’euros. Cela correspond à un coût par kWh d’approximativement un demi-centime d’euro. »  Autrement dit, compte tenu de la différence significative d’ensoleillement direct annuel, l’électricité thermosolaire saharienne, coût de l’infrastructure de transport et pertes d’énergie inclus (environ 10% sur cette distance), est plus économique que le solaire produit dans le sud de l’Europe. Et a fortiori ailleurs en Europe.

Le SuperGrid, catalyseur d’une europe de l’énergie durable

De 1945 à nos jours, des liaisons électriques ont été établies au coup par coup entre les différents pays européens, mais sans cohérence d’ensemble à l’échelle européenne. Les centrales nucléaires et celles à combustibles fossiles peuvent être construites à proximité relative des lieux où sera consommée l’énergie, ce qui a réduit l’intérêt de l’approche SuperGrid.

Même si l’électricité est le premier secteur industriel à avoir instauré une véritable politique européenne, ceci avant même la mise en place de la Communauté européenne du charbon et de l’acier (CECA), il a fallu attendre, d’une part, l’émergence des préoccupations environnementales face aux risques associés au nucléaire et aux énergies fossiles, et, d’autre part, la prise de conscience du colossal potentiel du solaire et de l’éolien pour qu’une véritable renaissance de l’intérêt envers le concept de SuperGrid paneuropéen apparaisse.

Avec la montée des énergies renouvelables fluctuantes dans les mix électriques de nombreux pays et la concrétisation du courant continu à haut voltage, l’approche d’un super-réseau mutualisant les outils de stockage devient particulièrement pertinente.

Par Olivier Daniélo

Super-Réseau HVDC: vers «une Europe de l’énergie»?

« Les “Amis du super-réseau” (Friends of the Supergrid, FOSG) ont tenu le 21 mars 2012 leur premier colloque. « Il n’y a pas de barrières techniques pour installer un super-réseau électrique européen », a déclaré sans ambages à cette occasion l’Irlandais Eddie O’Connor, président de ce lobby réunissant des acteurs spécialistes des réseaux, parmi lesquels le Français RTE, l’Helvético-Suédois ABB et l’Allemand Siemens. »

Alimenter Berlin avec de l’électricité solaire d’Afrique du Nord (3.000 km), Londres avec de la géothermie islandaise (1 800 km), Paris avec de l’hydroélectricité norvégienne (1 100 km) ou Marseille avec de l’électricité éolienne produite en mer du Nord (1.000 km) entre en effet dans le domaine du possible avec le courant continu haute tension (ou HVDC pour High Voltage Direct Current).

« Les sites de production d’énergies renouvelables sont souvent loin des sites de consommation. L’éolien se trouve sur les côtes, voire au large (mer du Nord, mer d’Irlande, Baltique), le photovoltaïque en Europe centrale et du Sud », constatent les auteurs du rapport European Renewable Energy Network du Parlement européen paru en février 2012. « Il faudra donc améliorer et interconnecter les réseaux de transport d’énergie si l’Europe veut atteindre les objectifs qu’elle s’est fixés. » Ils estiment que « l’une des priorités serait de mieux connecter les zones de production en Scandinavie avec l’Europe centrale. Une autre serait d’améliorer le commerce d’énergie entre l’Espagne, le Portugal et la France ».

La solution de flexibilité la plus économique

Un grand réseau électrique (supergrid) reliant les différents pays de l’Europe permettrait d’amortir considérablement la nature fluctuante des ressources éoliennes et solaires, tout en faisant fructifier leur remarquable complémentarité à l’échelle saisonnière.

Éolien et solaire sont deux ressources dont le potentiel technique peut répondre plusieurs fois à la demande électrique totale de l’Europe.

« Plus large est le réseau, plus l’effet de lissage est important », insiste Gregor Czisch, spécialiste des supergrids au sein du cabinet Transnational Renewables Consulting basé à Cassel, en Allemagne. L’expert estime qu’il convient d’étendre le super-réseau aux voisins de l’Union européenne, de la Russie à l’Afrique du Nord.

Point essentiel, un tel réseau permettrait la mutualisation et donc la réduction des capacités de modulation (lac de barrage, Step, stockage thermique, hydrogène, batteries) requises pour adapter l’offre à la demande dans le cadre d’un mix électrique à très haute teneur en éolien et solaire.

Plus vaste est le super-réseau, moins les besoins en stockage, coûteux, sont nécessaires.

La mise en place d’un supergrid en Europe n’impacterait que marginalement le coût du kilowattheure, l’élevant de moins d’un centime d’euro. En l’état actuel des technologies, il n’existe pas d’outil de flexibilité meilleur marché. Le seul obstacle sérieux, en Europe, reste l’acceptation sociale de la construction de lignes à haute tension.

Les grandes ONG écologistes y sont favorables

Les grandes ONG écologistes, comme Greenpeace International, militent en faveur de la création d’autoroutes de l’électricité verte en Europe. La Renewables Grid Initiative, dirigée par Antonella Battaglini du Potsdam Institute for Climate Impact Research (PIK), et soutenue notamment par le WWF, la Royal Society for the Protection of Birds (RSPB, Grande-Bretagne) et Natuur & Milieu (Pays-Bas), a comme objectif de sensibiliser les politiques et le grand public à l’intérêt majeur que représentent les supergrids, et ainsi de tenter de limiter les réflexes « nimby » qui freinent les projets d’interconnexion électrique en raison des impacts paysagers locaux.

« Une électricité à 100% renouvelable est davantage réaliste », a insisté Christian Hey, secrétaire général du SRU, à l’occasion d’un débat organisé par EuropaNova, le 29 juin 2011. « Le gouvernement allemand a déjà opté pour un objectif de 80% d’ici à 2050. » Un message qui est parfois bien mal compris en France. De leur côté, les Danois se sont déjà fixé un objectif de 100% d’énergies renouvelables à l’horizon 2050.

Une superGrid pan-européenne permettrait de réduire de 90% les besoins de stockage

Dans une étude (Speckmann, 2011) menée dans le cadre d’un projet industriel (Cette étude, menée sous la direction de Markus Speckmann, n’est pas à la disposition du grand public. Les auteurs du rapport European Renewable Energy Network réalisé pour le Parlement européen en font écho et estiment qu’il s’agit de l’étude « la plus complète » sur le sujet réalisée à ce jour.), les scientifiques du Fraunhofer-IWES ont montré que la mise en place d’une supergrid en Europe permettrait, dans sa configuration optimale, de réduire de 90% les besoins en stockage, ce qui est considérable.

Il s’agit d’une donnée essentielle dans le débat énergétique actuel. « Un stockage court mais efficace [de type Step, dont l’efficacité est de plus de 80% sur un cycle complet de pompage-turbinage, ndlr] réduit de façon importante les besoins en appoint », soulignent les chercheurs dans une communication scientifique additionnelle. Si l’on intègre la mise en place d’une gestion intelligente de la demande, les besoins résiduels en stockage ne sont, selon les experts, que de 20 TWh, soit l’équivalent de seulement 50 heures de consommation électrique européenne ! « Un système électrique 100% renouvelable est possible en Europe », concluent-ils.

Néanmoins, en Europe, un tel super-réseau n’existe encore. « Les recherches menées donnent des indications concernant les futurs besoins en stockage. Il y a des incertitudes dans les résultats, comme dans toute recherche », indique dans un esprit scientifique Stefan Bofinger, directeur du dépar tement Réseaux électriques à grande échelle au Fraunhofer-IWES. « Nous menons actuellement une autre étude sur ce thème, mais les résultats ne seront pas publiés avant 2014. » Serait-il possible de répondre aux besoins en stockage de l’Europe entière uniquement avec l’hydromodulable scandinave ? D’un point de vue théorique, « le potentiel scandinave est vraisemblablement suffisant », indique le chercheur. Mais concrètement, en l’état actuel, « nous n’avons pas la copperplate (plaque de cuivre, expression utilisée dans le jargon des experts des réseaux électriques.) ; le super-réseau électrique n’existe pas à ce jour » en Europe.

La France et l’Allemagne, fers de lance d’une Europe de l’énergie ?

Pour Eddie O’Connor, président des Friends of the Supergrid, les obstacles à la mise en place d’un supergrid ne sont pas d’ordre technique. « Ce qui est à présent nécessaire, c’est un cadre réglementaire et financier pour permettre la réalisation de ses premiers pas. Ceci afin que l’énergie propre et durable puisse voyager depuis le nord et le sud de l’Europe vers les villes et les communautés de l’ensemble du continent. » La balle est donc dans le camp des politiques. Dix jours après son élection à la présidence de la République, François Hollande a déclaré : « Plutôt que de rechercher de nouvelles avancées sur l’Europe politique, je propose de relever un nouveau défi : après l’Europe de l’acier et du charbon et l’Europe agricole au début des années 1960, le grand marché dans les années 1980, c’est l’Europe de l’énergie avec des objectifs communs en matière d’économies d’énergie et de montée des énergies renouvelables. » Une approche susceptible de séduire outre-Rhin, comme en témoigne l’appel de Philipp Rösler, ministre de l’Économie au sein du gouvernement fédéral d’Allemagne, pour une coordination des politiques énergétiques entre l’Allemagne et la France afin de développer une expansion intelligente des réseaux électriques bénéficiant à tous les pays d’Europe.

Les 15 et 16 septembre 2012, à l’occasion de la conférence environnementale, François Hollande a réitéré cette perspective, appelant l’Europe à décider d’être « une communauté européenne de l’énergie », à l’image « de ce qu’elle a été capable de faire au lendemain de la seconde guerre mondiale autour du charbon, de l’acier ».

Louis Gallois, commissaire général à l’investissement, dans son rapport sur la compétitivité qu’il a rendu à Jean-Marc Ayrault le 5 novembre 2012, dénonce l’absence de politique européenne de l’énergie. C’est une « grave lacune » lâche-t-il. Il est selon lui impératif que l’Europe se réveille sur ce thème majeur, car sinon « sa compétitivité et, à terme, son indépendance, seront exposées à de grands risques. Il importe en particulier, que la transition énergétique soit gérée de manière cohérente en Europe. Chacun peut constater que ce n’est pas le cas ».

Selon la lettre spécialisée Enerpresse, le gouvernement français travaille actuellement sur ce projet d’Europe de l’énergie, ceci sous la houlette d’Anne Lauvergeon, ex-patronne du groupe Areva, qui fait partie des six personnalités nommées pour former le comité de pilotage du débat national sur l’énergie qui vient de commencer.

Par Olivier Danielo

Marquage des fibres textiles pour la traçabilité et la lutte contre la contrefaçon

La lutte contre la contrefaçon a représenté en 2004 un montant de 500 Mrds $/an, soit 7 à 9 % du commerce mondial, avec une croissance de 400 % en dix ans. Les vêtements et accessoires représentent 51,5 % de ce volume, alors que les CD, DVD et cassettes ne représentent que 20,7 %, les montres et bijoux 8 %, le parfum-cosmétique 1 %. Les grands pays contrefacteurs sont principalement la Chine (58 %), l’Afrique du Sud (7 %) et la Russie (6 %).

Il peut être important pour un donneur d’ordres de prévenir les risques de substitution de son produit en marquant si possible la matière. Cette situation est une réalité pour l’amont de la filière, pour le règlement des litiges. Dans tous ces cas, la traçabilité des produits en termes d’identification est un besoin réel, tant pour le fil, la fibre ou les produits semi-finis.

Marqueurs de traçabilité chimique

Terres Rares

Les terres rares représentent le groupe des lanthanides (éléments de numéros atomiques compris entre 57 et 71, du lanthane au lutétium), auquel s’ajoutent l’yttrium et le scandium, du fait de propriétés chimiques voisines (même colonne de la classification périodique). On distingue les terres cériques (lanthane, cérium, praséodyme et néodyme) des terres yttriques (les autres terres rares).
Malgré leur nom, les éléments constituant les terres rares ne sont pas rares. Le plus abondant, le cérium, est plus répandu dans l’écorce terrestre que le cuivre ; le plus rare, le thulium, est quatre fois plus abondant que l’argent. On exprime en général les teneurs de ces éléments sous forme d’oxydes.
Ces minéraux, aux propriétés physiques et chimiques très diverses (luminescence, magnétisme, coloration), sont utilisés dans diverses applications, tels les tubes fluorescents d’éclairage. Leur présence dans un matériau textile composé de fibres naturelles ou synthétiques ne peut être fortuite, ce qui permet de les utiliser comme marqueurs chimiques. Une formulation de quelques-uns de ces éléments dans des concentrations variables constitue un codage. Ils peuvent être détectés selon les cas par fluorescence X ou par magnétisme.
Les plus inertes chimiquement peuvent être introduits dans les formules d’ennoblissement par exemple ou être inclus au moment du filage des fibres synthétiques.

ADN de synthèse

L’ADN est constitué de répétitions de nucléotides formés d’un groupe phosphate lié à un sucre, le désoxyribose, et à une base azotée (A, T, C ou G) (figure 1). Le squelette est formé de la répétition sucre-phosphate, ce qui change étant la base.
Marquage_ADN_Textile
Structure de l’ADN
L’ADN de synthèse, utilisé comme marqueur commercialisé (par exemple par Tracetag®), est composé de vingt séquences AGTC, ce qui offre 420 possibilités.
Un ADN de synthèse composé d’un monobrin de quelques dizaines d’éléments acides nucléiques, dontl’enchaînement constitue un codage, offre une infinité de combinaisons possibles. Le décodage, effectué en laboratoire, consiste à « détricoter » cet enchaînement et à identifier les éléments un à un, sous réserve de connaître la « clé » constituée du début de la combinaison..
Marquage_ADN
L’ADN de synthèse peut être utilisé comme marqueur. Sa lecture se fait en décodant sa séquence d’acides nucléiques
Ce marqueur invisible s’utilise en quantités très faibles et c’est l’un des rares marqueurs de troisième niveau apte au marquage pleine matière (utilisation en combinaison avec les formulations d’ennoblissement ou en traitement de finissage).
Les recherches actuelles se tournent vers l’utilisation d’ADN d’origine naturelle, extrait des plantes, apte à une identification analogue à celle utilisée pour détecter la présence d’OGM, et qui bénéficie des avancées dans ce domaine (utilisation de nanocapteurs électroniques par exemple).

Marqueurs thermochromes et photochromes

Le thermochromisme et le photochromisme sont les propriétés qu’ont certains colorants à changer de couleur sous l’action de la chaleur et/ou de la lumière.
Photochrome_Thermochrome_Textile
Exemples de substances photochromes et thermochromes.
Il existe des systèmes, réversibles ou irréversibles, qui passent d’un état incolore à coloré ou inversement, ou d’une couleur à une autre. Certains effets spéciaux peuvent être obtenus par combinaison avec des pigments ou colorants traditionnels, en mélange, surimpression ou juxtaposition. Ils peuvent par exemple être utilisés comme des pigments traditionnels et imprimés sur textile selon la technique d’impression pigmentaire.
De nombreux systèmes, utilisés principalement dans le domaine du papier fiduciaire, peuvent être aussi utilisés pour des applications textiles, notamment en habillement, en utilisant des fils et fibres fluorescents, magnétiques ou conducteurs, marqueurs « multisensibles » combinant plusieurs effets tels que la luminescence de mélanges permettant de personnaliser la longueur d’onde d’absorption.
Photochrome_Thermochrome_Marquage_Textile
Les applications des colorants thermochromes et photochromes dans les textiles sont nombreuses : habillements fluorescents ou magnétiques, marqueurs, etc.
 
Le mode d’action basé sur une réaction photo- ou thermochimique, réversible ou irréversible, est sensible à l’environnement (présence d’eau, d’impuretés diverses qui peuvent perturber la réaction). C’est pourquoi ces produits sont généralement encapsulés, les microcapsules étant ensuite formulées dans une pâte d’impression ou d’enduction par exemple, ou incorporées dans la masse. Dans tous les cas, un phénomène de « fatigue » intervient qui limite la durée de vie de ces composés (nombre de cycles limité). 

Marquage par luminescence

La luminescence est le phénomène selon lequel la matière émet de la lumière (et non pas change de couleur) après avoir absorbé de l’énergie, sous une forme ou une autre. On peut citer : la photoluminescence (absorption de lumière), la radioluminescence (source radioactive), l’électroluminescence (champ électrique), la chemiluminescence (réaction chimique – oxydation du phosphore par ex.), la bioluminescence (dérivée de la chemiluminescence), la thermoluminescence (source de chaleur), la triboluminescence (forces de friction), la cathodoluminescence (faisceau électronique – écrans cathodiques par ex.).
La photoluminescence regroupe les phénomènes de phosphorescence et de fluorescence. En photoluminescence, la longueur d’onde réémise est toujours plus grande que celle absorbée en raison du rendement non quantitatif du transfert d’électrons. La longueur d’onde réémise peut se situer dans l’infrarouge : des marqueurs de traçabilité basés sur ce principe ont été commercialisés (codes-barres infrarouge avec détecteur spécial type douchette). 
Phosphorescence_Fluorescence_Textile
Phénomènes de phosphorescence et de fluorescence.

Fluorescence

La fluorescence est la photoluminescence intervenant moins d’un 10 000ème de seconde après l’absorption. Les produits fluorescents sont des pigments organiques comme la fluorescine, la pyranine, etc…
Les dérivés sont porteurs de groupements fonctionnels électro-donneurs qui augmentent la fluorescence (OH, NH2, NH2-Me, R, Ar…) ou électro-attracteurs qui la diminuent (NO2, CO2H, Cl, Br, I…).

Phosphorescence

La phosphorescence est la photoluminescence intervenant sur une période longue (jusqu’à plusieurs heures après), grâce au stockage de l’énergie par inversion de spin ou transfert électronique. Les produits phosphorescents sont soit des pigments organiques à durée de vie limitée (organophosphorés), soit des pigments minéraux plus stables mais moins efficaces (sulfures de zinc, cadmium, strontium, calcium…). Des mélanges de produits phosphorescents conduisent selon la formulation à une longueur d’onde émise spécifique. Des systèmes de marquage de traçabilité sont basés sur cette possibilité (personnalisation possible).
Marquage_Emission_Textile
Exemple de couleurs d’émission. Taille des particules (pigments commerciaux) : 6, 8, 15, 20 μm (US patent 4.208.300)
 
De même, des fils photoluminescents ont été utilisés comme couture pour passeports par exemple, ou encore des fibres sont incorporées préalablement dans la pâte à papier servant à fabriquer les documents fiduciaires (source : Arjo-Wiggins et Banque de France). 

Mise en oeuvre

Tous ces marqueurs peuvent être soit incorporés directement dans une formulation d’encre, d’apprêt textile, de pâte d’impression, ou encore dans l’huile d’ensimage ou d’encollage, par impression, enduction, pulvérisation, imprégnation, etc., ou après microencapsulation, afin de les isoler des interactions chimiques avec les composants de l’encre. Un apprêt réticulant (enduction, impression) permettra de fixer le marqueur en surface de la fibre ou de la surface textile.
Dans le cas des fibres synthétiques, l’incorporation du marqueur peut se faire au moment de la fabrication de la fibre elle-même, selon plusieurs manières :
Par extrusion-filage voie fondue : le marqueur peut être incorporé dans la matière par compoundage préalable (production de granulés fonctionnalisés par le marqueur), ou directement au filage selon la nature chimique du marqueur qui doit résister aux conditions de température et de pression (ex : terres rares, minéraux luminescents…). Une faible quantité de marqueur étant généralement suffisante, celui-ci ne perturbe pas les paramètres de production ou les propriétés finales du fil.
Extrusion-filage voie fondue.
Par extrusion-filage voie solvant : dans ce cas, la température étant beaucoup plus basse, les marqueurs de type organique peuvent être utilisés (ex : ADN de synthèse). Ils peuvent être introduits dans le collodion au niveau du réacteur de dissolution, par « collage » en surface du fil extrudé dans le bain de coagulation, par réaction chimique dans le bain de coagulation ou de rinçage.
Extrusion-filage voie solvant.

Conclusion

De nombreuses solutions commerciales de marquage de traçabilité applicables aux fibres, surfaces textiles et articles confectionnés existent pour les cas simples. Des études de mise au point pour les applications textiles restent nécessaires dans certains cas, particulièrement pour le marquage pleine matière.
Cependant, le marquage n’est qu’un outil dont le choix doit pouvoir répondre à la problématique concernée, et l’utilisateur doit avant tout bien poser le problème : quel est l’objectif ? S’agit-il de traçabilité physique et logistique ou de traçabilité des données ? Traçabilité interne ou externe ?
Par suite, un cahier des charges précis doit être établi, déterminant clairement quel est le flux d’information, son volume et sa variabilité, à associer au flux de marchandises, et quelles sont les contraintes techniques et logistiques. Répondre à toutes ces questions permet ensuite de déterminer la technique de marquage applicable sur un support donné à une étape de la chaîne logistique donnée.

Ressources en ligne

Pour en savoir plus, n’hésitez pas à consulter les sites suivants :
Marquage ADN de synthèse : www.tracetag.com
Marquage des fibres : www.hillsinc.net ; www.rmark.org
Marqueurs à base de microparticules minérales : www.microtag-temed.com

 

Découvrez les formations Techniques de l’ingénieur :

Une mousse d’aluminium unique en son genre !

Goodfellow, fournisseur international de métaux et matériaux destinés à la recherche et à l’industrie, a annoncé la mise sur le marché d’une mousse d’aluminium unique en son genre et d’un rapport efficacité prix optimal.

La mousse est produite par coulée au sable, ce qui permet la reproduction exacte de la forme déterminée avant fabrication.

Le résultat obtenu se présente comme une mousse constituée de cellules de 10mm superposées, à pores ouverts et disposées à intervalle régulier, les pièces fabriquées étant identiques les unes aux autres et présentant toutes les mêmes caractéristiques dès lors qu’elles sont produites selon la même méthode de coulée.

Les avantages de cette nouvelle mousse sont marquants dans deux domaines notamment.

Au niveau échange thermique, sa grande porosité (80-90%) et sa surface relative très importante pouvant atteindre 500 m² / m3 facilitent la circulation des fluides et la récupération thermique, même à des vitesses relativement basses.

En matière d’absorption d’impacts, un produit en mousse d’aluminium reproductible standard peut être adapté à la spécificité de sa destination.

La structure spécifique requise peut être optimisée pour répondre aux besoins d’absorption d’énergie correspondant à la nature d’impact particulière à une application donnée.

 
 
 
Goodfellow fournit en standard des blocs de 40mm x 100mm x 172mm présentant une taille de cellule de 10mm et une face recouverte d’une plaque d’aluminium plein.

D’autres dimensions peuvent être spécifiées avec ou sans habillage sur une face.

Pour de plus amples informations, rendez-vous sur www.goodfellow.com ou adressez un courriel à [email protected]

Découvrez les formations Techniqeus de l’Ingénieur : Formation Mousses: critères de choix, propriétés et applications

L’essentiel de REACH 2/2 (Novembre)

Brochure relative à la procédure d’autorisation

Le Ministère de l’écologie, du développement durable et de l’énergie (MEDDE), en collaboration avec le Helpdesk France (INERIS) vient de publier une brochure reprenant les étapes et les actions clés de la procédure d’autorisation. Cette brochure est téléchargeable sur :
http://www.ineris.fr/reach-admin/file_upload/File/pdf/Guides/depliant_info_liste_candidate.pdf

L’ECHA protège les privilèges des PME

16/11/2012
Lors des enregistrements REACH de 2010, certaines entreprises se sont déclarées, à tort PME, pour bénéficier d’une réduction sur le coût d’inscription. Malgré plusieurs relances de l’ECHA, certaines situations n’ont pas été régularisées. Pour les inscriptions en question, il est apparu seulement après l’attribution du numéro d’enregistrement que le déclarant n’avait pas payé les frais d’inscription, omettant ainsi le contrôle de conformité au titre de REACH. L’ECHA rejette ces inscriptions, comme il rejette tous les enregistrements pour lesquels la totalité des frais n’a pas été acquitté. Les entreprises concernées ont été informées par l’ECHA. Plus d’information sur :
http://echa.europa.eu/fr/view-article/-/journal_content/98fad274-1af4-4476-b30f-0f56ad964879

Le registre de soumission d’intention pour la classification et l’étiquetage harmonisé mis à jour

 19/11/2012 
Le registre de soumission d’intention pour la classification et l’étiquetage harmonisé a été mis à jour. Les dernières substances ajoutées sont :
–    Sulfoxaflor (ISO); [1-(6-trifluoromethylpyridin-3-yl)ethyl](methyl)oxido- λ6-sulfanidene cyanimide (N° CAS 946578-00-3)
–    Linalool (N° CAS : 78-70-6  et N° CE : 201-134-4)
Plus d’information sur : http://echa.europa.eu/fr/registry-of-submitted-harmonised-classification-and-labelling-intentions

Guide sur l’application des critères

 20/11/2012  
Ce guide est un document technique et scientifique exhaustif concernant l’application du règlement (CE) n° 1272/2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (CLP). Ce document a pour objectif de fournir des orientations détaillées concernant l’application des critères prévus dans le CLP relativement aux dangers physiques, sanitaires et environnementaux.

Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/e73c50c5-664f-4faf-81c0-ba9a229af08c
Le guide est téléchargeable sur : http://echa.europa.eu/documents/10162/13562/clp_en.pdf

Guide pratique pour l’évaluation qualitative des risques pour la santé humaine

20/11/2012
L’ECHA a publié le Guide pratique 15 : « Comment faire pour effectuer une évaluation qualitative de la santé humaine et le signaler dans un rapport sur la sécurité chimique ». Ce guide est destiné aux déclarants, en particulier ceux qui se préparent à l’échéance d’enregistrement de 2013. Le guide est disponible en version anglaise sur le site :
http://echa.europa.eu/documents/10162/13655/pg_15_qualitative_human_health_assessment_documenting_en.pdf

Mise à jour du guide sur les exigences requises et l’évaluation de la sécurité chimique

22/11/2012
L’ECHA a publié une mise à jour du guide Exigences requises et rapport sur la sécurité chimique, sous-chapitre R.7.1 relatif aux propriétés physico-chimiques. Cette mise à jour était nécessaire en raison de l’adoption du règlement CLP. En conséquence, l’article 14 du règlement REACH relatif à l’évaluation de la sécurité chimique a été modifié pour faire référence au règlement CLP plutôt qu’à la directive sur les substances dangereuses. La structure du sous-chapitre R.7.1 du guide a été modifié et le chapitre R.9: Dangers physico-chimiques a été rendu obsolète. Plus d’information sur :
http://echa.europa.eu/fr/view-article/-/journal_content/27f93ec8-bc15-4f1e-b569-5373fd961ef9
http://echa.europa.eu/fr/guidance-documents/guidance-on-information-requirements-and-chemical-safety-assessment

Mise à jour du guide pratique « Comment déclarer les résumés d’études consistants »

22/11/2012
L’ECHA a publié une mise à jour du Guide pratique 3 : « Comment déclarer des résumés d’études consistants ». La section pour les propriétés physico-chimiques du guide a été modifiée pour refléter les mises à jour du sous-chapitre R.7.1 du guide sur les exigences requises et l’évaluation de la sécurité chimique. Plus d’information sur : http://echa.europa.eu/fr/view-article/-/journal_content/63a01cc9-b8c6-4cfa-999e-7905bb1877c5
Guide pratique 3 (version anglaise) :
http://echa.europa.eu/documents/10162/13643/pg_report_robust_study_summaries_en.pdf

L’ECHA lance un nouveau formulaire web pour la notification des substances extrêmement préoccupantes dans les articles (SVHC)

23/11/2012
Les producteurs et les importateurs d’articles peuvent maintenant soumettre des notifications pour les substances extrêmement préoccupantes (SVHC) contenues dans des articles à l’aide d’un formulaire Web disponible en ligne sur le site de l’ECHA. Ce nouvel outil est simple d’utilisation. Plus d’information sur : http://echa.europa.eu/fr/view-article/-/journal_content/6244f691-4a80-460b-9cb0-f704492fc7a2

REACH : noms des sociétés et numéros d’enregistrement publiés

28/11/2012
L’ECHA a publié les noms des sociétés et les numéros des dossiers d’enregistrement effectués dans le cadre du règlement REACH. Environ 26.000 noms de sociétés et numéros d’enregistrement ont été publiés. Les noms des sociétés restantes seront publiés dans les prochains mois, à moins qu’elles aient demandé la confidentialité et que cette demande ait été jugée valide par l’Agence.

L’ECHA rappelle aux entreprises que si elles disposent de son autorisation, ou de celle d’un Etat membre, pour utiliser un nom alternatif pour une substance dans un mélange, elles peuvent laisser de côté le numéro d’enregistrement de la substance dans la fiche de données de sécurité (FDS). Cela signifie que l’identité de la substance, pour laquelle un autre nom chimique a été accordé, reste confidentielle.

L’ECHA publiera en décembre les résultats d’évaluation des caractères persistants, bioaccumulables et toxiques pour l’environnement (PBT), ou très persistants et très bioaccumulables (vPvB), des substances. Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/4d3d287d-0d31-47c8-8468-75b2c51e3de9

Mise à jour du guide sur les exigences requises et l’évaluation de la sécurité chimique

28/11/2012
L’ECHA a publié une mise à jour du Guide des exigences requises et évaluation de la sécurité chimique (IR & CSA) – Partie E: Caractérisation des risques concernant la caractérisation qualitative des risques pour les risques sanitaires.

Le guide est téléchargeable sur : http://echa.europa.eu/fr/guidance-documents/guidance-on-information-requirements-and-chemical-safety-assessment

Moratoire de 6 mois avant la deadline de mai 2013

28/11/2012
L’ECHA a imposé un moratoire de six mois du 1er décembre 2012 au 31 mai 2013 pour les mises à jour des guides et des outils ; ceci dans le but de se focaliser sur la préparation des enregistrements de mai 20123.

Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/d88226de-9a1b-4579-b0e1-9a8bf03e63ee

Rappel aux entreprises de leurs obligations relatives aux substances et mélanges (entrée en vigueur à partir du 1er Décembre 2012)

29/11/2012
Pour le 1er décembre 2012, les entreprises doivent étiqueter et emballer les substances dangereuses selon le règlement CLP, et mettre à jour leurs stratégies de développement durable pour les substances et mélanges pour se conformer aux modifications du règlement REACH.
Concernant les substances, les entreprises doivent ré-étiqueter et ré-emballer, conformément au règlement CLP, toutes les substances qui sont actuellement étiquetés et emballés conformément à la directive 67/548/CEE sur les substances dangereuses (DSD). Cependant, toutes les substances dangereuses doivent continuer à être classées conformément à la fois le règlement CLP et la directive sur les substances dangereuses jusqu’au 1er Juin 2015, après quoi seule la classification CLP s’appliquera.

De plus, les entreprises doivent mettre à jour les fiches de données de sécurité des substances et des mélanges selon l’annexe II modifié du règlement REACH, également à partir du 1er Décembre 2012. Cette mise à jour inclut les changements de format et de contenu.
Les modifications par rapport à la classification, l’étiquetage et l’emballage des mélanges conformément au CLP seront obligatoires à partie du le 1er Décembre 2015. Plus d’informations sur : http://echa.europa.eu/fr/view-article/-/journal_content/eca0d8de-be4d-4e28-a68b-47fd3c01d079

Mise à jour de l’exemple illustrant un rapport sur la sécurité chimique

30/11/2012
Pour aider les entreprises à se conformer à leurs obligations au titre de REACH, l’ECHA a publié en mai 2012 un exemple illustratif d’un rapport sur la sécurité chimique. L’exemple a été mis à jour afin de l’aligner avec les outils informatiques disponibles pour les déclarants (IUCLID 5.4 et Chesar 2.1). *

Plus d’informations sur :
http://echa.europa.eu/fr/view-article/-/journal_content/f7234ac2-4b47-4cfa-99cd-de3c6d2a1404

Liste des produits chimiques pouvant présenter un risque significatif pour la santé et l’environnement

Dans le cadre de la mise en œuvre de l’engagement 250 du Grenelle de l’environnement, l’arrêté du 16/08/2012, pris en application de l’article R. 543-228 du code de l’environnement, fixe la liste des produits chimiques pouvant présenter un risque pour la santé et l’environnement ainsi que les critères définissant ces produits en fonction de leur nature, de leur conditionnement, notamment le poids ou le volume maximal du contenu, et, le cas échéant, du mode d’utilisation ou d’application des produits destinés à la vente aux ménages. Il s’agit, en particulier, des produits biocides et phytopharmaceutiques ménagers, des colles et mastics, des enduits, des peintures et lasures, des solvants, des produits décapeurs de surface ou déboucheurs de canalisations, des acides et alcools ménagers, des extincteurs utilisés par les ménages et des fusées ou feux de détresse des plaisanciers.

Les professionnels mettant sur le marché ces produits doivent contribuer à la nouvelle filière à responsabilité élargie des producteurs pour les déchets diffus spécifiques ménagers qui est en cours de constitution en application du décret n° 2012-13 du 4 janvier 2012. Les dispositions de l’arrêté du 16/08/2012 est entré en vigueur le 1er octobre 2012. Plus d’informations sur :
http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000026308142&dateTexte=&categorieLien=id

11 & 12/02/2013 – Séminaire sur l’autorisation

L’ECHA organise les 11 & 12 février 2013 un séminaire destiné aux futurs demandeurs de l’autorisation dans le cadre de REACH. Le nombre de place étant limité, les participants seront sélectionnés par un processus de demande qui ouvrira ses portes le 10 décembre 2012 et la priorité sera donnée aux futurs candidats qui n’ont pu participer au séminaire des 1er et 2 Octobre 2012. Un séminaire similaire sera également organisé en juin 2013.

Offres d’emploi à l’ECHA

De nouveaux emplois sont à pourvoir à l’ECHA. Ces offres sont disponibles sur le site http://echa.europa.eu/fr/about-us/jobs/open-positions (date limite de réponse : 4 janvier 2013).

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

 

Le débat national sur la transition énergétique, c’est parti !

Le débat national sur la transition énergétique doit tracer des trajectoires pour répondre aux objectifs européens et à ceux fixés par le Président de la République lors de la Conférence environnementale de septembre 2012. Ainsi, la part du nucléaire dans la production d’électricité française doit passer de 75% à 50% en 2025 et l’objectif des « 3 fois 20 » doit être atteint. Pour cela, il faut réduire de 20% les émissions de gaz à effet de serre par rapport à leurs niveaux de 1990, porter la part des énergies renouvelables à 20% de la consommation et réaliser 20% d’économies d’énergie. Sans oublier le fameux facteur 4 à atteindre pour 2050.

« Ce que le gouvernement attend de ce processus du débat national est de savoir comment atteindre ces objectifs : par quelle trajectoire, par quelle mesure, par quelles évolutions de la politique énergétique ? », explique Delphine Batho, ministre de l’Écologie, du Développement durable et de l’Énergie. Quatre questions principales seront abordées au cours de ce grand débat : comment déployer une grande politique de sobriété et d’efficacité énergétique ? Quelle trajectoire d’évolution du mix énergétique global et du mix électrique suivre ? Quelles énergies renouvelables privilégier et comment les soutenir ? Comment financer tout cela ?

Même si l’on oublie la menace climatique quelques instants, l’enjeu énergétique est capital pour notre société. « Il y a des enjeux aussi bien de compétitivité, des enjeux sociaux, des enjeux de développement des entreprises, des enjeux qui sont très importants en dehors de tout enjeu climatique », souligne Jean Jouzel, climatologue et membre du comité de pilotage.

Un conseil national du débat

Le conseil national du débat constitue le « Parlement », l’enceinte qui va faire dialoguer l’ensemble des acteurs. Il est constitué de 7 collèges et 112 membres. Y siègent des représentants de syndicats, du patronat, des ONG environnementales et de lutte contre la pauvreté, des associations de consommateurs, des chambres consulaires, des associations d’élus locaux, des parlementaires et des représentants de différents ministères de l’Etat.

Le conseil national va fixer les grandes orientations du débat national et son calendrier. Il va procéder par auditions publiques autour des grandes problématiques du débat. Ces auditions serviront à recueillir les préoccupations des différents secteurs de l’économie, des acteurs sociaux et des citoyens. Le conseil veillera à entretenir un dialogue continu avec le Parlement national, le Conseil économique, social et environnemental (CESE) et la Commission nationale du débat public (CNDP) pendant toute la durée du débat. A l’issue, le Conseil émettra ses recommandations.

Un comité de pilotage, un comité d’experts et un comité citoyen

Le conseil national du débat sera animé par un comité de pilotage. Ce dernier garantira le pluralisme du débat et l’élargissement du débat. Il s’assurera que le débat s’effectue correctement au niveau régional auprès des citoyens et que les questions soulevées par les citoyens sont prises en compte.

Le conseil s’appuiera sur un comité d’experts scientifiques nationaux et internationaux et un comité citoyen. Le comité des experts a une vocation technique, économique et sociologique pour étudier et apprécier les différents scénarii possibles à horizon 2030 et 2050, dans le respect des engagements climatiques de la France. Le comité de citoyens sera quant à lui représentatif de la diversité socio-culturelle et géographique française. Il devra s’assurer que l’information fournie est compréhensible par tout un chacun. Son rôle sera également de récupérer les questions des citoyens pour les faire remonter au conseil national du débat.

Il y a une feuille de route, certes. Mais, « ceux qui veulent défendre la sortie du nucléaire pourront le faire, ceux qui veulent défendre l’exploitation des gaz de schiste pourront le faire, il n’y aura pas de sujets tabous », assure Delphine Batho. « Un débat est un échange d’arguments et non pas seulement un échange de point de vue ou de prise de position », rappelle d’ailleurs Georges Mercadal, spécialiste du débat public et membre du comité de pilotage. « C’est la raison pour laquelle il y  a des experts en appui du débat », précise-t-il.

Une première réunion pour établir des règles

La première réunion a pour but de se mettre d’accord sur les règles du débat et de jeter les bases de fonctionnement du conseil national du débat. Jusqu’au mois de janvier, les « parlementaires » vont mettre en place les outils du débat : calendrier, forme des auditions publiques, thèmes abordés et lieux où vont se dérouler les débats. Le groupe de travail doit également être finalisé. Si la liste des 112 membres est arrêtée, certains collèges doivent encore être modifiés.

Le conseil national du débat devrait se réunir mensuellement jusqu’en juin 2013. La prochaine réunion est arrêtée au jeudi 13 décembre. À son issue, le plan de travail et la forme des auditions seront publiés.

Concrètement, qu’est-ce que cela va donner ?

Le débat devrait se dérouler en 3 temps selon la feuille de route pour la transition écologique publiée par le gouvernement fin septembre. Le premier temps sera celui de la pédagogie et de l’information. Les grands médias nationaux et régionaux seront mis à contribution pour informer le plus grand nombre tout au long du débat. L’objectif est d’établir un socle commun d’informations et de connaissances, sur la base de scénarii rigoureux, mais contrastés, pour élaborer et comprendre les différentes trajectoires qui s’offrent à nous en matière d’actions.

Le deuxième temps sera celui de la participation du grand public. Il devrait s’étaler de février à avril 2013. Au plus proche des citoyens, la place donnée à l’énergie sera la plus grande possible. À travers des séminaires, débats et auditions publics au niveau national et régional, forums citoyens, le grand public sera au centre de l’action. Les régions devront veiller à assurer la cohérence de l’ensemble des initiatives territoriales au niveau infrarégional.

La machine est enclenchée. Il n’en sortira cependant pas une trajectoire toute tracée jusqu’en 2050. « Il faut être conscient du fait que ce n’est pas en un débat de 6 mois que l’on va graver dans le marbre une trajectoire de transition énergétique pour les 40 prochaines années. Il y aura certainement besoin de revenir à intervalles réguliers, tous les 3 ou 4 ans, sur certains points de cette trajectoire qu’il faudra retravailler, affiner, en fonction des évolutions de la société », prévient d’ores et déjà  Bruno Rebelle, Président de l’association Planète Urgence et membre du comité de pilotage.

Par Matthieu Combe, journaliste scientifique

Découvrez les formations Techniques de l’Ingénieur :

Apple Maps joue à l’espion

Apple aurait dû débaucher Q, inventeur génial des gadgets de l’agent 007. Cela lui aurait évité de commettre une telle bourde. En effet, le nouveau programme de localisation d’Apple a permis de révéler la présence d’une base militaire au nord de Taïwan, plus précisément dans le comté de Hsinchu. La photo satellite sur laquelle apparaît ce site sensible a été publiée dans un journal Taïwanais, le Liberty Times. Raté pour la discrétion !

Car l’emplacement de cette base devait rester secret : elle héberge un radar longue portée dont le rôle est d’établir une surveillance afin de pouvoir anticiper toute attaque et ainsi gagner du temps pour adopter la meilleure stratégie de défense. Il serait notamment capable de détecter l’arrivée de missiles lancés depuis le nord-est de la Chine. Cet équipement d’une valeur de plus d’un milliard de dollars fourni par les Etats-Unis n’a donc plus aucun secret à garder. On imagine la colère des autorités taïwanaises qui n’ont pourtant aucun recours légal puisque ces images ont été prises par un satellite commerciale. Néanmoins, elles vont demander à Apple de diminuer la résolution de l’image, ce qui est déjà fait par Google Earth.

Décidément, Apple a bien du mal à se remettre de la perte de Steve Jobs avec des logiciels moins performants que ceux des concurrents, un dernier iPhone sans aucune nouveauté, des querelles juridiques à n’en plus finir…

Le Conseil national du débat sur les transitions énergétiques se tiendra sans le SER

L’incompréhension des professionnels est totale. Plus d’une centaine de personnalités sont invitées au Conseil national du débat sur la transition énergétique qui déterminera les orientations du débat et les principales recommandations. Pourtant pas un siège n’est prévu pour les entreprises du secteur des énergies renouvelables et de leur représentant, le SER.

Avec 450 entreprises adhérentes, 8 filières représentées sur la totalité des chaînes de la valeur comptant quelques 80.000 emplois directs et indirects, le SER est le grand absent du Conseil national du débat sur la transition énergétique. En 2007, lors du lancement du Grenelle de l’environnement, le SER, alors plus modeste, avait été convié directement à la table des négociations. Il est, par ailleurs, l’unique représentant officiel des entreprises du secteur des énergies renouvelables et de l’efficacité énergétique au sein du Conseil Supérieur de l’Energie, depuis sa création.

Regroupant les filières renouvelables et en particulier les industriels, le Syndicat des énergies renouvelables est à même, à l’heure où le développement des énergies renouvelables est souvent  attaqué, de répondre aux questions relatives aux enjeux économiques et sociaux. Alors que le patriotisme écologique est présenté comme un enjeu de société, le SER est la seule organisation professionnelle du secteur à porter une stratégie de développement industriel sur le territoire national.

Jean-Louis Bal, président du Syndicat des énergies renouvelables, déclare « nous sommes sous le choc de cette décision politique qui constitue une première depuis 2007. Alors que des questions de fond concernant l’avenir et le soutien des énergies renouvelables seront traitées dans le cadre de ce Conseil national du débat sur la transition énergétique, les principaux concernés, à savoir les entreprises du secteur implantées sur le territoire national, sont mises hors-jeu. Nous ne comprenons pas les raisons de cette décision. Depuis plusieurs mois, sur les questions essentielles concernant nos filières, le Gouvernement nous répondait qu’elles seraient traitées lors du débat. Or le SER n’est pas, à ce jour, invité à participer à l’instance majeure qui déterminera l’orientation du débat. »

Découvrez la formation Techniques de l’Ingénieur :
Mettre en oeuvre la performance énergétique
 

Festival XYZ du mot nouveau

Le festival XYZ du mot nouveau a lieu chaque année depuis 2002 au Havre. Il a pour vocation la promotion du néologisme et défend une conception vivante de la langue. Chacun peut participer en proposant de nouveaux mots par mail ([email protected]) . Les mots les plus créatifs sont sélectionnés par un jury puis soumis au vote du public présent lors de deux soirées du mois de novembre, la première à Paris et la seconde au Havre, quelques jours plus tard . ..

Le lauréat de l’année 2012 est le terme « Watture » qui sert à désigner la voiture électrique. « Watture » est la contraction de watt, l’unité de mesure de la puissance électrique, et de voiture .

Parmi les termes choisis les années précédentes, on a retenu « Phonard » (terme péjoratif pour désigner une personne qui abuse de son téléphone mobile), « Photophoner » (faire une photo avec son téléphone portable), « Ordinosaure » (ordinateur dépassé) ou encore « Se faire électroniquer » (se faire avoir par les nouvelles technologies). Tous ces nouveaux mots illustrent parfaitement la forte influence des nouvelles technologies et des nouveaux usages qui en découlent sur l’évolution de notre langue.

Alors, selon vous, un phonard photophonant dans sa watture ne craint-il pas de se faire électroniquer ?

C.C