Coup d’envoi d’une concertation nationale en vue de la création d’un Ordre des Ingénieurs

1ère Journée Nationale de l’Ingénieur : un bilan chiffré

Afin de participer au redressement productif de la France, Ingénieurs et Scientifiques de France (IESF) lançait le 18 mars 2013 la première Journée Nationale de l’Ingénieur. 

Cette première Journée Nationale de l’Ingénieur avait pour objectifs de renforcer le sentiment d’appartenance et la fierté d’être ingénieur, de promouvoir le métier pour susciter des vocations et de participer au combat pour la réindustrialisation.

Plus de 10 000 personnes ont visité en quelques jours le site dédié www.iesf-jni.org et plus de 2000 participants se sont inscrits aux rencontres qui se sont déroulées à Paris et dans 12 grandes villes de France.

Ces chiffres encourageants reflètent l’enthousiasme suscité par l’initiative d’Ingénieurs et Scientifiques de France qui a vocation à se répéter d’année en année, ainsi que la volonté des ingénieurs, de leurs associations et de leurs écoles de prendre leur part au rebond du pays. 

Zoom sur les Ingénieurs entrepreneurs : objectif 8% en 2020.

Le thème choisi pour cette 1ère journée était celui de l’ingénieur entrepreneur. Si l’on compare la France aux autres grands pays industrialisés, elle n’a que 4% d’ingénieurs indépendants contre 17% de « self employed » aux États Unis, 25% en Grande-Bretagne et 28% en Italie, ces deux derniers chiffres étant en croissance régulière.

L’objectif est de doubler la mise d’ici 2020, avec 5.000 ingénieurs entrepreneurs de plus chaque année, soit une proportion de 8% d’ingénieurs entrepreneurs contre les 4% d’aujourd’hui.

Les perspectives sont plutôt encourageantes pour l’avenir, avec une volonté d’entreprendre très présente chez les jeunes ingénieurs : chez les moins de 30 ans, 1 ingénieur sur 4 dit avoir en tête un projet d’entreprise.

On voit apparaitre des groupes d’entrepreneurs et de business angels dans les associations, et des incubateurs dans les écoles. Il ne reste plus qu’à y associer les industriels pour former un trépied solide sur lequel pourront reposer des formations encore améliorées, des contrats de recherche et des stages, y compris dans les PME/PMI.

Vers un Ordre des ingénieurs ?

Les ingénieurs sont de plus en plus impliqués dans chaque grand chantier national avec des incidences scientifiques, technologiques ou industrielles, qu’il s’agisse d’énergie, de transport, d’habitat, d’environnement, de climat ou d’alimentation.

La mission primordiale des ingénieurs devient l’obligation de s’interroger sur le meilleur moyen de protéger le public et la société tout en les servant du mieux possible.

Plus que jamais il est donc nécessaire de préserver et de développer la compétence, de protéger le diplôme et pourquoi pas le titre d’ingénieur, d’établir une déontologie, voire même peut-être d’aller vers une réglementation de cette profession.

Ingénieurs et Scientifiques de France a donc décidé de lancer une consultation nationale autour de la création d’un Ordre des Ingénieurs tout au long de l’année 2013, un premier point étant fait lors de la 2ème Journée de l’Ingénieur prévue le jeudi 3 avril 2014.

 

Ingénieurs et Scientifiques de France (IESF)

La France compte aujourd’hui plus d’un million d’ingénieurs et de scientifiques. Organe représentatif de la profession reconnu d’utilité publique depuis 1860, Ingénieurs et Scientifiques de France est organisé en fédération. Il rassemble une large majorité de ces ingénieurs et scientifiques à travers 180 associations de diplômés, scientifiques, techniques ou professionnelles, réseau d’unions régionales et sections internationales.

 

 

 

 

 

 

 

 

 

 

 

 

 

Découvrez les formations Techniques de l’Ingénieur :

YouTube atteint un milliard de visiteurs uniques par mois

« Si YouTube était un pays, il serait le troisième plus grand au monde [par sa population] derrière la Chine et l’Inde. »

C’est de cette manière que l’équipe du géant américain YouTube a annoncé aujourd’hui sur son blog officiel (youtube-global.blogspot) avoir atteint le cap psychologique du milliard de visiteurs uniques par mois, se targuant même d’être visité par près d’une personne sur deux surfant sur internet.

Créé en février 2005 par trois anciens employés du service de paiement en ligne Paypal, YouTube n’en finit pas de voir son audience grandir, après huit années d’existence et après le rachat par un autre géant américain, Google, un an et demi seulement après sa création.

L’expansion de son audience a de quoi faire pâlir de jalousie les nombreux acteurs du secteur, ainsi que les réseaux de chaines de télévision, en constante perte de vitesse au profit de leur pendant numérique : l’année dernière, « seulement » 800 millions de visiteurs uniques se perdaient dans les méandres de YouTube, une expansion de pas moins de… 25 %.

L’annonce de YouTube sur son blog ne vient pourtant pas uniquement flatter l’ego du site d’hébergement. En effet, la hausse constante de son audience devrait permettre de revoir encore à la hausse les sommes investies par les annonceurs en spots publicitaires sur le site. Un succès qui n’est pas près de se démentir, alors que 72 heures de vidéos seraient uploadées chaque minute. Pour combien d’heures de vidéos de chats ?

Par Moonzur Rahman

Découvrez les formations Techniques de l’Ingénieur :

La déclaration annuelle des « substances à l’état nanoparticulaire » en France, obligatoire depuis 2013

Les représentants des Etats membres ont réitéré auprès de l’exécutif de l’Union Européenne le message que dix d’entre eux (dont la France), ainsi que la Croatie, avaient envoyé à la Commission européenne cet été : dans une lettre datée de juin adressée à la Commission, ils avaient demandé à cette dernière de prendre des mesures pour garantir la santé des citoyens européens et la protection de l’environnement en veillant à ce que la législation européenne prenne en compte les risques possibles associés à la production et à l’utilisation des nanomatériaux. La lettre demandait également à la Commission de combler les lacunes du règlement REACH concernant les nanomatériaux.

Dans sa communication d’octobre sur le deuxième examen réglementaire sur les nanomatériaux, la Commission a largement ignoré les demandes exprimées par ces Etats.

Aussi les signataires de la lettre ont-ils réitéré, lors de la toute récente réunion des « Caracal », leur pression sur l’exécutif de l’UE afin qu’il revoit les seuils de tonnage prévus par REACH, la surveillance du marché et les inventaires des produits et le raccourcissement du temps nécessaire pour obtenir des informations concernant les nanomatériaux sur le marché.

Car ces Etats ne se satisfont pas de la modification marginale de la législation européenne (limitée aux annexes de REACH) promue par la Commission.

Déploiement de stratégies nationales

A défaut d’une politique volontariste au niveau européen, les Etats membres sont pour l’instant condamnés à agir à l’échelle nationale, qui n’est pas la plus pertinente mais la seule de leur ressort. La France, premier pays à avoir instauré une déclaration des nanomatériaux obligatoire à partir de 2013, a ouvert la voie : d’autres mécanismes plus ou moins similaires sont en cours d’adoption dans plusieurs pays européens :

  • Le Danemark pourrait rendre obligatoire, à compter de 2014, l’enregistrement par les producteurs et les importateurs des nanomatériaux et des produits contenant ou relarguant des nanomatériaux, avec des différences notables par rapport à l’approche française.
  • La Belgique et les Pays-Bas envisagent de mettre eux aussi en place une déclaration obligatoire.
  • L’Italie pourrait opter pour une déclaration basée sur le volontariat uniquement.
  • L’Allemagne envisage de rendre publiques avant Noël des propositions pour remédier à cette situation.

L’Italie a déclaré qu’elle allait faire connaître sa position après avoir consulté les acteurs concernés sur la position de la Commission ainsi que sur le « nano patch » proposé en novembre par le Center for international environmental law (CIEL), ClientEarth et les Amis de la Terre Allemagne (BUND) : ce « nano patch » a pour but de remédier aux lacunes de la législation européenne existante de façon plus flexible, efficace et rapide que par le biais de longues et fastidieuses procédures de révision.

La Suède a élaboré une proposition de réglementation spécifique nano à l’échelle européenne qu’elle n’a pas encore rendu publique mais qu’elle a partagée avec les membres du CASG Nano.

Contestée, la Commission vient d’annoncer la tenue d’une journée d’échanges sur les nanos, ouverte aux parties prenantes, le 30 janvier 2013

La Commission vient d’annoncer la tenue d’un atelier sur le deuxième examen réglementaire relatif aux nanomatériaux, à Bruxelles, le 30 janvier prochain. Cette journée d’échanges est ouverte aux « parties prenantes » (syndicats, associations, industries, …) : vous pouvez vous inscrire, dans la limite des 250 places disponibles. Un pré-programme est en ligne, sur le site de la Commission.

L’objectif de cette initiative reste incertain : mieux expliquer la position de la Commission, et donc défendre le statu quo, ou l’ouvrir réellement à la discussion et envisager collectivement des améliorations possibles ?

Les ONG les plus actives au niveau européen seront particulièrement vigilantes à ces aspects lors des échanges (qui seront retransmis en ligne). Parmi elles sont déjà mobilisées : l’Association européenne pour la coordination de la représentation des consommateurs dans la normalisation (ANEC), le Bureau européen de l’Environnement (EEB), le Bureau européen des unions de consommateurs (BEUC), les Amis de la Terre Allemagne (BUND), la Confédération européenne des syndicats (CES ou ETUC), le Center for international environmental law (CIEL), ClientEarth, la European environmental citizens organisation for standardisation (ECOS), l’Institut syndical européen (ETUI), Women in Europe for a Common Future (WECF).

La balle est aussi dans le camp du Conseil des Ministres et des députés européens

De l’aveu même de la Commission, si une majorité d’Etats membres, le Conseil des ministres ou le Parlement européen, s’emparent de ce sujet et appelent à leur tour à un encadrement plus ambitieux des nanomatériaux, la Commission serait contrainte de revoir sa position.

Les députés Verts du Parlement européen, notamment le Suédois Carl Schlyter, sont parmi les plus proactifs sur le sujet. Ils ont déjà reproché à la Commission européenne de trop « traîner des pieds » concernant l’encadrement des nanomatériaux en octobre dernier et pourraient être rejoints par d’autres.

En mars dernier, les députés européens du Science and Technology Options Assessment (STOA) avaient ainsi suggéré 11 différents chantiers, parmi lesquels :

mandater une étude sur l’opportunité et la faisabilité d’un nouveau cadre réglementaire pour les nanotechnologies ;

examiner si, et dans quelle mesure, les réglementations favorisant la traçabilité des matériaux doivent être adaptées au cas des nanomatériaux ;

soutenir la mise sur pied et la mise en œuvre d’un système de notification obligatoire des produits contenant des nanoparticules, accessibles le cas échéant au grand public afin que les consommateurs puissent faire leurs propres choix de façon informée et que les agences sanitaires puissent intervenir immédiatement si de nouvelles indications concernant des dangers avérés apparaissaient.

A suivre donc…

Source : http://veillenanos.fr

« Pas d’analyse sérieuse, juste une mise sous pression des industriels »

Techniques de l’Ingénieur : Depuis le 1er janvier 2013 sont entrés en vigueur les décrets du 17 février 2012 relatifs à la déclaration de production, de distribution ou d’utilisation des nanomatériaux. Qu’est-ce que cela change pour les industriels ?

Alain Lombard : Ils sont désormais dans l’obligation de déclarer à l’ANSES la production, la distribution et l’utilisation de nanomatériaux sur le territoire français. Le dispositif est mis en place à compter du premier janvier 2013 pour une date limite de déclaration au premier mai 2013, pour les quantités des nanomatériaux produits, importés et utilisés en  2012.

Parallèlement, la législation européenne obligera à compter de juin 2013 à déclarer sur les étiquettes les nanomatériaux présents dans les cosmétiques, et à compter de 2014, ceux présents dans les biocides. Mais pour l’instant, la procédure d’étiquetage reste inconnue. Comment doit-on décrire les nanomatériaux présents dans les produits ? Représentent-ils un risque pour les consommateurs et pour l’environnement ?

Techniques de l’Ingénieur : Ces obligations sont-elles bien intégrées par les industriels ? Quelles contraintes cela représente-t-il pour eux ?

Alain Lombard : Dans l’ensemble cette obligation est bien intégrée par les industriels, pour ce qui est des producteurs et utilisateurs intentionnels. Pour la production non-intentionnelle, c’est-à-dire pour les pulvérulents très fins, dont une infime portion en poids est de taille nanométrique de par la nature du procédé de broyage ou de synthèse, mais qui en nombre de particules représente un pourcentage très important. On peut penser qu’il y aura de mauvaises surprises sur des matériaux comme les ciments et les farines. Le problème apparaîtra quand les nanomatériaux seront détectés incidemment, puisque cette production non intentionnelle tombera sous le coup de ces décrets, alors qu’elle est par définition mal quantifiée par ceux qui la produisent. Comment caractériser et quantifier les nanomatériaux présents ? C’est tout le problème, puisqu’il n’y a aucune méthode fiable validée officiellement.

En termes de contraintes, ce dispositif est très lourd, il vise à cartographier les usages de nanomatériaux sans en contrôler la dissémination. Prenons un exemple : l’industriel produisant des nanomatériaux doit déclarer ceux-ci (Np°). Puis le produit passe entre les mains du distributeur, qui doit lui aussi déclarer les nanomatériaux présents dans le même produit. Sa déclaration aura un Nd° différent de celui du producteur dont le Np°. C’est ensuite à l’utilisateur de faire une troisième déclaration, pour les mêmes nanomatériaux dans le produit final (Nu°), en faisant mention du numéro de déclaration du distributeur (Nd°) sans mentionner le numéro de déclaration du producteur initial. On perd ainsi la  filiation entre les trois acteurs de la chaine.

Par ailleurs, les industriels vont devoir s’adapter rapidement à des obligations de communication interne et externe importantes. Pourquoi ? Parce que la cartographie des industries productrices ou utilisatrices de nanomatériaux va vite être réalisée et diffusée, et qu’ils vont devoir être en mesure de communiquer aux riverains et aux sociétés civiles locales sur les mesures prises pour protéger l’homme et l’environnement, en plus de celles prises dans le milieu du travail. D’où l’intérêt pour eux d’être vite en conformité avec les réglementations et les bonnes pratiques, ou tout du moins d’avoir un discours préparé. C’est une avancée, d’autant plus que certains industriels n’avaient pas encore intégré ces aspects dans leurs pratiques.

Cette obligation de déclaration a été obtenue sous la pression des associations lors du Grenelle de l’Environnement, mais sans vérifier que les définitions des nanomatériaux soient stabilisées, que les moyens efficaces de caractérisation des nanomatériaux et de contrôle  des émissions soient validés et mis en place. Or selon la méthode utilisée, pour le même échantillon, on obtiendra des résultats très différents, ce qui laisse une marge d’erreur très importante.

Pour les grosses sociétés spécialisées dans les nanomatériaux, tout devrait pouvoir bien se passer, mais pour les plus petites sociétés manipulant des poussières très fines et n’incorporant pas de nanomatériaux dans leurs produits, il y a risque d’en trouver quand même. Par exemple pour des crèmes solaires déclarées de nature « biologique sans nanomatériaux » qui comportent du dioxyde de titane ou de l’oxyde de zinc. Dans ce contexte la découverte fortuite de nanoparticules de dioxyde de titane non intentionnellement introduites dans la crème entraîne un risque de litiges, voire de procès par des consommateurs qui s’estiment dupés.

En bref, l’idée d’obliger à déclarer par les industriels est bonne, seulement au cas où les nanomatériaux se révèleraient dangereux, mais sa réalisation est très lourde pour les entreprises,  pour un bénéfice incertain pour la communauté.

Techniques de l’Ingénieur : Comment déterminer le danger des nanomatériaux ?

Alain Lombard : C’est difficile… le danger est une propriété intrinsèque à tout produit, le risque réel est lié à l’exposition. Pour le déterminer, il faut procéder à des études toxicologiques et écotoxicologiques spécifiques qui sont encore mal standardisées, et aussi analyser tout le cycle de vie du produit. Si je produis des raquettes de tennis, que j’y mets quelques grammes de nanotubes de carbone pour solidifier le plastique, je fais une déclaration, d’accord. Mais une fois en magasin, le client ne le sait pas et surtout il ne risque rien, par contre en fin de vie,  lorsque la raquette sera mise aux ordures après quelques années d’utilisation, les personnes chargées du recyclage qui seront en présence de nanotubes de carbone n’en sauront rien et pourront être exposés. De plus les nanotubes de carbone introduits auparavant auront sans doute leurs propriétés modifiées par l’usage, ce qui modifiera aussi leurs dangers.

C’est toute la faiblesse de ce système, il n’y a pas d’analyse sérieuse, juste une mise sous pression des industriels pour déclarer des informations avec lesquels les associations de défense de l’environnement ne pourront pas faire grand-chose.

Les nanomatériaux sont de plus en plus présents dans l’industrie, de façon transversale. Il n’y aura pas une industrie uniquement nanotechnologique séparée du reste, mais en revanche tous les secteurs de l’industrie et de la consommation seront de plus en plus concernés, avec des risques inconnus. Par exemple, on en trouve dans la grande consommation comme l’alimentaire et le textile.

Techniques  de l’Ingénieur : On sait déjà que les particules fines peuvent créer des problèmes respiratoires. Quoi d’autre ?

Alain Lombard : Elles ont la capacité de pénétrer dans les cellules de tous les organes et d’y exercer des effets plus ou moins nocifs que nous sommes encore en train d’évaluer. La difficulté de caractérisation des nanomatériaux et des expositions complique les études. Chaque nanomatériau doit être étudié dans toutes ses caractéristiques en dehors de la taille (forme, agrégation, charges électriques, état de surface, porosité, contamination biologique et chimique, etc), ainsi que dans toutes les situations d’exposition (respiratoire, orale, cutanée). C’est un travail énorme, qui se réalisera sur plusieurs décennies.

Ensuite, il y a ce qui relève du fantasme, la théorie de l’homme augmenté grâce aux nanotechnologies, le transhumanisme, etc. Ces questions font aussi partie du questionnement, mais d’un point de vue plus philosophique que scientifique. On peut surtout s’interroger sur des risques bien plus concrets, ainsi si demain on généralise le nanoargent dans les chaussettes, quelles seront les conséquences pour l’environnement dont les stations d’épuration et la flore aquatique ?

Techniques  de l’Ingénieur : Vous animez chez Techniques de l’Ingénieur une formation sur ce thème, à qui s’adresse-t-elle ?

Alain Lombard : A toutes les personnes confrontées à l’introduction de nanomatériaux dans leurs installations, et celles concernées par les aspects Hygiène Sécurité, Environnement, Réglementaires et Sociétaux afin de bien comprendre les contraintes que cela impose. Cette formation n’a pas l’ambition de résoudre tous les problèmes. C’est un outil de sensibilisation qui parcoure en une journée l’ensemble de la problématique des nanomatériaux. C’est de l’information approfondie plus que de la formation, qui donne des repères aux stagiaires pour qu’ils puissent ensuite s’orienter dans la problématique « nanomatériaux » et adapter leurs connaissances aux besoins spécifiques de leur organisation professionnelle.

Formation sur les nanomatériaux : évaluer et prévenir les risques HSE

Objectifs


  • Acquérir les bases de toxicologie et d’écotoxicologie appliquées aux nanotechnologies
  • Evaluer les impacts environnement, santé et sociétaux
  • Identifier les réglementations et normes
  • Renforcer les moyens de prévention et de protection

L’Anses attendue sur tous les fronts en 2013

La première des grandes priorités de l’Anses pour les trois prochaines années est le développement de nouvelles méthodes d’analyses chimiques et microbiologiques liées aux risques émergents.

Dans ce sens, l’agence va développer une centaine de méthodes nouvelles pour mieux détecter les contaminants chimiques et les agents pathogènes tout au long de la chaîne alimentaire et dans l’eau destinée à la consommation humaine.

Aller vers des méthodes globales et multi-résidus

« La réglementation est basée aujourd’hui sur le contrôle des différents pathogènes les uns à côté des autres », mais l’avenir est de pouvoir « détecter un certain nombre de gènes spécifiques qui sont les éléments qui font la virulence de la bactérie, sa pathogénicité, quelle qu’elle soit », affirme Marc Mortureux, Directeur général de l’Anses.

Appel à contributions

Vous souhaitez contribuer à notre collection, faire connaître votre domaine d’expertise ou d’enseignement, communiquer sur vos innovations ou vos résultats de recherche ?

En savoir plus

 

 

 

 

 

 

 

Cela se fera grâce à une plateforme d’identification rapide de gènes de virulence de nouvelles souches de bactéries, mais avant tout, l’agence doit identifier et détecter un certain nombre de gènes de virulence. Un chantier important concerne aussi la détection des virus dans l’alimentation, car beaucoup d’intoxications alimentaires non élucidées seraient d’origine virale.

Concernant les contaminants chimiques, l’objectif est de développer des méthodes multi-résidus pour analyser de quelques dizaines à quelques centaines de contaminants différents en une seule analyse. Cela est possible en spectrométrie de masse couplée à la chromatographie.

Cela concerne notamment les résidus de pesticides, les perturbateurs endocriniens (phtalates, bisphénol A, parabènes, etc.) et les résidus d’antibiotiques. Par ailleurs, l’agence poursuivra cette année ses travaux sur l’évaluation des risques liés à une exposition en mélange de plusieurs pesticides.

Mieux comprendre la pollution de l’air

La deuxième des grandes priorités de l’Anses concernera les impacts sanitaires de la pollution de l’air extérieur. Un focus fort sur les allergènes va être mis en place, car les évolutions liées au changement climatique sont susceptibles d’en renforcer les impacts sanitaires.

Un travail important sera aussi mené sur les particules, notamment issues du trafic routier et du diesel. Les normes concernant les particules sont aujourd’hui uniquement basées sur des concentrations massiques dans l’air en fonction de leur taille. Le travail consistera à mieux évaluer le risque en fonction de la nature des aérosols.

« Nous avons engagé un travail sur la question de la pollution de l’air dans les enceintes de transport ferroviaire souterrain, en particulier le métro », ajoute Marc Mortureux. Ce travail s’intéressera avant tout au risque pour les travailleurs, mais aussi plus largement pour les passagers qui utilisent ces transports.

Tour d’horizon des nouvelles publications

Début avril, le résultat final des travaux concernant le risque liés à l’ensemble des expositions au bisphénol A par voie alimentaire, respiratoire et par contact sera publié. Il s’intéressera également à la toxicité de ses substituts.

En juin, le rapport sur les risques liés à la consommation des boissons énergisantes sera à son tour rendu public.

D’ici l’été, le rapport sur les radiofréquences sera mis à jour. Un travail plus spécifique sur l’hypersensibilité aux radiofréquences est mis en place et fera l’objet d’un rapport d’ici l’année prochaine. Un autre travail concernant l’exposition des travailleurs aux produits bitumineux sera publié.

Les connaissances sur les nanomatériaux manufacturés seront également actualisées d’ici la fin de l’année, avec un travail spécifique sur le nano-argent. Enfin, l’antibiorésitance vétérinaire sera à l’honneur d’ici la fin de l’année 2013 ou début 2014, dans le cadre du plan antibio 2017.

Par Matthieu Combe, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Associer photovoltaïque et végétalisation sur les toitures ?

 

Solardis, filiale de Soprema et leader de l’étanchéité photovoltaïque française, propose désormais le Soprasolar® Tilt Green dans sa gamme de produit. Il s’agit d’un nouveau système complet, disponible en neuf ou en rénovation, qui associe panneau photovoltaïque rigides et végétalisation de sa marque Sopranature®, leader également sur le marché français des toitures végétalisées. Ce système répond aux attentes des projets à fortes performances énergétiques (HPE, THPE, BBC, BePos) et aux projets d’auto-consommation d’électricité. D’entrée de jeu, deux bonnes nouvelles sont à noter : le système complet est assurable et la fabrication des modules photovoltaïques et de la végétation a lieu en France.

Il s’agit d’une « offre 4 en 1 : isolant, étanchéité, panneau et végétalisation », précise Jean Damian, Directeur d’exploitation Solardis®. Toutes les végétalisations Sopranature® sont associables avec ce système. La gamme de végétation est large : du simple tamis végétal (toundra, green) à la plantation élaborée (garrigue, lande) en passant par la prairie fleurie (pampa). 85 % des ventes de toitures végétalisées sont toutefois captées par la toundra, car ses plantes grasses sont très résistantes, adaptées à une large gamme de bâtiments et de climat. Le complexe végétal est composé de matériaux de culture et de végétaux, combinés à un complexe d’étanchéité anti-racine.

Nous sommes bien dans une dynamique lancée grâce à la future réglementation thermique. « Aujourd’hui, il faut associer production d’énergie et environnement végétal pour répondre aux problématiques de l’îlot urbain, territoire à énergie positive vers lequel on se dirige dans le cadre de la RT 2020 », prévient Jean Damian.

Quels sont les avantages d’une telle association ?

Soprasolar® Tilt Green apporte une réponse unique pour les bâtiments en valorisant l’ensemble de la toiture-terrasse Le photovoltaïque apporte l’énergie, la végétalisation apporte toute une palette d’avantages au bâtiment au niveau acoustique et thermique, en diminuant notamment la déperdition de la chaleur au niveau de la toiture durant les mois froids et en minimisant l’utilisation de la climatisation l’été. Les végétaux réduisent aussi la consommation d’électricité, retiennent une partie des eaux pluviales et réintroduisent une certaine biodiversité dans la ville. La végétation améliore ainsi le cadre de vie, rafraîchit l’air ambiant et lutte contre le phénomène d’îlot de chaleur urbain.

Comme l’approche « bâtiment » est complexe et devient réglementaire, Soprema travaille plus largement sur une offre globale et dimensionne chaque projet en conseillant le complexe « isolant – étanchéité – panneau photovoltaïque » par rapport aux besoins et aux problématiques techniques ou budgétaires. Ainsi, la solution d’étanchéité peut être en membrane bitumineuse ou synthétique, avec des panneaux rigides ou des membranes souples, en incluant ou non de la végétation en fonction du besoin. Cette approche globale prévoit la dimension électrique et la gestion de l’énergie dans le bâtiment par ses partenaires. « Cette offre globale nous paraît être déterminante pour accompagner le marché et permettre au bâtiment d’être réellement à énergie positive », conclut Jean Damian.

Par Matthieu Combe, journaliste scientifique

Le Galaxy S4 met l’accent sur les fonctionnalités

C’est parti pour un nouveau show de présentation. A New York, Le Radio City Music Hall est en effervescence.  

La vedette ? Le Galaxy S4, cadet d’une lignée prestigieuse de Smartphones. Une filiation qui lui promet un destin hors du commun à en juger les prévisions de vente du sud-coréen. Celui-ci estime pouvoir en écouler 70 millions la première année. A titre de comparaison, son aîné le Galaxy S3 s’était vendu à 40 millions d’exemplaires en à peine 8 mois.

Pour satisfaire une telle demande, les fournisseurs de Samsung sont censés être capable de livrer 10 millions d’exemplaires chaque mois, une cadence à faire pâlir d’envie certains…

Mais qu’a donc le Galaxy S4 que les autres n’ont pas ?

Inutile de chercher du côté du design, celui-ci reste quasi-identique au Galaxy S3 : même taille de téléphone, écran à peine plus grand et poids allégé de seulement 3g. Non, la rupture vient  des fonctionnalités.

La première révolution vient de la possibilité de piloter son téléphone tactile SANS toucher l’écran ! Il suffit juste d’approcher son doigt pour faire apparaitre des menus. Seul le Galaxy S4 permet cela.

Moins spectaculaire mais qui pourra se révéler pratique cet hiver, l’écran tactile reste efficace si l’on porte des  gants. Vous l’aurez compris, le point fort  de ce Galaxy 4ème  du nom, c’est son écran haute définition « Super Amoled Full HD ». 

Face arrière, une caméra de 13 mégapixels fait mieux que les 8 mégapixels déjà très performants du Galaxy S3. Pourtant, c’est bien du côté de la façade que le plus pratique se joue.  Grâce à cette caméra de 2 mégapixels, ce Smartphone adapte la lecture de l’écran à l’activité de son propriétaire : la reconnaissance oculaire permet au Galaxy S4 de faire défiler le texte, vers le haut ou vers le bas, en suivant le sens de lecture décrypté sur notre visage (Smart Scroll).

Le téléphone peut même prendre l’initiative de mettre une vidéo sur pause si notre regard se détourne de l’écran, puis de la relancer automatiquement lorsqu’on regarde à nouveau l’écran. Un Smartphone very smart !

 

Découvrez le Galaxy S4 en vidéo:

 

Autre gros point fort : la batterie. Fini le smartphone à recharger tous les soirs, la nouvelle batterie du Galaxy S4 est presque deux fois plus puissante que celle de l’Iphone 5. Néanmoins, le géant coréen n’a pas chiffré l’autonomie, laissant supposer qu’elle devrait être à peine supérieure aux 10 heures permises par le Galaxy S3 (contre 8h pour l’Iphone 5). Surtout, Samsung propose une batterie interchangeable. Il sera possible d’acheter un kit pour une batterie et de disposer ainsi en permanence d’une batterie de secours. 

A cela s’ajoute tout un arsenal de nouvelles fonctions vraiment pratiques ou seulement  ludiques : un traducteur automatique, le S Translator, l’interface gestuelle Air Gesture pour manipuler le téléphone à distance et sans toucher l’écran, la possibilité de prendre en même temps des photos de chaque côté du téléphone et les intégrer sur un même cliché, l’Eraser pour effacer un objet ou une personne d’une photo, le Drama Shot est une appli qui permet de prendre une centaine de photos en à peine quelques secondes…

Mais Samsung cherche aussi à séduire les professionnels. Pour cela, le Galaxy S4 est labellisé SAFE pour Samsung Approved For Entreprise), une façon de garantir la sécurité du terminal pour encourager les entreprises à rallier Androïd.  L’application Knox qui génère un environnement virtuel sécurisé pour les données personnelles et professionnelles, appelée technologie de « conteneurisation. », devrait achever de les convaincre.

Pourtant, malgré de réelles innovations logicielles, la présentation du Galaxy S4 n’a pas suscité d’engouement exceptionnel, se heurtant à une exigence d’innovations et de performances démesurée, comme si chaque nouveauté devait proposer une rupture technologique. Quitte à oublier que même les meilleurs labos et équipes  R&D ont besoin de temps pour avancer ! 

Peu importe. La bourse n’a pas attendu pour manifester sa déception et le titre du mastodonte sud-coréen a dégringolé de 1.7%. Pas de quoi s’effondrer, mais ce recul témoigne d’une lassitude des investisseurs face à des innovations de moins en moins spectaculaires à leurs yeux.

 

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

A la conquête du muscle artificiel

Une équipe de chercheurs du Massachusetts Institute of Technology (le fameux MIT) a réussi à mettre au point un film polymère tout à fait innovant, puisque capable de générer de l’énergie à partir de vapeur d’eau. Ce film polymère change de forme après absorption de petites quantités d’eau sous forme de vapeur, donnant l’impression de se retrousser et se courbant en tous sens de manière continue, mais aléatoire.

L’enjeu est important : la maitrise de ce mouvement continu pourrait permettre d’animer dans un premier temps un bras ou une jambe robotique, tel un muscle artificiel jouant le même rôle qu’un muscle pour un de nos bras ou une de nos jambes. Les chercheurs du MIT semblent pour le moment assez loin de ce stade, et se penchent plutôt sur l’utilisation de ce nouveau matériau pour alimenter des appareils micro ou nanoélectriques, tels que la plupart de nos capteurs environnementaux.

 « Lorsqu’un capteur est alimenté par une batterie, cette dernière se doit d’être remplacée régulièrement. A l’aide de ce dispositif, vous pouvez capter de l’énergie à partir de son environnement et vous n’aurez donc plus à remplacer si souvent la batterie », explique Mingming Ma, chercheur postdoctoral à l’Institut David H. Koch pour la Recherche Intégrative contre le Cancer, institut affilié au MIT. « Nous sommes très excités par ce nouveau matériau, et nous espérons parvenir à un rendement plus élevé lors de la conversion de l’énergie mécanique en électricité, ce qui lui ouvrirait un champ d’application plus large », ajoute Robert Langer, professeur à l’institut David H. Koch et co-auteur avec Mingming Ma de l’article publié dans la revue Science de cette semaine. Parmi ces applications potentielles, on trouve aussi bien d’imposants générateurs dont l’alimentation est assurée par de la vapeur d’eau, comme de plus petits générateurs servant à l’alimentation d’appareils nanoélectriques portables, intégrés à nos vêtements.

Emboitement de deux polymères différents

Le film conçu par l’équipe de chercheurs du MIT est le résultat de l’emboitement de deux polymères tout à fait différents : le polypyrolle et le polyol-borate. Le premier est un polymère organique constitué de plusieurs noyaux de pyrolle – connu aussi sous le nom d’azole, de formule brute C4H5N  – connectés les uns aux autres. Le second est un polyol de borate, un composé chimique organique contenant un certain nombre de groupes hydroxyles, en liaison avec un borate – un composé de bore et d’oxygène avec des éléments électropositifs.

Le polypyrolle sert ici de matrice solide mais souple, apportant un support structurel au nouveau matériau, alors que le polyol-borate est un gel qui reste flexible et qui enfle lorsqu’il absorbe de l’eau. L’équipe dirigée par Mingming Ma avait rencontré au préalable plusieurs échecs lors de précédentes tentatives, lorsque le matériau ne combinait pas encore les deux éléments mais n’était constitué que de polypyrrole, dont la réaction au contact de l’eau était trop faible pour être considérée comme suffisamment convaincante.

Générer de l’électricité

Le film de polypyrolle et de polyol-borate se sert du gradient d’eau entre un milieu sec et un milieu contenant de l’humidité pour trouver son énergie. Lorsque la pellicule de vingt micromètres d’épaisseur repose sur une surface contenant ne serait-ce qu’une toute petite quantité d’eau, cette eau est absorbée, créant un mouvement qui pousse le film à se recourber vers le haut et à s’éloigner de la surface. La partie inférieure du film est alors exposée à l’air ambiant et laisse s’échapper l’eau, laissant le film polymère reprendre sa forme initiale. Le mouvement peut alors reprendre, le film absorbant et laissant s’échapper l’eau de manière cyclique. Le mouvement continu ainsi observé convertit l’énergie chimique du gradient de l’eau en énergie mécanique.

Pour convertir cette énergie mécanique en électricité, il suffit de coupler la pellicule de polymère avec un matériau piézoélectrique, qui se polarise électriquement sous l’action d’une contrainte mécanique. Selon les estimations du MIT, le système peut générer en moyenne 5.6 nanowatts, suffisants pour alimenter de petits appareils peu gourmands.

La force déployée par le film polymère est pour le moins surprenante : le film parvient à soulever pour dix fois son poids en fils d’argent, comme vous pouvez le constater ici :

 

 

Par Moonzur Rahman

 

Découvrez les formations Techniques de l’Ingénieur :

Le plastique, toujours aussi fantastique

Les scientifiques du Département de science des matériaux de l’Ecole polytechnique fédérale de Zurich (EPFZ) ont fabriqué un plastique très étirable à partir de plusieurs couches plus ou moins dures. De telles choses existent dans la nature : le corps humain présente des zones multicouches de ce type, comme les liaisons tendons/os, caractérisées par une grande variation de la dureté des couches. Mais le nouveau plastique élaboré à l’EPFZ possède un gradient de dureté remarquable avec la couche la plus dure 10.000 fois plus dure que la couche la plus souple ! Présenté dans la revue Nature Communications, ce matériau composite est le premier à proposer une telle variation entre les couches.

Pour obtenir ce composite, les scientifiques suisses ont utilisé du polyuréthane, dont la dureté des couches a été modulée à l’aide de micro et nanoparticules. C’est ainsi qu’ils ont réussi à fabriquer un matériau en couches suffisamment étirable pour ne pas rompre facilement. En effet, ce composite est extensible jusqu’à quatre fois et demi sa longueur.

Alliant flexibilité et résistance, ce nouveau composite pourrait bien se développer pour le secteur des supports souples, pour des films solaires souples ou des écrans de télévision enroulables. De plus, ses pères espèrent appliquer cette méthode de fabrication à d’autres matériaux avec des applications dans le médical, comme la réparation de tendons et de ligaments ou encore pour les implants dentaires. Sans oublier l’automobile ou l’aéronautique, deux secteurs où le polyuréthane est déjà très présent.

Par Audrey Loubens, journaliste scientifique

Découvrez les formations Techniques de l’Ingénieur :

Filtrer la lumière à l’aide d’une toile à base de silicium

Décidément, ceux qui pensent que la technologie silicium touche à sa fin devront patienter encore un peu. Des chercheurs de Laboratoire de Photonique et de Nanostructures (CNRS) et de l’ONERA (DOTA) ont réussi à fabriquer un nouvel objet sur substrat de silicium capable de filtrer la lumière. L’originalité provient de sa structure. Il ne s’agit pas d’un cristal, mais d’une toile photonique : une succession de barreaux diélectriques suspendus dans le vide permet de filtrer la longueur d’onde voulue en pivotant la toile.

Pour réussir ce nouvel objet, les physiciens ont utilisé une membrane de nitrure de silicium. Ils l’ont déposé sur un substrat de silicium, puis ont gravé un carré de 2,5 millimètres de côté de façon à obtenir des lignes en forme de poutre d’un demi micron de large espacées de 3 microns. La membrane est fixée sur le silicium à l’aide de barreaux perpendiculaires rajoutés tous les 20 microns.

Lorsqu’on éclaire cette toile avec un rayonnement infrarouge borné entre 3 et 5,5 micromètres, en positionnant judicieusement l’objet, aucune lumière n’est transmise. Une autre propriété intéressante de cette toile est son pouvoir d’absorption. Si elle est fabriquée avec un matériau absorbant, alors on peut atteindre jusqu’à 50% d’absorption de la lumière incidente. Cela représente près de 25 fois plus que l’absorption via un matériau massif de même épaisseur. Dès que l’on modifie l’angle d’incidence du faisceau lumineux, la toile laisse passer une partie de la lumière suivant une fenêtre spectrale dont les valeurs dépendent de l’angle d’incidence.

Ces travaux ont été publiés dans Physical Review Letters et permettent d’envisager de nouvelles approches dans l’étude de l’interaction lumière-matière. Par exemple, pour des applications de spectroscopie de molécules ou de gaz autour des barreaux, ou dans des expériences d’opto-mécanique qui visent au contrôle optique de modes mécaniques d’objets de très faible masse dans le régime quantique.

Par Audrey Loubens, journaliste scientifique

Le plus vieux chromosome Y jamais vu sur un homo sapiens

Avant de descendre du singe, l’homme descend d’Adam. Du moins, c’est ce que l’on croyait jusqu’à ce jour si anodin où une parente d’Albert Perry (paix à son âme), déposa un échantillon avec son ADN dans le but d’effectuer une recherche généalogique. C’est alors que l’entreprise privée fut confrontée à un problème de taille : la séquence génétique du chromosome Y était inconnue !

Après avoir vérifié et re-vérifié, les faits sont là. Albert Perry ne descend pas de celui que l’on croyait l’ancêtre commun à tous les mâles de la race humaine, celui que l’on surnomme l’Adam génétique, un homme qui vivait sur le continent africain il y a 140 000 ans. 

Mais alors, de qui descend Albert Perry ? Cette question ne laissa pas indifférente la communauté scientifiques et plusieurs de ses membres décidèrent d’enquêter. Et une nouvelle surprise les attendait. L’ancêtre d’Albert Perry était un homme vivant il y a plus de … 338 000 ans ! Soit bien avant l’apparition même de l’homo sapiens. Ça commence à faire beaucoup de rebondissements. De l’aveu même de Jon Wilkins, du Ronin Institute dans le New Jersey, « Déplacer à ce point la racine de l’arbre [généalogique] du chromosome Y est extrêmement surprenant. » 

Comment un gène si ancien s’est retrouvé chez un homo sapiens ? Les auteurs de l’étude publiée sur ce chromosome Y unique ont une théorie.

Au sud-ouest du Cameroun vivait un peuple africain appelé Mbo. D’après les bases de données génétiques, leurs chromosomes Y ressemblaient  à celui de feu Albert Perry. Or, à quelques 800 km de là, se trouve le site préhistorique nigérian Iwo Eleru, site où l’on croit savoir que des homo sapiens ont séjournés.  Ces homo sapiens se seraient tout simplement reproduits avec les descendants d’une lignée très ancienne. Et voilà comment ce gène Y vieux de 338 000 ans se serait retrouvé chez des homo sapiens.

« […] Jusqu’à présent, les branches les plus divergentes du chromosome Y se trouvaient chez des populations de chasseurs-cueilleurs comme les Pygmées et les KhoeSan. […] Mais cet échantillon-ci est similaire à l’ADN du chromosome Y de 11 hommes tous originaires d’une région très restreinte du Cameroun  qui présentent  des séquences variables, donc ce n’est pas comme s’ils descendaient tous d’un même aïeul », précise le Pr Hammer, de l’Université de l’Arizona, qui a participé à l’étude parue dans l’American Journal of Human Genetics.

Lire l’étude

Par Audrey Loubens, journaliste scientifique

Les jours du diesel sont comptés

7 milliards d’euros. C’est la perte fiscale estimée par la Cour des comptes du fait des exonérations dont bénéficie le diesel. 7 milliards. On comprend que le gouvernement, en recherche désespérée de recettes,  réfléchisse à la question. D’autant plus que le débat sur les privilèges de la filière diesel fait régulièrement surface (environ 20 centimes/L  de moins à la pompe que l’essence malgré un prix HT similaire). Et les attaques sont nombreuses.

Tout d’abord les écologistes dénoncent son caractère polluant. On sait que les moteurs à essence émettent plus de CO2 que les moteurs diesel, même si ces derniers rejettent des oxydes d’azote, eux aussi étant des gaz à effet de serre. En fait, ce qui pose problème ce sont les particules fines. Des rejets qui seraient à l’origine de 42 000 décès par an selon l’organisation mondiale de la santé (OMS). Elle a d’ailleurs officiellement déclaré les émanations des moteurs diesel cancérigènes l’été 2012.

De leur côté les associations de défense du consommateur s’interrogent ouvertement sur les réelles économies d’un véhicule diesel pour les particuliers. En effet, s’il est acquis dans les consciences que rouler au diesel est plus économique, dans la réalité, il faudrait parcourir au moins 20 000km par an pour rentabiliser l’investissement que cela représente.

Or, d’après une enquête réalisée par l’institut CSA pour l’UFC-Que choisir en 2012, seuls 71% des personnes roulant au diesel en fait autant ! Chiffres confirmés par le Comité français des constructeurs automobiles (CCFA) qui déclare que les véhicules diesel parcourent en moyenne 14 000km, contre 8000 km pour les véhicules essence.

Comme quoi la politique incitative menée depuis plusieurs années a réussi à conditionner les esprits. Et à faire du parc automobile français le plus important en quantité de véhicules diesel, qui représentent les deux tiers des voitures et 80% de la consommation de carburant. 

Une proportion considérable, bien supérieure à celle rencontrée dans les autres pays européens. Il faut dire que la France, ou plutôt ses industriels, sont à la pointe de la technologie diesel. Et la bonne santé de nos entreprises prime sur les questions économiques des particuliers ainsi que sur les soucis environnementaux et les conséquences sur la santé. 

L’industrie automobile, chouchou des gouvernements ? Assurément. Et en cette période de crise où Renault tente de limiter la casse quand Peugeot s’effondre, on voit mal nos ministres décider de les pousser encore plus prêt du précipice en fragilisant le marché du diesel.

Néanmoins, le diesel a du souci à se faire puisqu’il est dans le viseur de la commission européenne qui affiche clairement sa volonté de mettre fin à une fiscalité aidant un produit dangereux pour la santé. En ce sens, la norme Euro 6 visant à limiter les rejets des moteurs diesel entrera en vigueur dès 2014. Un coup dur pour les industriels du secteur qui devront installer des équipements couteux pour la respecter, ce qui devrait augmenter les prix des véhicules à l’achat. Et ce n’est pas tout puisque l’Europe a vraiment le diesel dans le collimateur.

Une nouvelle directive sur la taxe carbone pourrait bien faire fondre comme neige au soleil l’écart de prix entre le diesel et l’essence, mettant ainsi un terme à l’avantage fiscal, mis en avant comme critère de décision par 84% des acheteurs de diesel. L’effet dissuasif devrait être immédiat ! 

Pragmatique, le CNPA annonce le rééquilibrage entre véhicules essence et diesel pour 2020, sans qu’il y ait besoin d’une politique agressive anti-diesel : « La volonté des pouvoirs Publics de rééquilibrer le marché diesel-essence interviendra de facto à horizon 2020 sans évolution de la fiscalité sur le gazole, grâce notamment aux nouveaux moteurs à essence mis sur le marché par les constructeurs ».

Bref, en douceur ou dans la douleur, le diesel pourrait bientôt disparaître…

Par Audrey Loubens, journaliste scientifique

Batho prend le cap des énergies marines

La France dispose d’un potentiel considérable pour développer les énergies marines. Avec les connaissances actuelles, on estime le potentiel de puissance totale du pays, hors éolien en mer, exploitable à moyen terme, entre 3 et 5 gigawatts (GW). À lui seul, le potentiel hydrolien exploitable se situe entre 2 et 3 GW, ce qui en fait le deuxième gisement hydrolien d’Europe.

Il est essentiellement concentré au large de la pointe de la Bretagne et autour du Cotentin. La France bénéficie également du deuxième gisement éolien en Europe, après la Grande- Bretagne.

 

 

 

 

 

 

L’état des lieux du secteur montre une filière hydrolienne encore jeune mais à très fort potentiel. La filière aborde aujourd’hui une phase de démonstration pré-commerciale. Si des projets existent à ce jour, il n’y a pas de ferme hydrolienne en opération ou en construction dans le monde. La future exploitation commerciale de fermes hydroliennes nécessite donc s’intéresser aux retours d’expériences nationales et internationales des prototypes. 

Dans le cadre du débat national sur la transition énergétique, un plan stratégique pour les énergies marines sera élaboré. Il permettra de planifier et d’accélérer l’émergence de cette nouvelle filière industrielle.

Pour préparer ce plan, une mission a été confiée au conseil général de l’environnement et du développement durable (CGEDD) et au conseil général de l’économie, de l’industrie, de l’énergie et des technologies (CGEIET) pour évaluer le potentiel des différentes filières. Ses résultats sont attendus pour le 15 mars 2013.

Déjà des mesures concrètes annoncées

Les premières mesures concrètes pour aider l’émergence de la filière ont été annoncées par Delphine Batho fin février.

La première est le lancement d’un appel à manifestation d’intérêt (AMI)  « énergies marines » début mars 2013. Il vise le développement de briques technologiques (éléments indispensables au déploiement à grande échelle) d’énergie hydrolienne, houlomotrice, éolienne flottante et thermique marine. Il concerne aussi des démonstrateurs de recherche, à une échelle représentative des conditions d’exploitation, d’énergie houlomotrice.

L’objectif est un démarrage de ces démonstrations en mer d’ici 2016. La deuxième mesure est le lancement par les Préfets d’un large travail pour identifier les zones les plus propices pour l’installation d’hydroliennes pilotes. 

Le rapport du 15 mars permettra de prendre les décisions rapides attendues par les industriels pour les mécanismes de soutien aux fermes pilotes hydroliennes, notamment par le lancement d’un AMI et la mise en place d’un tarif de rachat de l’électricité produite par les fermes pilotes.

La France s’est fixé comme objectif l’installation d’une capacité de production électrique en mer de 6 000 MW en 2020. Ces installations assureront alors 3,5 % de la consommation électrique du pays. 

Par Matthieu Combe, journaliste scientifique

L’essentiel de REACH 1/2 (mars)

Communiqué de presse du Ministère de l’Ecologie

27/02/2013

Le ministère de l’Ecologie, du Développement Durable et de l’Energie a publié un communiqué de presse rappelant l’obligation d’enregistrement au 31 mai 2013. Ce communiqué est téléchargeable sur : developpement-durable.gouv.fr

 

L’ECHA offre un soutien aux déclarants dans certains cas exceptionnels

01/03/2013

Les entreprises confrontées à des situations exceptionnelles susceptibles de les empêcher d’enregistrer dans les temps devront informer l’ECHA avant la date limite du 31 mai 2013. Quatre cas particuliers ont été recensés : 

  • Difficultés des entreprises pour fournir les données requises à l’annexe VII et l’annexe VIII en temps voulu ou des difficultés pour les importateurs de mélanges pour obtenir des données sur la composition et d’analyse des substances dans le mélange de leurs fournisseurs.
  • Impossibilité de présenter un pré-enregistrement tardif en raison d’un changement d’entité juridique.
  • Problème pour le déclarant principal de soumettre un dossier entièrement conforme à REACH.
  • Les utilisateurs en aval qui deviennent des importateurs, leur substance n’ayant pas été enregistrée par un fournisseur basé de l’UE.

Plus d’informations sur : echa.europa.eu/view-article

 

Proposition pour identifier de nouvelles substances SVHC (substances extrêmement préoccupantes)

04/03/2013

Sur demande de la commission européenne, l’ECHA lance une consultation publique pour l’identification de 10 nouvelles substances SVHC (substances extrêmement préoccupantes). Les substances concernées sont : 

  • 2,4-di-tert-butyl-6-(5-chlorobenzotriazol-2-yl) phenol (UV-327) (N° CAS : 3864-99-1  et N° CE : 223-383-8)
  • Acide pentadecafluorooctanoic (PFOA) (N° CAS : 335-67-1 et N° CE : 206-397-9)
  • Oxyde de cadmium (N° CAS : 1306-19-0 et N° CE : 215-146-2)
  • 2-benzotriazol-2-yl-4,6-di-tert-butylphenol (UV-320) (N° CAS : 3846-71-7 et N° CE : 223-346-6)
  • 2-(2H-benzotriazol-2-yl)-4,6-ditertpentylphenol (UV-328) (N° CAS : 25973-55-1 et N° CE : 247-384-8)
  • Ammoniumpentadecafluorootanoate (APFO) (N° CAS : 25973-55-1 et N° CE : 223-320-4)
  • 2-(2H-benzotriazol-2-yl)-4-(tert-butyl)-6-(sec-butyl)phenol (UV-350)  (N° CAS : 36437-37-3 et N° CE : 253-037-1)
  • Cadmium (N° CAS : 7440-43-9 et N° CE : 231-152-8)
  • 4-Nonylphenol, ramifié et linéaire, éthoxylé  
  • Dipentyl phthalate (DPP) (N° CAS : 131-18-0 et N° CE : 205-017-9)

Les commentaires sont à soumettre jusqu’au 18 avril 2013. Plus d’information sur : echa.europa.eu/proposals-to-identify-substances-of-very-high-concern

 

Nouvelle consultation publique pour la classification et l’étiquetage harmonisé de substances

05/03/2013

L’ECHA sollicite des commentaires sur de nouvelles propositions de classification et d’étiquetage harmonisés pour 11 nouvelles substances. Les substances concernées sont : 

  • chlorophacinone (ISO); 2-[(4-chlorophenyl)(phenyl)acetyl]-1H-indene-1,3(2H)-dione (N° CAS : 3691-35-8 et N° CE : 223-003-0)
  • difenacoum (ISO); 3-(3-biphenyl-4-yl-1,2,3,4-tetrahydro-1- naphthyl)-4-hydroxycoumarin (N° CAS : 56073-07-5 et N° CE : 259-978-4)
  • warfarin (ISO); 4-hydroxy-3-(3-oxo-1-phenylbutyl)-2H-chromen-2-one (N° CAS : 81-81-2 et N° CE : 201-377-6)
  • ifethialone (ISO); 3-[3-(4′-bromobiphenyl-4-yl)-1,2,3,4-tetrahydronaphthalen-1-yl]-4-hydroxy-2H-1-benzothiopyran-2-one (N° CAS : 104653-34-1)
  • bromadiolone (ISO); 3-[3-(4′-bromobiphenyl-4-yl)-3-hydroxy-1-phenylpropyl]-4-hydroxy-2H-chromen-2-one (N° CAS : 28772-56-7 et N° CE : 249-205-9)
  • coumatetralyl (ISO); 4-hydroxy-3-(1,2,3,4-tetrahydro-1- naphthyl)coumarin (N° CAS : 5836-29-3 et N° CE : 227-424-0)
  • brodifacoum (ISO); 4-hydroxy-3-(3-(4′-bromo-4-biphenylyl)- 1,2,3,4-tetrahydro-1-naphthyl)coumarin (N° CAS : 56073-10-0 et N° CE : 259-980-5)
  • flocoumafen (ISO); reaction mass of: cis-4-hydroxy-3-(1,2,3,4- tetrahydro-3-(4-(4-trifluoromethylbenzyloxy)phenyl)-1-naphthyl)coumarin; trans-4-hydroxy-3-(1,2,3,4-tetrahydro-3-(4- (4-trifluoromethylbenzyloxy)phenyl)-1- naphthyl)coumarin (N° CAS : 90035-08-8 et N° CE : 421-960-0)
  • special purpose 475-glass fibres [Calcium-aluminium-silicate fibres with random orientation with the following composition (% given by weight): SiO2 55.0-60.0%, Al2O3 4.0-7.0%, B2O3 8.0-11.0%, Na2O 9.5-13.5%, K2O 1.0-4.0%, CaO 1.0-5.0%, MgO 0.0-2.0%, Fe2O3 <0.2%, ZnO 2.0-5.0%, BaO 3.0-6.0%, F2 <1.0% with note R. Process: drawing or spinning the molten mix (at approx. 1500°C) from nozzles]
  • special purpose E-glass fibres [Calcium-aluminium-silicate fibres with random orientation with the following composition (% given by weight): SiO2 50.0-56.0%, Al2O3 13.0-16.0%, B2O3 5.8-10.0%, Na2O <0.6%, K2O <0.4%, CaO 15.0-24.0%, MgO <5.5%, Fe2O3 <0.5%, F2 <1.0% with note R. Process: drawing or spinning the molten mix (at approx. 1500°C) from nozzles] 
  • Phenol, dodecyl-, ramifié (N° CAS : 121158-58-5 et N° CE : 310-154-3)

Les consultations publiques sont ouvertes pendant 45 jours et prendront fin le 19 avril 2013. Plus d’informations sur : echa.europa.eu/view-article

 

Premiers résultats d’évaluation de substances – informations complémentaires pour 32 substances

06/03/2013

Les États membres ont évalué 36 substances énumérées dans le Corap (plan d’actions) pour 2012. Quatre de ces 36 substances évaluées ne nécessitent pas de compléments d’informations. Pour les autres substances, les États membre en charge de l’évaluation proposent de demander aux déclarants de fournir de plus amples informations. Ensuite, les déclarants auront la possibilité de commenter ces demandes. Plus d’informations sur : echa.europa.eu/view-article

 

Outil pour les scénarios d’exposition

06/03/2013

L’outil de rapport et d’évaluation de la sécurité chimique (Chesar) a été mis à jour afin de faciliter la communication des scénarios d’exposition dans la chaîne d’approvisionnement. Cette mise à jour marque la première étape dans la normalisation de l’information des scénarios d’exposition pour les utilisateurs en aval. Plus d’informations sur : echa.europa.eu/view-article

 

Enquête sur les risques liés à cinq sels de cobalt

07/03/2013

La Commission européenne a demandé à l’ECHA de mener une enquête sur les risques liés à l’utilisation de cinq sels de cobalt : sulfate de cobalt, le dichlorure de cobalt, le dinitrate de cobalt, le carbonate de cobalt et le diacétate de cobalt. Sur la base de cette étude, la Commission européenne pourra dire si elle demandera à l’ECHA de préparer un dossier pour restreindre l’utilisation de ces sels, notamment s’il y a indications de risques pour la santé humaine qui ne sont pas suffisamment contrôlés. La Commission a fait cette demande à l’ECHA après avoir choisi de reporter la décision d’inclure ces substances dans la liste d’autorisation (Annexe XIV) jusqu’à ce qu’un processus de restriction ait été conclu. Plus d’informations sur : echa.europa.eu/view-article

La Cour de l’Union Européenne confirme l’évaluation des substances BPT par l’ECHA

08/03/2013

L’ECHA se félicite des conclusions de la Cour de l’Union Européenne qui confirme l’approche de l’ECHA en matière d’identification des substances PBT (bioaccumulable, persistent, toxique) et vPvB (very persistent, very bioaccumulable) comme substances extrêmement préoccupantes. Plus d’informations sur : echa.europa.eu/view-article

 

Adoption de 9 avis scientifiques par le Comité d’évaluation des risques (RAC)

12/03/2013

Le comité d’évaluation des risques (RAC) a adopté huit avis et a donné son accord sur un avis qui sera adopté après consultation publique. Le Comité d’évaluation des risques a adopté six avis de classification et d’étiquetage harmonisés (CLH) (Mandipropamid, Fenoxaprop-p-ethyl, Isoxaflutole, sorbate de potassium, tricalcique diphosphure, 8:2 Fluorotelomer alcohol (FTOH), deux avis à la demande de la Direction exécutive (arséniure de gallium, Diisononylphthalate et diisodecylphthalate dans les jouets et articles de puériculture) et un avis sur une proposition de restriction (1,4-dichlorobenzène dans les désodorisants et des blocs sanitaires). Plus d’informations sur : echa.europa.eu/view-article

 

Le SEAC adopte des avis scientifiques par 2 propositions de restriction

12/03/2013

Lors de sa 18e réunion à Helsinki, le Comité d’analyses socio-économiques (SEAC) de l’ECHA a appuyé la proposition danoise de restreindre le chrome (VI) dans les articles en cuir et convenu d’un projet d’avis sur la proposition de restriction pour le 1,4-dichlorobenzène dans les désodorisants et des blocs sanitaires. Plus d’informations sur : echa.europa.eu/view-article

 

Le SEAC d’accord sur la façon dont il évaluera la faisabilité économique

12/03/2013

Lors de sa 18ème réunion à Helsinki, le comité d’analyses socio-économiques (SEAC) a accepté de publier une note explicative sur la façon dont il évaluera la faisabilité économique dans le cadre de la procédure de demande d’autorisation. Plus d’informations sur : echa.europa.eu/view-article

 

Assurez-vous que vos coordonnées d’entreprise sont mises à jour dans REACH-IT

13/03/2013

A l’approche de la date limite d’inscription du 31 mai, l’ECHA fournira plus de soutien proactif aux déclarants membres après leur soumission de dossier ; par exemple, si une entreprise a des problèmes pour passer l’étape de vérification. Pour que l’ECHA soit en mesure d’aider au mieux les déclarants, il leur demande de vérifier que leurs coordonnées dans REACH-IT sont valides et à jour. 

 

Testez vos connaissances sur les nouveaux pictogrammes de danger

13/03/2013

Pour marquer la Journée internationale des consommateurs, le 15 Mars, l’ECHA a lancé un quiz interactif sur les nouveaux pictogrammes de danger pour l’étiquetage des substances chimiques dangereuses dans l’Union européenne (règlement CLP). Faites le quiz pour vérifier si vous connaissez bien les nouveaux symboles et les produits sur lesquels ils seront utilisés. Lisez les étiquettes et soyez prudents ! Vous pouvez vérifier votre propre score, regarder des films d’animation de l’Agence européenne pour la santé et la sécurité au travail (EU-OSHA) au travail et en apprendre davantage sur le site de l’ECHA expliquant les pictogrammes et les étiquettes. Plus d’informations sur : echa.europa.eu  Quizz : echa.europa.eu/clp-quiz

Par Céline GABORIAUD NECTOUX, Ingénieur Environnement aux Ateliers d’Orval

 

Pour aller plus loin :

Découvrez les fiches pratiques de Techniques de l’Ingénieur :

Participez aux formations Techniques de l’Ingénieur :

Habemus papam : les secrets de la fumée blanche révélés

Cette fois ça y est. Les 115 cardinaux ont élu un nouveau pape. Il s’agit de Jorge Maria Bergoglio, un argentin, qui prendra le nom de François Ier. Il n’aura fallu que deux jours et 4 tours de scrutins pour désigner le successeur de Benoit XVI, et annoncer au monde entier la nouvelle en faisant passer la fumée de la couleur noire à blanche. Ce tour de passe-passe, visuellement très efficace, n’a rien de surnaturel. L’Eglise catholique a même expliqué comment cela fonctionne.

Tout d’abord, précisons qu’il existe deux poêles, positionnés à l’entrée de la Chapelle Sixtine. L’un sert à brûler les bulletins de vote, l’autre à produire la fumée de la bonne couleur : du noir si aucun pape n’a été désigné, du blanc pour célébrer le nouvel élu.

 

 

 

 

 

 

La fumée issue des deux poêles est transportée dans un même conduit débouchant sur le toit. La fumée noire est obtenue à l’aide d’un savant mélange de perchlorate de potassium, d’anthracène et de souffre.

La fumée devient blanche grâce à un autre mélange, composé de chlorate de potassium, de lactose et de colophane. Ce procédé est récent puisqu’il date seulement de 2005, mais restait encore à améliorer puisque la fumée annonçant l’élection de Benoit XVI était plus gris clair que d’un blanc immaculé.

Jusqu’alors, la coloration noire de la fumée était due à la présence d’une sorte de goudron, et la couleur blanche à de la paille humide. Ce procédé a été abandonné car la fumée censée être blanche était souvent grise, occasionnant une confusion bien mal à propos chez les fidèles.

Cette fois-ci, pas d’ambigüité, la fumée était bien blanche, et les milliers de catholiques rassemblés sur la place Saint-Pierre n’ont pas attendu que les cloches de la Basilique Saint-Pierre retentissent pour clamer leur joie.

Par Audrey Loubens, journaliste scientifique

Une ONG dresse la liste des entreprises utilisant des substances chimiques dangereuses

Entrée en application en 2007, la directive « Reach » (enregistrement, évaluation, autorisation et restriction des produits chimiques) encadre l’utilisation des substances chimiques au sein de l’UE.

La législation européenne impose aux entreprises qui produisent ou importent ces substances de les déclarer auprès de l’Agence européenne des produits chimiques (ECHA).

A la fin de l’année 2012, l’ECHA a rendu ces informations publiques. Cette décision fait suite à un recours déposé devant la Cour de Justice de l’UE par deux ONG de défense de l’environnement, ChemSec et ClientEarth.

« La décision de publier les noms des entreprises du registre a été prise au terme d’un processus de consultation avisé. Auparavant, ces données n’étaient pas publiées en raison d’une procédure judiciaire en cours », a déclaré Mikko Väänänen, du service de presse de l’ECHA.

Jusqu’à présent, l’Agence européenne des produits chimiques a préféré garder secrètes ces informations. Pourtant, la directive l’enjoint à le faire, sauf en cas de demande expresse d’une entreprise, au nom du principe de confidentialité. Le Conseil européen de l’Industrie chimique (CEFIC) a rappelé récemment qu’elle est nécessaire pour protéger les secrets industriels.

Liste « SIN »

Ces informations ont permis à l’ONG ChemSec d’établir sa propre base de données. La liste dite « SIN » (Substitute It Now ! ) contient les substances « présentant un risque important », selon la classification européenne. A ce titre, elles sont susceptibles d’être prochainement interdites par l’UE, dans le cadre de la mise en oeuvre de Reach.

En anglais, « SIN » signifie péché. Mais pour la directrice de ChemSec Anne-Sofie Andersson, la démarche ne vise pas à mettre les entreprises dans l’embarras. Il s’agit d’une information « publique », qui peut être utile pour les investisseurs « socialement responsables ».

L’emploi des produits chimiques est souvent occulté dans leur analyse de la durabilité d’une production. « Ils sont focalisés sur les émissions de carbone, les déchets et les quantités d’eau utilisées », explique Anne-Sofie Andersson.

Bernhard Thier, de l’entreprise allemande BASF mentionnée dans la liste, salue l’initiative de cette ONG, qui permet de progresser vers une meilleure utilisation des produits chimiques. Cependant, elle « induit en erreur car elle répertorie les produits chimiques selon leurs propriétés intrinsèques, sans prendre en compte l’exposition humaine et à l’environnement », a déclaré ce cadre supérieur à Euractiv Bruxelles.

Le Conseil européen de l’industrie chimique (CEFIC) n’a pas souhaité faire de commentaires.

Publié par Pierre Thouverez

Source : Euractiv.Fr

 

Les formations Techniques de l’Ingénieur :

Solvants et chimie verte : Les solvants en chimie organique (1/3)

Le concept de « chimie verte » (green chemistry) émerge aux Etats Unis au début des années 1990 pour offrir un cadre à la prévention de la pollution liée aux activités chimiques. La chimie verte a pour but de concevoir des produits et des procédés chimiques permettant de réduire voire d’éliminer l’utilisation et la synthèse de substances dangereuses. Il s’agit d’encourager les chimistes à considérer l’impact environnemental des produits chimiques et de leur synthèse dès la conception.
La chimie verte s’articule autour de douze principes, énoncés par Anastas et Warner, pères de la chimie verte (ci-dessous). Ils reposent sur l’aspect environnemental et économique ainsi que sur la sécurité :

La chimie verte doit s’inscrire dans un développement économiquement efficace et durable ; de nouveaux procédés de synthèse doivent prendre en compte l’aspect écologique.

Une partie des activités de la chimie verte consiste donc à diminuer la quantité de sous-produits des réactions chimiques et les déchets toxiques. Les solvants de réactions entrent dans cette catégorie.

État des lieux

La plupart des solvants sont des composés organiques volatils (ou VOC, volatil organic compounds) qui peuvent donc se disperser facilement dans l’environnement. Cela s’accompagne souvent de risques car ils sont très souvent inflammables. De plus, ils sont généralement nocifs du point de vue de l’écologie et de la santé (beaucoup présentent à la fois une toxicité aiguë et une toxicité chronique). Ces inquiétudes sont d’autant plus justifiées que les solvants sont utilisés en grandes quantités :

  • 35% des VOCs libérés dans l’atmosphère sont des solvants ;
  • 80 à 90% des déchets générés par l’industrie pharmaceutique proviennent du solvant utilisé ;
  • et l’utilisation de solvant est responsable de la moitié des émissions de gaz à effet de serre.

Ainsi, l’un des sujets de préoccupation majeure en matière de chimie est l’utilisation de substances auxiliaires, et surtout de solvants. De fait, le cinquième principe de la chimie verte encourage à limiter leur emploi.

Limiter l’utilisation des solvants

Même si certains procédés industriels ont lieu en phase gazeuse avec des catalyseurs solides – donc sans solvant -, dans la plupart des réactions, en particulier la synthèse de molécules complexes, il est impossible de se passer de solvant. Cependant, la quantité de déchets produits est souvent lié au nombre de pas de synthèse nécessaires. Il apparaît donc très clairement que réduire le nombre de pas de synthèse aboutit à une diminution nette de la production de déchets.

Dans les bases documentaires

Prenons l’exemple de la synthèse du Viagra© : à l’origine, le procédé de synthèse utilisait 1300 L/kg de solvant contre 7 L/kg seulement pour le procédé actuel optimisé.

En réalité, ce n’est pas tant le nombre de pas de synthèses distincts qui importe mais le nombre de séparation et de changement de solvants au cours de la synthèse.

Dans la synthèse de la sertraline, un antidépresseur mis au point par Pfizer, les trois dernières étapes de la synthèse ont été modifiées pour pouvoir être menées dans l’éthanol sans besoin d’isoler les produits intermédiaires. Cette amélioration de stratégie de synthèse aboutit à une réduction du solvant utilisé de 101,4 L/kg à 24 L/kg.

La première étape pour minimiser l’utilisation de solvants consiste en la conception de voies de synthèse qui limitent voire exluent les changements de solvants en privilégiant la récupération et le recyclage de ce dernier.

Choisir un solvant vert

Lorsqu’on ne peut pas travailler sans solvant, il s’agit alors de choisir celui dont les effets néfastes sur l’environnement sont les plus faibles. La question est alors de déterminer le caractère « vert » d’un solvant. Dans l’absolu, il n’y a pas de solvant « vert » ; le caractère plus ou moins « vert » d’un solvant ne peut être déterminé que dans le contexte d’un procédé.

Par exemple, même l’eau – qui semble a priori le solvant le moins dangereux pour l’environnement – n’est pas nécessairement le solvant le plus « vert ». Du fait de son haut point d’ébullition, l’eau requiert beaucoup d’énergie pour être éliminé d’une synthèse par évaporation, ce qui conduit à une production importante de CO2. Il vaut mieux parfois utiliser un solvant apparemment moins vert au sein duquel le produit désiré peut être plus facilement extrait.

Le choix du solvant affecte également le rendement, la sélectivité et les vitesses de réactions. Un choix vigilant et attentif du solvant peut réduire la production de déchets et/ou l’énergie utilisée au cours d’un procédé. Pour concevoir une synthèse la plus « verte » possible, la prise en compte de ces considérations multi-factorielles est donc essentielle.

Pour évaluer le caractère « vert » d’un solvant, plusieurs outils ont été développés afin d’établir une classification de leur impact environnemental :

  • L’outil EHS (Environmental Health and Safety) évalue les risques environnementaux directs d’un composé

Plusieurs facteurs interviennent dans le calcul : la persistance, les risques de libération, d’incendie et d’explosions, les réactions et décompositions possibles, la toxicité (aiguë ou chronique). Pour un composé donné, une valeur est attribuée à chaque facteur : la somme donne alors le profil EHS du composé étudié. L’avantage de cette méthode est de couvrir la plupart des préoccupations environnementales tout en restant simple d’usage. Si aucun solvant ne présente d’avantage évident, une telle classification constitue donc un premier outil efficace de sélection d’un solvant vert.

  • Les résultats EHS peuvent être combinés avec ceux de l’outil LCA (Life Cycle Assessment) pour donner une méthode de sélection plus complète

Cette dernière consiste à évaluer l’impact environnemental de la production et de l’utilisation d’un produit chimique en considérant toutes les étapes de la vie du produit : la provenance des réactifs, la synthèse et l’utilisation de substances auxiliaires, le transport, l’utilisation ainsi que le devenir dans l’environnement. C’est un travail complexe et coûteux. Et selon les composés chimiques étudiés, les informations peuvent être insuffisantes conduisant à des résultats parfois contradictoires. Cependant, en ce qui concerne les solvants – étant omniprésents en synthèse – les informations sont nombreuses pour que des analyses LCA soient réalisables et fiables.

  • Un autre outil simple d’utilisation est le système dit « traffic light » de Pfizer

Classement « traffic light » de Pfizer :

Préférables (verts) Utilisables (orange) Indésirable (rouge)
Eau Cyclohexane Pentane
Acétone Heptane Hexane(s)
Ethanol Toluène Ether diisopropylique
2-Propanol Méthylcyclohexane Ether diéthylique
1-Propanol Méthyl t-butyl éther  Dichlorométhane
Acétate d’éthyle Isooctane 1,2-Dichloroéthane
Acétate d’isopropyle     Acétonitrile N,N-Diméthylformamide
Méthanol 2-Méthyl-THF N-Méthylpyrrolidin-2-one
Méthyl éthyl cetone Tétrahydrofurane Pyridine
1-Butanol     Xylènes Diméthyl acetate
t-Butanol Diméthyl sulfoxide 1,4-Dioxane
Acide acétique

1,2-Diméthoxyéthane

Ethylène glycol Benzène
Tétrachlorométhane

Cette classification des solvants fut établie en appliquant des résultats similaires à ceux du système EHS à tous les solvants communément employés dans l’industrie pharmaceutique. Dans ce système, les solvants verts sont considérés comme ceux de moindre impact environnemental et sont préférables aux solvants oranges. Les solvants rouges sont ceux qui posent le plus de soucis d’ordre sanitaire et écologiques et doivent être évités. Le grand avantage d’un tel outil de sélection est qu’il ne requiert aucune connaissance spécifique en chimie verte d’où son utilisation fréquente.

Des solvants alternatifs

Des solvants alternatifs à ceux rencontrés « classiquement » en synthèse organique ont été proposés tels que l’eau, les liquides ioniques ou le CO2 supercritique (sc-CO2). Ils sont utilisés comme remplacement pour les traditionnels VOCs et consituent un domaine de recherche très actif.

Si les propriétés physiques de ces solvants et l’impact environnemental a priori moindre en font des solvants « verts », plusieurs critiques ont été formulées du fait de données insuffisantes pour pouvoir établir une analyse LCA complète ou même appliquer le système EHS. En réponse, Clark et Tavener, par le biais d’une analyse semi-quantitative, ont classé ces « nouveaux » solvants :

  • le sc-CO2, l’eau et les solvants dérivés de sources renouvelables remportent les premières places de ce classement ;
  • les liquides ioniques et les solvants fluorés les dernières.

Cependant, il faut garder à l’esprit que la simple possibilité de réaliser une réaction dans un de ces nouveaux solvants n’en fait pas automatiquement un solvant vert. C’est seulement par son utilisation commerciale au sein d’un procédé qu’un solvant ayant un impact environnemental moindre vis-à-vis d’une méthode antérieure peut être dit « vert ». A noter que l’impact environnemental global d’un procédé est déterminé par de nombreux facteurs comme l’efficacité de la réaction en termes d’économie atomique, de sélectivité, de production de déchet ou encore de consommation d’énergie.

La seconde partie de cet article, « Solvants et chimie verte », paraîtra le 19 mars.

Par Pauline Bacle

Source : Culture science chimie

L’Allemagne invitée dans le débat sur la transition énergétique

Il subsiste des différences notables entre le mix énergétique allemand et français, notamment concernant l’électricité d’origine nucléaire.Toutefois, « ces différences ne doivent en aucun cas nous empêcher de travailler ensemble sur ce qui nous est commun », estime Delphine Batho, ministre de l’Écologie, du Développement durable et de l’Énergie. « Nous avons bien l’intention, ensemble, de faire de l’Europe, le continent de la transition énergétique », ajoute-t-elle.

L’objectif affiché est de mieux organiser la coopération franco-allemande dans le domaine des énergies renouvelables pour faire figure de proue et attirer les autres pays dans la dynamique. « Nous sommes convaincus que cette coopération nous permettra de faire avancer le projet des renouvelables au plan mondial », estime pour sa part Peter Altmaier, Ministre fédéral de l’Environnement, de la Protection de la Nature et de la Sûreté nucléaire. « Le débat en France porte exactement sur les mêmes problèmes, sur les mêmes défis, sur les mêmes questions [qu’en Allemagne] », remarque-t-il. La situation entre les deux pays est donc beaucoup plus proche que ce que l’on a pu penser par le passé. Les chances de coopération et de synergie sont donc larges.

Un office des énergies renouvelables

Le Bureau de coordination des Energies renouvelables, créé en 2011, devient l’Office Franco-Allemand pour les Energies renouvelables dans le cadre de la Transition Energétique. Les deux pays « soulignent leur volonté d’approfondir toutes les formes de coopération concernant les questions liées au développement des énergies renouvelables – notamment en ce qui concerne la planification territoriale, les impacts environnementaux, les coûts et les systèmes de soutien, l’emploi et la formation ; de renforcer la coopération dans le domaine de la recherche, du développement et de l’innovation pour les énergies renouvelables », précise l’accord signé le 7 février 2013.

Cet Office aura aussi pour objet de « traiter de thèmes d’intérêt commun relatifs aux énergies renouvelables et aux sujets connexes, d’encourager l’échange d’informations dans ces domaines ». Dans cette perspective, les deux pays cherchent notamment une position commune pour instaurer un nouveau prix du carbone sur le marché.

Une audition par le conseil national de la transition énergétique

Peter Altmaier est le premier homme politique étranger à être auditionné par le Conseil national du débat sur la transition énergétique. Durant son audition, il a notamment souligné que l’arrêt de huit centrales nucléaires en 2011 n’a pas engendré d’augmentation nette des importations électriques. « En réalité, nous avons toujours eu en 2011 et 2012 un surplus d’exportation par rapport aux voisins européens, même la France », fait-il valoir. Notamment en hiver, la France a importé plus d’électricité en provenance d’Allemagne qu’elle n’y en a exportée ! Ce résultat est important pour faire baisser la part du nucléaire de 75 % à 50 % dans le mix électrique français.

Après la fermeture des huit centrales nucléaires, la production des énergies renouvelables a été élargie. À ce jour, déjà 23 % de l’électricité allemande est fournie par des énergies renouvelables. Selon les estimations, cette part devrait atteindre entre 35 et 40 % en 2020. L’objectif est d’atteindre 80 % en 2050. La décision de fermer toutes les centrales nucléaires à l’horizon 2022 a accéléré le processus de développement.

Toutefois, Peter Altmaier voit le développement des gaz de schistes aux Etats-Unis comme une tendance préoccupante. Ce développement provoque la baisse du prix du charbon en Europe et les pays se détournent peu à peu des usines à gaz pour recourir au charbon. Il appelle à un débat politique en Europe, car si le charbon est moins cher, il est incompatible avec les objectifs climatiques.

Les chiffres allemands montrent que la croissance économique du pays n’est plus liée à l’augmentation de la consommation électrique. Selon les chiffres provisoires en 2012, l’économie allemande a crû de 0,8 % et la consommation nette d’électricité a baissé de 2 %. « Je ne sais pas si il y a des influences climatiques, il faut voir cela, mais nous avons pour but de réduire la consommation totale d’électricité de 10 % d’ici 2020 », reconnait-il toutefois.

En Allemagne, la plupart des énergies renouvelables sont fournies par des agriculteurs qui produisent du biogaz et accueillent sur leur territoire des éoliennes ou des panneaux solaires. L’approvisionnement énergétique s’en trouve d’autant plus diversifié et le revenu des agriculteurs augmenté et stabilisé. Dans le pays, la « capacité de panneaux solaires correspond à la production d’électricité de 20 centrales nucléaires », se plait à rappeler Peter Altmaier.

Ne pas rater la 3e vague de modernisation

« Je suis sûr et certain que nous voyons la 3e vague de modernisation industrielle de l’après-guerre », estime le Ministre allemand. Après avoir raté l’électronique dans les années 60-70, les, ordinateurs dans les années 80-90, l’Europe peut, pour la première fois, être dans les premiers sur le plan mondial. « Si la France et l’Allemagne sont les premiers à encourager la recherche, le développement et la mise en place, nous pouvons en bénéficier pour les 30 années à venir », prévient-il. Au contraire, si l’industrialisation des énergies renouvelables ne se fait pas rapidement en Europe, nous passerons encore une fois à côté d’une révolution industrielle.

Par Matthieu Combe, journaliste scientifique

Les géants de la mobilité se préparent à une explosion des paiements électroniques

L’annonce de deux grands partenariats dans le secteur des paiements mobiles met en évidence la stratégie de ce secteur et laisse penser que ces paiements deviendront plus courants au cours des prochains mois.

Samsung, le géant sud-coréen de l’électronique, a annoncé un accord qui introduira la technologie de paiement par carte Visa dans sa prochaine génération de téléphones et accélérera la croissance des paiements par communication en champ proche (NFC) dans le monde.

Quelque deux milliards d’appareils devraient être dotés de cette technologie d’ici 2017 et le partenariat entre Samsung et Visa accélérera certainement le processus.

Dans le même temps, le fabricant canadien BlackBerry a annoncé que son service de messagerie instantanée, BBM, permettra des paiements entre personne. Un projet pilote a été lancé en Indonésie en collaboration avec PT Bank Permata et Monitise, un fournisseur de plateformes d’argent mobile.

Les paiements mobiles, un succès en Afrique

Le projet pilote permettrait aux utilisateurs de créer et d’accéder à un compte d’argent mobile depuis leur BlackBerry ainsi que de transférer de l’argent en temps réel à d’autres personnes qui utilisent ce service. Les utilisateurs pourront également utiliser le compte pour l’achat de crédit de communication et le transfert d’argents sur des comptes bancaires.

Un deuxième rapport annuel sur l’adoption mondiale du transfert d’argent mobile, publié lors du congrès de Barcelone, a révélé que les paiements mobiles gagnent rapidement du terrain dans les pays en développement.

La majorité des 56,9 millions de clients enregistrés aux paiements mobiles se trouvent en Afrique subsaharienne. Dans cette région, 34 des 47 pays sont actifs dans ce domaine et 37 % des 166 réseaux de téléphonie mobile ont lancé ces services.

Au Kenya, à Madagascar, , en Ouganda et en Tanzanie, il existe en outre plus de comptes d’argent mobile que de comptes bancaires. Les établissements d’argent mobile, 520 000 au total, sont également plus nombreux que les banques dans au moins 28 pays africains.

Cette situation contraste avec l’Europe. La Commission européenne a décidé l’année dernière d’intégrer davantage les paiements par carte et par Internet ainsi que les paiements mobiles sur le marché des 27 États et de parer au manque de concurrence dans le domaine.

Le document de consultation publié conjointement par le commissaire en charge du marché intérieur, Michel Barnier, et le commissaire en charge de la concurrence, Joaquín Almunia, vise à accroître la transparence et la sécurité et à stimuler l’innovation au sein du marché unique.

Les entreprises chinoises passent à la vitesse supérieure

Les paiements de détail effectués dans la zone euro en 2009 représentaient 59 milliards d’euros, mais l’intégration était faible dans les États membres et pour les plateformes de paiement, selon la Commission.

L’exécutif européen souhaite rationaliser le marché et renforcer les conditions de concurrence pour les nouveaux entrants.

Le congrès de Barcelone a mis en évidence un autre élément important. Les entreprises basées en Chine sont dorénavant sur les talons d’Apple, de Samsung et de Sony sur le marché des smartphones.

Huawei, qui a vendu 32 millions de smartphones en 2012, contre 60 % en 2011, est arrivé en troisième position des ventes de smartphones au cours du dernier trimestre de 2012, selon la société de recherche IDC. Le chinois ZTE figure à la cinquième place derrière Sony.

Samsung et Apple sont bien devants et se partagent toujours la moitié du marché. Lors d’un entretien avec EurActiv, Shao Yang, le directeur marketing de Huawei, a déclaré que l’entreprise se concentrerait dorénavant sur la conception pour rattraper ses concurrents et qu’elle engageait certains des meilleurs talents en vue de construire une image de marque.

« Nous avons besoin améliorer la conception et nous voulons être le chef de file mondial du design », a déclaré M. Yang.

 

Jeremy Fleming, depuis Barcelone – traduit de l’anglais par Aubry Touriel
Source : Euractiv.fr

Une console de jeu pour entraîner les chirurgiens

Pour ceux qui cherchaient encore une excuse, c’est scientifiquement prouvé : jouer à la Wii nous rend meilleurs !

Une étude italienne parue dans la revue Plos One démontre que la Wii peut être un allié précieux pour les étudiants en médecine qui se destinent à la chirurgie.

En effet, parmi les 42 cobayes, une moitié  chanceuse a joué une heure par jour à raison de cinq jours par semaine à trois mini-jeux : tennis, tennis de table et simulation aérienne. Les autres participants se sont vu interdire tout jeu vidéo. Leur calvaire a duré quatre semaines.

Une fois ce mois écoulé, chacun des novices en chirurgie a été soumis à un test sur un simulateur de chirurgie laparoscopique, identique à celui passé avant de débuter l’étude. Les scientifiques ont ainsi pu comparer leurs performances avant et après ces quatre semaines.

Et les résultats penchent nettement en faveur de la Wii : 83%  des futurs médecins s’étant entraîné avec la Wii se sont montrés plus précis contre seulement 10% de l’autre groupe. Les deux aspects ayant été nettement améliorés sont la cautérisation et l’économie de mouvement. Les chercheurs de l’Université de Rome ont ainsi constaté que 35% des étudiants ayant suivi l’entraînement Wii ont réalisé une meilleure cautérisation contre 12% dans le deuxième groupe.

 Pour le Docteur Gregorio Patrizi, directeur de l’étude, il était attendu que jouer à la Wii améliore certaines performances : «  La difficulté avec la laparoscopie (réelle et virtuelle) est qu’elle nécessite de bouger dans un espace 3D avec une vision 2D. La Nintendo Wii est une console de jeu avec une manette sans fil capable de détecter les mouvements en trois dimensions.

Grâce à cette manette, les joueurs peuvent utiliser des gestes, contrairement aux jeux vidéos traditionnels. Ainsi, la progression est basée sur le fait que la Wii de Nintendo, comme d’autres consoles plus récentes, offre des jeux vidéos en 3D et par conséquent, améliore l’attention visuelle, la perception de la profondeur, et la coordination des mouvements ».

En revanche, personne n’attendait des résultats aussi flagrants, comme s’en étonnait Gregorio Patrizi sur NBC News : « Les différences entre les deux groupes étaient bien au-delà de nos attentes. Ce qui nous a le plus surpris, c’est que tous les résultats étaient statistiquement signifiants, même dans le cadre de procédures complexes comme la cholécystectomie»

Une preuve scientifique de plus  que jouer à des jeux vidéos en 3D améliore la coordination œil-main ainsi que la coordination spatiale. Alors à quand des modules « Wii sport »  dans nos facultés de médecines ?

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Découvrez SpaceTop 3D, le premier prototype d’ordinateur 3D

Vous le connaissez peut-être. Ce Sud Coréen du nom de Jinha Lee s’était déjà fait connaître par le passé en inventant une balle en 3D capable de mémoriser sa trajectoire et de la reproduire. Depuis, Microsoft ne s’est pas trompé en lui offrant un stage. C’est d’ailleurs durant ce stage et après que le jeune homme a conçu l’interface 3D. Avec ce prototype, il est désormais possible de manier les différents éléments du bureau sans la souris mais directement avec les mains. L’interaction avec son ordinateur n’aura jamais paru aussi naturelle.

Le système fonctionne par combinaison de deux technologies déjà existante. Il réunit la technologie de captation de la Kinect de la Xbox et celle de la projection 3D pour les télévisions. L’ordinateur 3D dispose d’une part, d’un écran LED transparent et d’autre part, de deux caméras. L’une des deux caméras SpaceTop 3D lui permet d’identifier les gestes de l’utilisateur, tandis qu’avec l’autre, il suit son regard.

L’étudiant tire donc parti de ces deux technologies pour créer une petite révolution dans le monde de l’interface de l’ordinateur. Une idée brillante. L’invention fait le buzz un peu partout dans le monde mais n’en est encore qu’à ses débuts. Néanmoins gageons que la technologie se développe davantage et propose de nouvelles possibilités.

Jinha Lee confiait vouloir « garder les pieds sur terre » et assurait que des questions essentielles à cette nouvelle technologie seront longuement réfléchies et que SpaceTop 3D sera « testé par des gens normaux » avant toute commercialisation. À suivre.

Par Sébastien Tribot, journaliste scientifique

Limiter le réchauffement à 2°C est possible selon une étude américaine

Pour celles et ceux qui doutent de la nécessité de réduire les émissions de C02, qui se posent des questions à propos de la pause du réchauffement qui dure depuis 16 ans, du rôle joué par les océans et le soleil, ou qui estiment qu’il n’y a pas de raisons que les pays « du sud » ne puissent pas avoir le droit d’émettre autant de CO2 qu’en ont émis historiquement les pays « du nord »,  trois papiers publiés par ce groupe de recherche américain pourraient être particulièrement utiles compte-tenu de leur puissance pédagogique.

Les causes du réchauffement observé depuis le XIXème siècle

Selon le Climate Research Group (CRG), le réchauffement marque une pause. Le directeur du GISS-Nasa, James Hansen, l’a d’ailleurs confirmé il y a quelques jours : « la moyenne glissante des températures globales a été plate sur la dernière décennie ». Dans le premier papier du CRG intitulé « Causes of the Global Warming Observed since the 19th Century », le professeur Michael Schlesinger, directeur du CRG, et ses collègues Michael Ring, Daniela Lindner, et Emily Cross, soulignent que la température terrestre s’est élevée de 0.8°C depuis le XIXème siècle, ce que personne ne peut nier. Il est également certain que les concentrations en gaz à effet de serre ont augmenté dans l’atmosphère terrestre, principalement à cause de la combustion de carburants fossiles (charbon, pétrole, gaz).

Mais comme le dit l’adage, correlation not imply causation, a fortiori dans un système aussi complexe que le climat. Et la pause du réchauffement observée depuis le début du XXème siècle conduit naturellement à se poser des questions. Il est donc très important de déterminer si le changement de température est lié à des causes anthropiques, comme l’estime le GIEC, ou au contraire à des causes naturelles (dont les volcans et le soleil), comme mis en avant par les contradicteurs. Il convient en particulier d’évaluer le rôle joué par la variabilité intrinsèque du système climatique, notamment les oscillations océaniques.

Le CRG utilise deux méthodes indépendantes pour analyser les températures mesurées depuis le XIXème siècle, c’est à dire les données expérimentales. La première méthode consiste en une analyse spectrale singulière (SSA, un type d’analyse de la famille des analyses spectrales de Fourier) afin d’identifier la part liée à la variabilité interne du climat dans les variations observées de température. La seconde méthode est une simulation avec un modèle climatique simplifié (SCM) afin de déterminer la sensibilité climatique d’équilibre, c’est-à-dire la réponse à la question : quelle hausse de température provoque un doublement de la concentration en CO2 une fois le système climatique à l’équilibre ?

Cette analyse a permis de livrer une réponse : 1,45°C avec les données du GISS Nasa américain, 1,61°C avec celles du HadCRUT4 britannique, 1,99°C avec celles de la NOAA  américaine, et 2,01°C avec celle de la JMA japonaise. Le CRG retient la valeur de 1,6°C. C’est « une bonne nouvelle » pour l’humanité a déclaré Michael Schlesinger lors d’une interview par Andy Revkin du New York Times. Une équipe norvégienne (Berntsen et al, étude à ce stade non publiée et en cours de relecture par les pairs pour le Journal of Climate) parvient à une conclusion similaire et d’autres études parviennent à des valeurs proches. 1,6°C, c’est en-deçà de la fourchette des 2 – 4,5°C retenue dans le rapport du GIEC de 2007 (AR4), et de la valeur la plus probable (3°C) retenue par le panel.

Néanmoins le GIEC semble se diriger vers un élargissement de la fourchette à 1,5 – 4.5°C si l’on en croit une pré-version (non définitive) du rapport AR5 où l’on peut lire : « La sensibilité climatique d’équilibre est vraisemblablement comprise entre 2 et 4,5°C, et très vraisemblablement au dessus de 1,5°C, la valeur la plus vraisemblable est 3°C. Une sensibilité climatique d’équilibre supérieure à 6 – 7°C est très invraisemblable ».  Deux chercheurs estiment que la sensibilité pourrait être de 4°C mais cette estimation est contestée, et pour Michael Schlesinger, « l’étude de Faluso et Trenberth n’a pas de sens. Elle ne tient pas compte de la question suivante : quelle est la sensibilité climatique qui reproduit le mieux les changements de températures observés depuis le XIXème siècle jusqu’à aujourd’hui ? »

Les oscillations océaniques : une explication à la pause du réchauffement qui dure depuis une décennie et demie

Une grande oscillation océanique multidécennale ayant une période de 65-70 ans est détectée par les chercheurs américains grâce à l’analyse spectrale singulière des températures (quasi-periodic oscillation, QPO)  Il s’agit d’une variabilité interne au système climatique, dont le mécanisme sous-jacent est encore mal connu, mais qui constitue la clé permettant de comprendre l’évolution des températures de plusieurs périodes depuis le XIXème siècle jusqu’à aujourd’hui.

La période 1904 – 1944 correspond à un réchauffement de 0.53°C à 0.71°C, selon les séries de données utilisées, qui s’explique principalement par une phase océanique échauffante. Le rôle du soleil est mineur. Et les GES n’expliquent qu’un quart de ce réchauffement. La période 1944-1976 est marquée par un léger refroidissement qui s’explique par une phase océanique refroidissante associée à l’effet des aérosols et s’opposant à celui des GES dont la concentration augmente dans l’atmosphère. La période 1976-1998 correspond à la plus importante phase de réchauffement du siècle, qui s’explique cette fois-ci pour moitié par une phase océanique échauffante, l’autre moitié par les GES. La pression des GES va croissante.

Enfin, la fameuse période 1998-2008 correspond à un refroidissement de 0,11 à 0,22°C, ce qui est a priori très surprenant étant donné que la concentration atmosphérique en GES n’a jamais été aussi élevée depuis des centaines de milliers d’années ! L’entrée dans une phase océanique négative, dont l’effet est puissant, conduit à contre-balancer l’effet sous-jacent du forçage GES, tout aussi puissant.

La période 1976-2010 a connu deux phases océaniques de signe opposé : forçage positif entre 1976 et 1998 (d’où la flambée des températures), puis forçage négatif entre 1998 et 2010, d’où la pause observée. Au final, sur l’ensemble de la période 1976-2010, le forçage océanique est nul, et les gaz à effet de serre constituent le principal driver du réchauffement observé sur la période (entre 0.66°C et 0.79°C selon les séries de données). En 34 ans (1976-2010), la température s’est élevée d’environ 0,7°C, ce qui nous donne une idée de ce qui nous attend une fois que la pause (phase océanique refroidissante) sera terminée, sans doute à partir de 2040.

En effet, étant donné que la période de l’oscillation océanique est de 65-70 ans, on peut s’attendre à ce que la pause qui dure depuis 16 ans se prolonge encore quelques décennies. Mais cela risque de chauffer très dur dans la seconde moitié du siècle, a fortiori si, faute d’un développement assez rapide des énergies renouvelables et de l’efficacité énergétique, les niveaux d’émission de CO2 ne sont pas réduits, et pire, augmentent. Avec à la clé un risque de montée corrélative des océans, qui constitue la première menace, comme le souligne le climatologue français Jean Jouzel dans le journal Sud Ouest : « Songez aux conséquences à New York d’un cyclone comme Sandy si l’océan est plus haut de cinquante centimètres, voire de un mètre. Dans le sujet très complexe du réchauffement, c’est sans doute un message facile à faire comprendre. Mon inquiétude ne se limite pas au XXIe siècle. On sait qu’il y a 125 000 ans le climat était plus chaud de 2 à 3 degrés, et le niveau de la mer était supérieur de 6 mètres à ce qu’il est aujourd’hui. Même si l’on parvient à stabiliser le climat, l’inertie océanique va continuer à faire monter le niveau des eaux pendant des siècles. Ce problème a une dimension éthique, car il touche des populations très vulnérables. Chaque année, des millions de gens supplémentaires sont concernés. »

Si l’on s’intéresse à l’ensemble de la période 1850-2010, il apparaît que ce sont les émissions de GES qui constituent le principal moteur du réchauffement (+2.65 W/m2), légèrement freiné par les aérosols (-0.99 W/m2 à -0.42 W/m2) et les changements d’usage des sols (-0.16 W/m2, albedo). Le rôle du soleil est très mineur (+0.1 W/m2) et celui des volcans est nul.

Un plan loyal pour préserver le climat terrestre

Si l’humanité continue business-as-usual, la concentration en CO2 pourrait atteindre 540 ppm dès 2050 (doublement de la concentration pré-industrielle), et de 1080 ppm (0.1%) dès 2100 (deux doublements). Il en résulte que même si la sensibilité climatique n’est que de 1,6°C comme l’estime Michael Schlesinger, alors nous atteindrions +3.2°C en 2100 (dont 0,8°C déjà réalisés). C’est bien trop. La limite « acceptable » à ne pas franchir est de 2°C selon la convention des Nations Unies sur le climat.

Mais comment mettre d’accord les pays de l’Annexe B (les 39 pays les plus industrialisés, dont la France, auquel le protocole de Kyoto a fixé des engagements contraignants de maîtrise de leurs émissions de gaz à effet de serre) et les pays non Annexe B, dont la Chine et l’Inde ? Michael Schlesinger propose un « Plan Loyal » entre « le nord » et « le sud » pour y parvenir : A Fair Plan to Safeguard Earth’s Climate. Il s’agit d’un programme de découplage entre CO2 et PIB, ce qui est très différent d’un programme de décroissance du PIB. Mais si seuls les pays de l’annexe B s’engagent, et si on laisse les pays non annexe B atteindre des niveaux d’émissions cumulés par habitant égaux à ceux de l’annexe B, alors l’objectif de non dépassement des 2°C ne pourra pas être atteint, même avec l’hypothèse de sensibilité climatique retenue par Schlesinger (1,6°C).

L’objectif d’équité parfaite entre le nord et le sud, compréhensible dans le cadre d’une éthique humaniste, n’est pas possible avec la contrainte des 2°C. Les pays « du nord » devront réduire leur intensité carbonique (émissions par point de PIB) de 10% d’ici 2020 (et les pays « du sud » de 5%), puis de 50% d’ici 2040 (et les pays « du sud » de 20%).

Dans un deuxième temps, les pays « du sud » devront accélérer la cadence: l’ensemble des pays du monde devra accepter l’objectif de réduire à zéro les émissions de C02  à horizon 2065. En faisant cela, le réchauffement pourra être limité à 2°C. La Chine s’inscrit dès à présent dans une dynamique intéressante : l’intensité carbone du géant asiatique devrait diminuer de 16% entre 2010 et 2015 selon le China Energy Institute.

S’il s’avère que la sensibilité est supérieure à 1,6°C (il sera possible de l’apprécier plus finement au cours des décennies à venir), alors il faudra accélérer la cadence de découplage CO2/PIB en proportion. Exiger que les pays « du sud » adoptent dès à présent la même cadence que les pays « du nord » n’est pas possible compte-tenu des émissions historiques des pays du nord. C’est ce point précis qui a conduit aux blocages au sommet de Copenhague de 2009, situation qui ne s’est ensuite guère améliorée.

Une seconde version du « Plan loyal » de Michael Schlesinger a été publiée, « A Revised Fair Plan to Safeguard Earth’s Climate », ceci dans la perspective d’un accord climatique honnête, équilibré, entre pays du nord et du sud. Les pays « du sud » ont ici plusieurs possibilités de date de début de réduction de l’intensité carbonique, pour une durée du Plan de 50 ans. L’ensemble des trajectoires présentées permet de ne pas dépasser la limite des 2°C. Laisser aux pays du sud la liberté de décider de la date de départ (2015, 2020, 2025 ou 2030) permet d’augmenter les chances d’obtenir un accord entre les pays du nord et du sud.

Entre 1850 et 2000, le niveau marin s’est déjà élevé à New-York de 30 centimètres. Michael Schlesinger a indiqué aux Techniques de l’ingénieur que le CGR qu’il dirige va publier prochaînement un papier à ce sujet : un ralentissement du Gulf Stream consécutif au réchauffement pourrait conduire à une montée du niveau marin plus rapide sur le littoral du nord-est des USA qu’ailleurs dans le monde d’ici 2100. « Nous répondrons à la menace du changement climatique, sachant que ne pas le faire serait une trahison pour nos enfants et les générations futures » a déclaré Barack Obama, réélu à la présidence des USA.

Le développement massif des gaz de schiste, moins émetteur en CO2 que le charbon comme le souligne l’Agence Internationale de l’Energie dans un rapport spécial au sujet du boom de cette filière, a permis aux USA de battre le record du monde de vitesse de réduction des émissions de CO2 ces dernières années. Ceci en fort contraste avec la situation en Europe. Le gaz de schiste, arme climatique des USA, et complément des énergies renouvelables fluctuantes comme l’éolien et le solaire, est aujourd’hui au cœur de la diplomatie américaine.

Olivier Daniélo

Paris va bientôt connaître quelle quantité de gaz à effet de serre pollue son air

C’est l’obsession de Bertrand Delanöé : faire baisser la pollution de l’air et libérer les Parisiens de toutes ces particules qui obstruent leurs voies respiratoires autant que les voies de bus….

Après avoir déclaré la guerre aux voitures dans son plan anti-pollution fin 2012, la mairie de Paris va pouvoir s’appuyer sur une cartographie précise des flux de gaz à effet de serre (GES).

D’ici la fin de l’année 2013, EADS Astrium aura collecté suffisamment d’informations pour réaliser une cartographie des GES à Paris. La mairie de Paris disposera alors pour la première fois de cartes de flux. L’objectif est de connaitre la réalité de cette pollution. Cela permettra de quantifier l’impact des politiques mises en œuvre pour abaisser les taux de dioxyde de carbone, monoxyde de carbone et méthane.

A ce jour, aucun dispositif d’estimation statistique des GES n’existe. Pourtant, comme le rappelle un rapport de la Banque Mondiale publié en 2012, Cities and Climate Changes : an urgent agenda, les villes sont responsables à elles seules de près de 80% des émissions mondiales de GES !

Fort de sa précédente expérience aux Jeux Olympiques de Londres l’année dernière à l’occasion de laquelle le numéro un européen de l’industrie spatiale avait produit des cartes alimentées par quatre capteurs sol disposés autour de la ville, ainsi que des mesures aériennes et des données satellitaires, Astrium va déployer un réseau de six capteurs au sol autour de Paris.

Ces capteurs sont des boitiers contenant une cuve à travers laquelle les gaz passent et dont la concentration est analysée via un laser.  Un autre capteur installé dans un avion permettra de mesurer les concentrations des GES en altitude. Les mesures seront réalisées trois fois par an par le survol de la ville pendant une à deux heures.

Enfin, toutes ces données seront complétées par des mesures satellitaires. Les mesures seront ensuite intégrées à un modèle atmosphérique pour réaliser des cartes d’émissions qui indiqueront, avec une résolution de l’ordre du kilomètre, les principales sources et puits de carbone. 

Ce projet, d’une durée de trois ans, intervient dans le cadre du projet CarboCountCity  visant à procéder à une mesure directe des GES à l’échelle d’une ville.

Ces cartographies ont un coût : 4 millions d’euros. Mais l’objectif affiché de la ville de Paris de diminuer de 75% les émissions de GES d’ici 2050 passe par une connaissance précise de cette pollution, nécessaire pour investir dans des mesures efficaces sur le long terme.

Que les Parisiens se rassurent, ce projet ne leur coûtera rien puisqu’il est passé entre EADS Astrium et la KIC-Climat, une fondation financée par l’Institut Européen de l’Innovation et de la Technologie (EIT) et par la Commission européenne dont le but est de faire de l’Europe un leader d’une nouvelle économie bas-carbone.

Par Audrey Loubens, journaliste scientifique

 

Découvrez les formations Techniques de l’Ingénieur :

Pas de forage en Arctique en 2013 pour Shell

Il faut dire que l’année a plutôt mal commencé. Le 1er janvier, le navire de forage Kulluk s’est échoué au large des côtes en Alaska, avec 600 000L de diesel et 50 000L d’huile de graissage et de liquide hydraulique.

Bien qu’aucune fuite ne se soit produite, le risque d’une catastrophe comme celle de l’Exxon-Valdez est dans toutes les têtes. En 1989, l’échouement de ce pétrolier américain avait provoqué une terrible marée noire, avec 40 000 tonnes de pétrole brut répandus dans la mer et des centaines de km de côtes polluées.  Autant dire que forer dans cette région se fait sous l’œil méfiant de la population et une surveillance accrue des autorités. 

Car l’accident du Kulluk n’était pas un incident isolé. Au mois de juillet dernier, la plateforme de forage Discover-Noble avait « perdu » son ancre, menaçant de s’échouer près de la bourgade d’Unalaska. La plateforme avait finalement été remorquée, mais les garde-côtes avaient pointé du doigt des défaillances au niveau de la propulsion ainsi que des systèmes de sécurité. Shell avait alors remorqué Discover-Noble jusqu’à Seattle pour effectuer les réparations. Puis, à peine deux mois plus tard, c’est la plateforme de secours Arctic-Challenger qui avait été abîmée lors d’un test d’homologation. Un test totalement raté !

Privé de deux plateformes, Kulluk et Discover-Noble, Shell renonce finalement à forer en 2013. 

Si cette nouvelle a été très favorablement accueillie par les associations de protection de l’environnement, Greenpeace en tête, cette décision ne signifie pas un renoncement définitif.

Shell a déjà investi plus de 4.5 milliards de dollars, une somme colossale, même pour ce géant du pétrole. Difficile de croire à l’abandon du projet. D’ailleurs, dans un récent communiqué, le groupe réaffirme son ambition d’exploiter cette région qui pourrait bien se révéler un nouvel eldorado énergétique : « L’Alaska reste une région à haut potentiel pour Shell sur le long terme et le groupe est engagé à forer de nouveau là-bas à l’avenir. Nous continuons de croire qu’un rythme mesuré et responsable, en particulier dans la phase d’exploration, correspond le mieux à cette région éloignée. »

L’arrêt des forages ressemble plutôt à une pause stratégique, le temps de calmer les esprits. D’autant que cette annonce intervient quelques jours avant qu’une enquête du gouvernement américain sur d’éventuelles défaillances de Shell ne soit rendue publique.

Ken Salazar, secrétaire d’Etat aux affaires intérieures s’étant dit troublé de tous ces incidents, avait en effet ordonné une enquête de deux mois sur la politique de forage du géant anglo-néerlandais, avertissant : « Il est possible que Shell ne puisse pas reprendre ses activités en 2013 en raison des évaluations en cours sur le Kulluk ».

Le groupe se sachant sur la sellette, un retrait tactique parait très pertinent. Pour mieux revenir en 2014 !

Par Audrey Loubens, journaliste scientifique

Nouvelle version pour NI Veristand

Les ingénieurs peuvent utiliser cette nouvelle version de NI VeriStand pour effectuer des tâches d’acquisition et d’enregistrement de données haute vitesse et repérer les données utiles plus rapidement lors du post-traitement.Ils peuvent être plus rapidement opérationnels à l’aide de nouveaux utilitaires de configuration matérielle et l’intégration de NI SC Express facilite l’acquisition des mesures conditionnées. 

« Cette nouvelle version de NI VeriStand illustre notre volonté d’offrir une plate-forme de test temps réel capable de réduire à la fois les risques et les coûts sur toute une gamme d’applications allant des systèmes de validation de logiciels embarqués aux systèmes de test mécanique », souligne Mike Santori, NI Business and Technology Fellow.

“Au fur et à mesure que l’importance des logiciels continue de croître dans les produits et les systèmes actuels, nous ne cessons d’ajouter de nouvelles fonctionnalités à NI VeriStand pour aider les ingénieurs à satisfaire les exigences strictes en matière de rapidité de mise sur le marché malgré le défi de plus en plus épineux que représente le test. »

Fonctionnalités

  • Exécution de modèles temps réel provenant de toute une variété d’environnements de modélisation ;
  • ouverte et évolutive pour créer des modules de code personnalisés ou incorporer des interfaces utilisateurs personnalisées ;
  • Automatisation de test intégrée avec l’Éditeur de profil de stimulus ;
  • Intégration avec la bibliothèque d’E/S matérielles de NI, dont les FPGA, les réseaux embarqués, la vision industrielle, la mesure RF et toute une gamme de modules d’acquisition de données multifonctions.

Les Points essentiels

NI VeriStand s’enrichit de nouvelles fonctionnalités pour configurer et exécuter de façon efficace des applications de test temps réel, comme les simulateurs HIL (hardware-in-the-loop) et les systèmes de contrôle/commande de chambres d’essai.

Grâce à cette nouvelle version de NI VeriStand, les ingénieurs peuvent acquérir et analyser des données nettement plus rapidement qu’auparavant ; utiliser de nouveaux outils pour mettre à l’échelle, calibrer et conditionner des mesures afin de garantir la précision et d’améliorer la qualité des tests ; être efficaces immédiatement grâce à des utilitaires pour détecter automatiquement le matériel et configurer les voies de données.

Publié par Pierre Thouverez

La centrale de Tchernobyl reste une menace

Mineur. C’est l’adjectif utilisé par les autorités ukrainiennes pour qualifier l’incident, justifiant l’effondrement du toit et des murs par une quantité de neige trop importante qui aurait pesé trop lourd, il y a quelques semaines. Une explication qui soulève à nouveau la question de la sûreté du sarcophage, érigé dans l’urgence suite au drame du 26 avril 1986. Classé au niveau 7, soit le niveau maximum, la catastrophe nucléaire de Tchernobyl due à la fusion accidentelle du cœur d’un réacteur avait provoqué un rejet massif de particules radioactives dans l’atmosphère et la contamination des terres dans un rayon d’une centaine de kilomètres. Il s’agit à ce jour de la plus grande catastrophe nucléaire, devant celle de Fukushima en 2011.

Rappelons que ce drame  a été provoqué par une succession d’erreurs techniques  des responsables du site dont le respect des normes de sécurité n’était pas la priorité. C’est malheureusement en toute logique que la gestion de la crise fut tout aussi calamiteuse. La pose du sarcophage par des hommes mal protégés et qui ne pouvaient rester trop longtemps à leur poste (bien que le simple fait d’être là les ont exposé à des doses mortelles) laisse perplexe, sa solidité étant plus qu’incertaine.

Le bâtiment concerné par l’effondrement des murs et du toit est une salle des machines ne contenant pas de combustible. Le risque est néanmoins présent puisque cet espace est quand même contaminé et contient des particules radioactives.  L’effondrement d’une partie de cette enveloppe d’acier est inquiétant à double titre.

D’une part il confirme la fragilité de l’édifice, d’autre part il pourrait être le début d’une dégradation massive : fragilisés, les murs mitoyens pourraient eux-aussi s’effondrer. Le pire serait l’effondrement du sarcophage au niveau du réacteur car il contient la quasi-totalité des 190 tonnes de combustibles de l’époque.  L’isolement de la centrale ne serait alors plus assuré, et des particules radioactives s’en échapperaient, replongeant les populations locales dans un scénario catastrophe.

C’est justement pour éviter cela qu’un nouveau sarcophage est en cours de construction depuis l’année dernière, l’édifice devrait être achevé en 2015. 257 m de long pour 108m de hauteur, la nouvelle enveloppe assurera enfin le confinement de la centrale avec sérieux. Du fait de l’incident, les sociétés Bouygues et Vinci  ont stoppé leur travail, en attendant d’être sûres que le reste du toit ne va pas lui aussi céder.

Les autorités Ukrainiennes se veulent rassurantes, assurant n’avoir détecté aucune augmentation de la radioactivité.  Espérons qu’elles n’ont plus rien à voir avec ces autorités de l’époque qui faisaient défiler des enfants sur le site de la centrale le jour même de la catastrophe pour prouver au monde entier qu’il n’y avait rien à craindre…

Par Audrey Loubens, journaliste scientifique

 

Dans les bases documentaires

Catastrophe nucléaire sur le sol français : quelle facture?

Il y a quelques jours, l’Institut national de radioprotection et de sûreté nucléaire (IRSN) jetait un froid en annonçant que, si une catastrophe nucléaire semblable à celle de Fukushima survenait en France, celle-ci  pourrait coûter de l’ordre de 430 milliards d’euros. Les coûts indirects (impacts sur l’économie) étant d’ailleurs estimés plus élevés que les coûts directs (décontamination, indemnisation des victimes…). Certes, le chiffre peut sembler démesuré d’autant que la catastrophe de Fukushima résulte d’une suite d’évènements qui paraissent peu reproductibles dans l’hexagone (tremblement de terre et tsunami dans une région très industrielle et très peuplée, impéritie de l’opérateur Tepco….).

Mais faut-il vraiment s’étonner d’un tel montant et peut-on être vraiment assuré que ce scénario catastrophe ne se produira jamais en France ? A ces deux questions, la réponse est malheureusement non. L’histoire récente des catastrophes relevant de l’intervention  humaine montre que leurs coûts et leurs conséquences ne font que s’amplifier. Ainsi, Tchernobyl  a coûté plusieurs centaines de milliards de dollars et a précipité la faillite de l’Union Soviétique. Dans d’autres registres, les attaques contre le World Trade Center ont déclenché le conflit d’Afghanistan ; l’effondrement de mécanismes de titrisation de crédits « subprime » a provoqué une contagion sur le système bancaire mondial.

Des objets sans contrôle

L’homme invente des machines si complexes qu’il en perd le contrôle. Ces catastrophes si diverses dans leur nature ont de nombreux  points communs : un coût humain au niveau local, un coût de nuisances global et un coût psychologique de portée internationale avec de lourds impacts économiques qui dépassent tout ce que les responsables avaient pu imaginer. Elles résultent d’une course au gigantisme et à la technologie qui permet d’élaborer des objets d’une très grande complexité  (immeubles de grande hauteur, superpétroliers, A380, EPR…) et de vouloir rechercher une efficacité économique maximum.

Attention, l’idée n’est pas ici de remettre en question les innovations technologiques qui nous offrent la possibilité d’être mieux soigné, mieux éduqué et mieux informé.

Mais plutôt, de rappeler que ces objets  hors norme peuvent échapper au contrôle de leurs exploitants. Et l’on s’aperçoit alors que les conséquences sont sans commune mesure avec la fonction et l’utilité initiale de ces objets, allant parfois jusqu’à bouleverser les fragiles équilibres de l’ordre mondial. C’est pourquoi, l’histoire récente nous indique qu’il est ni possible ni raisonnable d’affirmer avec certitude que la France pourrait échapper à une catastrophe de l’ampleur de celle de Fukushima.

Apprendre à vivre avec le risque    

Mais s’en lamenter ou appeler à l’arrêt immédiat des centrales nucléaires en France ne résoudra pas le problème. Quelle que soit l’issue de ces débats, si issue il y a, il y aura de toute façon un parc existant de centrales nucléaires à gérer et toute transition vers des solutions moins risquées (comme la transition énergétique vers le renouvelable) sera lente et coûteuse à mettre en place. Se focaliser sur ce débat masque la nouvelle réalité de notre planète : dans un monde de 7 milliards d’habitants de plus en plus urbanisé, il n’est pas économiquement pensable de se passer des dernières avancées technologiques. Mais personne n’est à l’abri de leurs défaillances.

Même si nous choisissons de les écarter car nous ne sommes pas prêts à en supporter le risque, d’autres nations moins regardantes les appliqueront et le risque sera tout aussi présent. Ces catastrophes sont donc inéluctables et leur fréquence va aller en grandissant. Elles font désormais partie de notre modèle et il faut apprendre à vivre avec. Mais pas n’importe comment : d’abord en arrêtant de se mentir en prétendant qu’elles ne peuvent pas se produire chez nous. Ensuite, en imposant aux exploitants de ces objets un niveau de contrôle et d’exigence cohérent avec les conséquences. Enfin, en acceptant d’envisager le pire et d’anticiper les conséquences : à défaut de prévenir le risque, au moins doit-on en limiter les impacts et leurs conséquences.

Publié par Pierre Thouverez

Hublot d’inspection infra-rouge – FLIR série IRW

 

Facilité d’installation

L’installation des hublots IR FLIR est rapide et sûre. Elle utilise les mêmes raccordements que les conduites traditionnelles.

-Un trou suffit pour chaque hublot

-Un écrou annulaire PIRma-Lock™ suffit pour la fixation

-Utilise des poinçonneurs étasuniens standards pour la réalisation des trous

 

Fiabilité de PIRma-Lock™ 

La technologie de verrouillage est utilisée pour la première fois sur un hublot IR.

-Contient des dents qui assurent le verrouillage à l’intérieur du panneau

-Drainage automatique des composants métalliques

-Aucun risque de défaillance causé par un trou de vis

 

Capot articulé d’accès rapide 

Une simple molette permet de déverrouiller le capot articulé inamovible du hublot IR.

-Ouverture facile et instantanée, pour une inspection rapide

-Prévient les chutes et l’égarement des composants

-Une étiquette  interne pour une identification permanente du hublot

 

Hublot IR à cristal large bande 

L’optique est maintenue par un cadre robuste en aluminium anodisé, permet une inspection en intérieur ou en extérieur.

-Transmission des images IR à ondes courtes, moyennes et longues

-Permet les inspections visuelles et l’utilisation des fonctions Fusion

-Laisse passer l’éclairage et le pointeur laser

 

Amélioration de la productivité et du retour sur investissement

Réduit de manière significative la durée de l’inspection, pour des évaluations plus efficaces selon les directives NFPA 70E.

-Nécessite une seule personne au lieu de trois

-Permet de se passer des EPI encombrants

-Contribue à réduire la plupart des causes d’arcs électriques

 

Intégrité FLIR 

FLIR certifie ses hublots série IRW à l’aide d’essais complets et offre une garantie à vie.

-Respecte les normes et prescriptions UL, KEMA et TÜV

-Résiste aux arcs électriques, aux vibrations et à des taux d’humidité extrêmes

-Garantie à vie contre les défauts de fabrication

Demande d’informations

 

 

Caméra thermique de surveillance FLIR Série PT

L’utilisateur peut choisir une version dotée d’un microbolomètre non refroidi, à l’oxyde de vanadium, qui produit d’excellentes images de 640 × 480 pixels. Les utilisateurs qui n’ont pas besoin de cette grande qualité d’image peuvent choisir une version avec 320 × 240 pixels. Il existe aussi des modèles avec détecteur de 160 × 120 pixels. Avec plus de pixels, l’utilisateur peut voir plus de détails et détecter un plus grand nombre d’objets plus petits. Grâce à leur logiciel perfectionné, les caméras produisent une excellente image sans nécessiter de réglages de la part de l’utilisateur. Les images thermiques sont de grande qualité quelles que soient les conditions nocturnes ou diurnes.

La série PT comporte un mécanisme de précision pour son orientation selon deux axes. Il permet à l’utilisateur de tourner la caméra sur 360° en continu, et de l’incliner de +90° à –90°. Cela améliore considérablement la perception de la situation. Le système d’orientation possède 128 positions prédéfinies. C’est l’idéal si vous voulez scruter une zone de manière continue.

La série PT peut être raccordée à un système radar par un intégrateur. Si le radar détecte un objet, elle s’oriente automatiquement dans la direction indiquée et produit une image permettant de comprendre instantanément la signification de l’écho radar.

Toutes les versions sont équipées d’une caméra visible / haute sensibilité à longue portée. Les sorties vidéo des caméras thermique et visible / haute sensibilité sont disponibles simultanément. La caméra pour lumière visible possède un zoom optique 36×.

La série PT fournit des images très contrastées, grâce à une optimisation effectuée par le logiciel de traitement des images vidéo. La fonction Digital Detail Enhancement produit des images thermiques claires et bien contrastées quelles que soient les conditions atmosphériques.

Dotée d’un objectif de 100 mm, la PT-606 est conçue pour des applications de sécurité et de surveillance à moyenne portée. Elle possède un champ de vision de 6°. Elle vous permet de détecter une cible de taille humaine à plus de 2.4 km.

Dotée d’une optique « athermique », la série PT est capable de conserver la focalisation quelle que soit la température ambiante. L’utilisateur n’a besoin de faire aucun réglage.

La série PT est extrêmement robuste. Ses organes sont bien protégés contre l’eau et la poussière, avec un indice de protection IP66.

Les modules interchangeables de la caméra permettent un remplacement rapide de ses capteurs et de ses optiques, ou sa transformation en un modèle supérieur. Vous n’avez pas besoin de renvoyer votre caméra à l’usine pour améliorer sa qualité d’image ou sa portée. Vous pouvez le faire facilement vous-même, sur le terrain.

La série PT peut être intégrée à tout réseau TCP/IP existant, et être commandée par ordinateur. Aucun câble supplémentaire n’est nécessaire. Dans cette configuration, vous pouvez surveiller toute l’activité par le réseau, même à des milliers de kilomètres de distance.

Il suffit de connecter la série PT à un panneau de commande à distance, via le connecteur RS-232ou RS-422 Les commandes Pelco D ou Bosch sont utilisées pour les fonctions courantes. Un câble vidéo peut lui raccorder n’importe quel écran multifonction acceptant le format vidéo composite.

Il existe plusieurs canaux pour le flux de vidéo numérique, aux formats H.264, MPEG-4 et M-JPEG. Il est possible d’obtenir simultanément une sortie vidéo composite et numérique.

Chaque caméra série PT est livrée avec la version monocapteur du logiciel Sensor Manager de FLIR. Ce logiciel intuitif permet aux utilisateurs de gérer et de commander une caméra série PT dans un réseau TCP/IP.

Demande d’informations

Achetez une FLIR T640 ou T620 et bénéficiez d’un cadeau

 

Choisissez un des articles suivants :
 
FLIR i7 : compacte, robuste et légère
Pour vos inspections thermiques qui ne nécessitent pas les performances de la FLIR  T640 / FLIR T620
Gardez-la toujours dans votre boîte à outils
Prêtez la à un collègue pour les inspections rapides
 
Deux batteries supplémentaires chargeur inclus
Jusqu’à 5 h d’autonomie en plus pour vos inspections sur le terrain
Optimisez la durée de vie de vos batteries en réduisant leurs cycles de charge
 
iPad 3 (32 Go, portable, noir)
Transférez les images de votre FLIR T640 / FLIR T620 vers votre iPad, sans fil
Analysez les images thermiques directement sur votre iPad
Générez des rapports complets
Partagez et transférez les informations avec vos collègues, vos clients par email
Obtenez un avis, un conseil complémentaire
 
Validité
Cette offre est valable pour toutes les caméras thermiques FLIR T640 / FLIR T620 enregistrées entre le 1 janvier 2013 et le 30 juin 2013.
Cette offre est valable uniquement dans les pays de l’UE.
 
Comment recevoir l’article choisi ?
Enregistrez votre FLIR T640 / FLIR T620 dans le cadre du programme de garantie étendue. À réception de votre enregistrement, nous vous envoyons votre cadeau.
 
Où effectuer l’enregistrement ?
Enregistrez votre FLIR T640 / FLIR T620 sur www.flir.com
 
FLIR T640 / FLIR T620
Les caméras FLIR série T600 fournissent des images de qualité supérieure de 640 × 480 pixels, sur lesquelles les plus petits détails sont visibles. Elles sont extrêmement flexibles et répondent
à tous les besoins. Selon le modèle, elles sont dotées de fonctionnalités importantes telles que l’annotation sur l’écran et le Wi-Fi. La FLIR T640 comporte aussi la MSX (imagerie dynamique
multispectrale). Cette fonction novatrice fournit de très belles images thermiques, extrêmement détaillées.