Astuce du Web #10 : comment ouvrir deux comptes Gmail dans le même navigateur

Deux cas de figure : soit ces adresses ont des comptes différents (Gmail, yahoo, hotmail…), soit c’est le même. Quand les comptes mail varient, il suffit d’ouvrir un nouvel onglet et de se connecter. Mais dans le cas contraire, impossible d’ouvrir les deux comptes car par défaut, un même navigateur ne peut gérer qu’un seul compte à la fois. Vous pouvez toujours ouvrir une nouvelle fenêtre, dès que les pages se rafraîchiront, elles afficheront le même compte. Ce qui devient vite très énervant. La seule solution est d’utiliser deux  navigateurs différents, Explorer et Firefox par exemple, chacun gérant une adresse mail. A l’exception de ceux qui ont deux comptes Gmail. Les veinards peuvent gérer leurs deux messageries sous le même navigateur, dans deux fenêtres différentes. Pour cela, ouvrez un premier compte. Il vous suffit alors de cliquer (clic gauche) tout en haut à droite sur l’image de votre profil. Cela affiche une petite fenêtre qui détaille votre identité, vous propose de modifier votre photo, d’afficher votre profil. Mais ce qui vous intéresse est l’onglet en bas à gauche « Ajouter un compte ». Cliquez dessus pour ouvrir un nouvel onglet de connexion à Gmail. Il ne vous reste plus qu’à vous connecter sur votre deuxième compte. Vous pourrez ainsi accéder en même temps à vos deux comptes tout en restant sur le même navigateur. Les rafraichissements des pages concernent bien chaque compte indépendamment.

Par Audrey Loubens, journaliste scientifique

L’effet de conditionnement de Facebook

Voici quelques statistiques sociales étonnantes concernant les photos : plus de 250 milliards de photos ont déjà été téléchargées sur Facebook, avec une moyenne de 350 millions de photos par jour. Le téléchargement moyen par utilisateur est de 217 photos. Et ce n’est que pour Facebook ! Mark Zuckerberg a dépensé 1 milliard de dollars pour l’acquisition d’Instagram, qui atteint les quelques 55 millions de clichés téléchargés via son application chaque jour (c’est plus de 600 clichés par seconde).

Alors, que disent de nous tous ces téléchargements, outre le fait que nous aimons tous un bon «selfie» ? Les résultats d’une enquête récente ont révélé que lorsqu’on leur donne le choix, 74 % des répondants préfèrent protéger leurs photos personnelles que le terminal (téléphone portable, ordinateur portable ou tablette) sur lesquelles elles sont stockées. En fait, de tous les fichiers enregistrés sur leurs dispositifs, les consommateurs ont majoritairement déclaré qu’ils considéraient leurs photos personnelles comme les plus importantes.

Les albums photo appartiennent au passé, les nouvelles images se mettent directement sur les pages (sans poussière) des réseaux sociaux. Mais quelque chose de beaucoup plus profond et d’une plus grande envergure est en train de se passer : lorsque nous partageons des photos sur les réseaux sociaux basés dans le cloud, nous créons une deuxième copie de cette information – une copie partagée qui souvent, à l’heure actuelle, appartient à quelqu’un d’autre – même si ce n’est pas l’intention principale.

Nous appelons cela l’« Effet de conditionnement de Facebook » – l’idée que les réseaux sociaux font acte de sauvegarder au-delà de notre conscience. Le problème est que les images que nous voyons sur les réseaux sociaux sont souvent une copie de mauvaise qualité de nos photos, et ce, même si nous ne sommes pas au courant de ce fait. Et, le plus ironique dans l’histoire, c’est que même si nos « selfies » et photos de « fooding » sont stockés dans un second emplacement, bon nombre de nos documents beaucoup plus importants sont exposés à des risques. La bonne nouvelle est que l’action de télécharger et d’enregistrer une copie de ces fichiers numériques à un emplacement supplémentaire est en train de nous conditionner pour sauvegarder et protéger davantage nos données globales.

Pourquoi ne devrions-nous pas penser de cette façon ? Avec les récents progrès dans les technologies de cloud computing et l’expérience utilisateur, la sauvegarde des données est désormais aussi simple que d’appuyer sur le bouton « Envoyer ». C’est de cette manière que cela fonctionne sur Instagram, n’est-ce pas ?

Mais il y a tellement de données personnelles – les choses vraiment personnelles – qui ne sont pas sauvegardées correctement et sans risques. Pourquoi ? Pourquoi l’ensemble de nos données et non pas uniquement quelques-unes de nos photos personnelles ne seraient-elles pas stockées dans un univers numérique sans risques ? Qu’est-ce qui nous empêche de faire le grand saut depuis une tendance sociale vers une habitude saine englobant toutes les données, où tout est sauvegardé et protégé ?

La réponse la plus évidente résiderait dans le fait qu’il n’existe pas de Facebook pour vous rappeler de protéger les documents relatifs à vos impôts. Les jeunes entreprises font d’énormes progrès quant à la création de systèmes de stockage de données qui proposent une mise en forme facile à utiliser et un format comparable aux formats des sites de réseaux sociaux, mais les deux plus grandes d’entre elles combinées ont moins de 20 % du nombre d’utilisateurs de Facebook. Donc, s’il ne s’agit pas d’une question de simplicité, qu’est-ce qui empêche réellement l’effet de conditionnement de Facebook d’influer une transformation globale de nos comportements numériques ?

Le problème : vie privée et protection

Même si nous sommes devenus beaucoup plus aptes à enregistrer des fichiers non critiques dans le cloud, beaucoup d’entre nous n’ont pas encore sauvegardé la totalité de nos vies numériques, notamment en raison de la médiatisation récente d’un nombre de cas de violation de données qui ont mis en évidence notre principale préoccupation : nos données ne sont pas sûres quand elles ne sont pas manipulées directement par nous. Snapchat a été piraté et en un clin d’oeil des millions de numéros de téléphone ont été rendus publics. La violation relativement tapageuse de la cible a mis les informations personnelles de 70 millions de personnes en danger.

Ainsi, alors que nous continuons à télécharger chacun des photos que nous prenons, nous oublions ce qui est réellement important – nos documents de travail, informations bancaires, dossiers de santé et autres informations personnelles et professionnelles – dans de vieux classeurs et/ou dans des fichiers portant la mention « personnel » dans nos ordinateurs.

La clé est d’identifier et de séparer la « confidentialité des données » de la « protection des données ». Alors que la confidentialité des données se concentre davantage sur les problèmes juridiques et de sécurité concernant l’utilisation de données et de stockage, la protection des données a pour objet de préserver les informations après qu’elles aient été créées et enregistrées. Tous les utilisateurs d’appareils connectés à Internet devraient être plus conscients et en alerte lorsqu’il s’agit de la protection des données – comme la lecture attentive de tous les accords de confidentialité sur les sites et applications, ainsi que le partage d’informations qui ne révéleraient aucune information, en cas de fuite – , mais pas au détriment de la protection des données.

Lorsqu’il s’agit de la protection des données, le moyen le plus sûr est de les stocker dans plusieurs emplacements sécurisés. Tout comme nos photos vivent maintenant à la fois dans nos terminaux et sur Facebook, sauvegarder les informations personnelles importantes dans de multiples endroits (par exemple : un disque dur et sur le cloud computing, un lecteur de sauvegarde, etc.) devrait être naturel et évident. Pour faire simple, il suffit de penser à la règle 3-2-1 : garder trois copies des données importantes sur deux différents types de médias, et une copie sur un emplacement à distance. Rappelez-vous que lorsque les outils de base de stockage dans un environnement de cloud computing sont un bon point de départ, ils ne sont pas sans faille quand il s’agit de sécurité, de ce fait trouver le juste équilibre entre la sécurité et la simplicité est un élément clé du processus.

La Journée mondiale de la sauvegarde

La Journée mondiale de la sauvegarde a eu lieu le 31 mars 2014 et ce fut le moment idéal pour nous tous de réfléchir sur ce que nous mettons vraiment en danger en n’effectuant pas de sauvegarde de nos données. Des catastrophes naturelles ou d’origine humaine – des dégâts des eaux dus à des boissons renversées et des pannes de disques surviennent avec les dangers de la vie quotidienne, y compris l’exposition au soleil et les logiciels malveillants – se produisent tous les jours et peuvent mettre toutes nos informations en danger. S’il y a une chose utile sur les 351 minutes que nous passons tous en moyenne sur Facebook par mois qui peut nous être enseignee, c’est pourquoi nous ne passons pas juste une minute à protéger nos données en gardant des copies supplémentaires et en faisant une sauvegarde, et pas uniquement le 31 mars, mais tous les jours.

Par Nat Maple

En savoir plus sur Nat Maple : il rejoint Acronis en novembre 2012, et occupe le poste de vice-président et directeur général, de la division Global Consumer/SOHO, OEM and Online, après une carriere de haut dirigeant chez Symantec. Avant d’entrer chez Symantec, Nat Maple a occupé divers postes techniques chez Intel et Merisel. Il est originaire d’Australie et réside actuellement dans la région de San Francisco.

La Lune serait bien née d’une collision entre la Terre et un corps céleste

La plupart des planétologues pensent que la Lune s’est formée après un impact entre la Terre et un objet de la taille de Mars appelé Théia. Pour confirmer cette hypothèse, ils ont concentré leurs efforts sur la mesure des ratios d’isotopes d’oxygène, de titane, de silicium, ainsi que d’autres éléments.

Les scientifiques savent que ces ratios varient dans le système solaire, ce qui fait que la grande similarité entre ceux de la Terre et de la Lune contredit les modèles théoriques de la collision, selon lesquels la Lune serait surtout composée des matériaux venant de Théia, la rendant de ce fait différente de la Terre dans sa composition.

Un groupe de chercheurs allemands a effectué des nouvelles mesures, plus précises, de ces ratios d’isotopes sur la Terre et sur des échantillons lunaires ramenés par des missions Apollo.

« Les différences sont faibles et difficiles à détecter mais elles sont bien là », a affirmé Daniel Herwartz, géologue de l’université de Cologne en Allemagne.

Selon lui, ces résultats signifient qu’on « peut être raisonnablement sûr que cette collision géante a bien eu lieu, ce qui donne une idée de la composition géochimique de Théia ».

Théia semble avoir été similaire à une chondrite, une sorte de météorite pierreux. Si cela se confirmait, il serait alors possible, à partir de cette dernière analyse comparée des ratios d’isotope, de déterminer la composition géochimique et isotopique de la Lune, puisque cette dernière est un mélange de Théia et de la Terre à ses tous débuts.

« Le prochain objectif est d’établir la proportion de matériaux provenant de Théia se trouvant dans la Lune », explique Daniel Herwartz.

La plupart des modèles estiment que la Lune est formée de 70 à 90% de matériaux de Théia et de 10 à 30% de matériaux de la Terre. Toutefois, selon certains modèles, la Lune ne serait composée qu’à 8% de matériaux de Théia.

S’appuyant sur les données de cette nouvelle étude, M. Herwartz estime qu’il est possible que la Lune soit composée pour moitié de matériaux de Théia et pour l’autre moitié de matériaux terrestres.

Une recherche publiée en 2012 montrait un léger excès de « zinc lourd » découvert dans des roches lunaires rapportées par Apollo, autre preuve de la théorie de la collision, selon un autre auteur de l’étude, le Français Frédéric Moynier, de l’université Washington à Saint-Louis.

La collision a libéré tellement d’énergie que Théia a fondu, tout comme une grande partie de l’enveloppe terrestre, selon ce scientifique.

Une partie du nuage de roches vaporisées se serait de nouveau agrégée à la Terre et l’autre se serait solidifiée non loin de là, donnant naissance à la Lune.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Qualité de l’air en Europe: un classement place la France parmi les mauvais élèves

La méthode utilisée pour ce palmarès, mis en ligne mercredi, additionne le nombre de jours de l’année 2011 où les seuils réglementaires ont été dépassés pour trois polluants distincts: les particules PM 10, le dioxyde d’azote, ainsi que l’ozone, explique Respire sur son site internet.

L’étude fait globalement apparaître que les grandes villes du sud et de l’est de l’Europe ont un air moins pur (Milan est 96e et Varsovie 88e) alors que l’on respire mieux dans les villes du nord (Édimbourg est 2e, Manchester 5e, Rotterdam 21e).

La ville roumaine de Cluj-Napoca se classe première.

Pour établir son palmarès, Respire a utilisé la base de données Airbase qui regroupe les données de surveillance de la qualité de l’air provenant des réseaux des stations européennes.

« Il faut toutefois nuancer ce classement qui ne reflète pas toujours la réalité sur le terrain selon le nombre de stations dont les villes sont équipées ou encore leurs conditions géographiques et météorologiques », explique Sébastien Vray, président de Respire.

Ainsi la ville roumaine de Cluj-Napoca, si l’on se fie aux dépassements, est en tête du classement alors que ses « voisines » Bucarest et Timisoara pointent aux 60e et 66e places.

« Mais Cluj-Napoca ne possède que deux capteurs pour 320.000 habitants alors qu’il en faudrait trois ou quatre fois plus », relève Sébastien Vray.

« On peut distinguer trois blocs », commente l’expert Franck Laval, président de l’association Écologie sans frontières interrogé par l’AFP: « les pays de l’Est où la pollution est liée aux vieilles industries notamment charbonnières, le sud, dont la France, où elle est surtout d’origine automobile et les pays du Nord, mieux classés, où l’on roule moins au diesel et où les transports en communs sont très développés ».

La part « diesel » de l’ensemble du parc automobile français est d’environ 61%.

La France est actuellement dans le collimateur de la justice européenne pour non respect des valeurs limites de particules dans une quinzaine d’agglomérations.

Si elle était condamnée, la France encourrait une amende d’un montant de l’ordre de plusieurs dizaines de millions d’euros par an, jusqu’à ce que les normes de qualité de l’air soient respectées. Un autre contentieux semble très probable pour les dioxydes d’azote.

La pollution atmosphérique a été classée cancérigène certain fin 2013 par l’Organisation mondiale de la Santé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Une LED composée d’une unique molécule

Il sera difficile de faire plus petit ! La source lumineuse ponctuelle mise au point par des chercheurs de l’IPCMS de Strasbourg, en collaboration avec une équipe de l’Institut Parisien de Chimie Moléculaire (CNRS/UPMC) fonctionne à partir d’un brin de polythiophène.

Il s’agit d’un conducteur composé d’hydrogène, de carbone et de soufre. Fixé à la pointe d’un microscope à effet tunnel, le brin émet de la lumière quand les électrons se déplacent de la pointe du microscope vers la surface en or situé de l’autre côté. En revanche, si le sens de déplacement des électrons s’inverse, alors il n’y a quasiment plus d’émission de lumière.

Un mode de fonctionnement identique à celui d’une LED, le polythiophène étant d’ailleurs un matériau utilisé dans la fabrication des LEDs  à usage commercial et aux dimensions plus importantes.

Pour bien comprendre les phénomènes mis en jeu, les scientifiques ont fait appel à leur confrères du Service de physique de l’état condensé (CNRS-CEA/IRAMIS/SPEC), spécialistes de la physique théorique. Ces derniers ont démontré que l’émission de lumière provient de la recombinaison d’un électron avec un trou à l’intérieur du brin de polythiophène, émettant ainsi un photon.

L’équipe  a comptabilisé un photon émis tous les 100 000 électrons recombinés dans le nanofil, photon dont la longueur d’onde se situe dans le rouge.

Ce dispositif, source de lumière ponctuelle, est un nouvel outil à disposition des chercheurs pour mieux comprendre les interactions matière-lumière, et est un nouveau pas en avant vers le concept de l’ordinateur moléculaire.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Des services secrets « anglo-saxons » ont averti Airbus d’une cyber-attaque

M. Enders, à la tête du géant européen de l’aéronautique et de la défense, a avoué lors d’une table ronde à Caen en France avoir été « naïf » en matière de sécurité jusqu’à il y a deux ans, « parce que ma société n’avait pas encore été attaquée ».

« Il y a deux ans, elle l’a été, une attaque massive. Qui nous a donné l’information, qui nous a prévenus ? Les services de renseignements anglo-saxons, pas les Français ni les Allemands », a souligné M. Enders lors d’une discussion sur les écoutes des services secrets et le droit à la vie privée.

Pour lui, le gouvernement américain a commis une erreur ne communiquant pas sur les attaques que ses services d’écoutes ont permis de déjouer.

Les révélations sur les programmes d’écoutes de la NSA américaine ont provoqué un scandale dans le monde en 2013.

EADS avait reconnu en 2012 avoir été l’objet d’une cyber-attaque grave et annoncé dans la foulée que sa priorité serait désormais sa propre protection. Le groupe assure en outre des services de cybersécurité pour le compte de la Grande-Bretagne, de la France, de l’Allemagne et au Proche-Orient.

M. Enders n’a pas dévoilé l’origine de cette attaque mais les Etats-Unis accusent ouvertement la Chine de cyber espionnage. Les experts soupçonnent notamment que la Chine s’est procuré il y a plusieurs années les plans de l’avion de combat F35 de l’américain Lockheed Martin.

pmr/dlm/ih/thm/jeb

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La valeur de la haute mer pour le climat pourrait dépasser 200 Mds de dollars (analyse)

L’étude, réalisée par des scientifiques à la demande de la Commission Océan mondial, une organisation indépendante notamment portée par l’ONG Pew, identifie quinze services rendus à l’homme par la haute mer, ces zones océaniques situées au-delà des zones économiques exclusives (ZEE) nationales.

Ces services ont trait à l’approvisionnement de l’humanité (poissons, ressources génétiques), à la régulation de l’environnement (purification de l’air, séquestration du carbone), à la protection du patrimoine génétique ou plus simplement aux loisirs, souligne cette organisation.

En termes de régulation climatique, les écosystèmes de la haute mer, qui couvre 64% de la surface globale des océans, séquestreraient ainsi environ 500 millions de tonnes de carbone chaque année, soit l’équivalent de plus de 1,5 milliard de tonnes de dioxyde de carbone (CO2) retiré de l’atmosphère.

Les océans séquestrent le carbone notamment à travers sa « fixation » par le phytoplancton sous forme de photosynthèse.

En se basant sur la valeur donnée par l’administration américaine au « coût social » du carbone — c’est-à-dire à l’évaluation du coût qu’aurait l’émission d’une tonne additionnelle de carbone, par exemple sur le secteur agricole –, l’étude chiffre entre 74 et 222 milliards de dollars par an la valeur du service ainsi rendu par la haute mer pour notre climat.

« Cette étude rend visible l’invisible et nous pouvons désormais voir et évaluer de façon plus claire ce que nous risquons de perdre si nous ne prenons pas de mesures pour protéger la haute mer », souligne dans un communiqué Trevor Manuel, co-président de cette organisation.

En matière de pêche, l’étude estime que près de « 10 millions de tonnes de poisson sont pêchées chaque année en zones de haute mer, générant plus de 16 milliards de dollars au débarquement ».

Toutefois, selon ses auteurs, les professeurs Alex Rogers du Somerville College de l’Université d’Oxford (Royaume-Uni) et Rashid Sumaila de l’Université de Colombie-Britannique (Canada), ce chiffre ne résume pas la valeur de la haute mer pour le secteur de la pêche, étant donné le rôle important de ces zones pour « le maintien et la reconstitution » des populations de poissons capturées sur les côtes.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le CEA, véritable machine à brevets

En intégrant le top 3 des déposants de brevets, le Commissariat à l’énergie atomique et aux énergies alternatives(CEA) prouve sa réussite dans sa mission transfert de connaissances scientifiques pour le développement de l’innovation.  Plus précisément, parmi les 754 demandes, 625 ont été publiées en 2013. C’est mieux que le CNRS, 7ème avec 408 demandes publiées ou encore que l’IFP Energies Nouvelles en 13ème position avec 188 publications de brevets. Ce leadership reste valable à l’échelle européenne, puisque le CEA est le 33ème déposant auprès de l’Office européen des brevets et le premier organisme de recherche.

Les trois domaines les plus prolifiques sont la micro-nanoélectronique, les technologies logicielles (systèmes embarqués, capteurs, traitement du signal…) et les énergies renouvelables, notamment les thématiques traitant du solaire, des batteries et de l’hydrogène.

Pour tenir un tel rythme, le CEA a mis en place depuis plusieurs années de nombreux outils, comme un plan de production piloté de brevets, une sensibilisation des chercheurs au dépôt de brevet, même ceux travaillant en recherche fondamentale. Lorsque certains travaux sont identifiés comme valorisables, ils sont formalisés et protégés. 

Le CEA dispose aussi de professionnels de la rédaction de brevets. En 2013, le budget « brevets » était de 28 millions d’euros. Une politique qui a un coût donc, mais nécessaire pour gagner la confiance des partenaires, les rassurer… et en trouver de nouveaux. Les brevets servent d’instrument de mise en visibilité, de quoi augmenter l’attractivité du CEA auprès des industriels, et leur garantir une recherche sécurisée. L’exclusivité issue du brevet est cruciale pour les partenaires industriels. De plus, le caractère internationale de la recherche impose de se rendre visible au niveau mondial, les brevets offrant à la fois cette visibilité essentielle tout en prouvant la capacité du CEA à innover, sécuriser et transférer des technologies.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les biocarburants utilisés en Europe accélèrent la déforestation

L’empreinte mondiale provoquée par la demande européenne en bioénergie équivalait en 2010 à la taille de la Suède, révèle le rapport de l’université de Vienne « A calculation of the EU bioenergy land footprint ».

« Les objectifs politiques en matière de bioénergie devraient nécessiter l’expansion des terres [destinées à la culture de bioénergie] équivalant à la superficie de la Pologne d’ici 2030 ». « Cette expansion est fortement liée aux objectifs européens en matière d’énergie pour 2020. »

Parmi ses objectifs à l’horizon 2020, l’UE compte produire 20 % de son mix énergétique à partir d’énergies renouvelables. Dans l’ensemble de l’Union, près de deux tiers des énergies renouvelables provenaient de la biomasse en 2010. Bruxelles affiche également une autre ambition : 10 % du carburant destiné au transport devrait provenir des énergies renouvelables d’ici 2020, dont la majeure partie provient de biocarburants. Les États membres doivent pourtant toujours discuter en détail des règles visant à prendre en compte les éventuels effets indirects sur l’affectation des sols.

Le rapport indique que l’utilisation de biocarburants en Europe se stabilisera entre 2020 et 2030. Ces conclusions se basent sur des projections de l’UE quant à l’utilisation de biomasse, si aucune autre mesure de réduction des émissions n’est mise en place. Il en ressort que d’ici 2030, la biomasse représentera 40 millions d’hectares, les biocarburants 11 millions et les cultures consacrées à la bioénergie constitueront le reste.

Au total, cela représentera 70,2 millions d’hectares, soit « trois fois plus la taille du Royaume-Uni », selon les Amis de la Terre qui ont commandé le rapport.

Une hausse importante de la concurrence s’en suivra « étant donné qu’il n’existe pour l’instant aucun mécanisme de sauvegarde adéquat et contrôlable sur la durabilité afin d’éviter la dégradation continue de l’écosystème provoquée par la consommation de bioénergie dans l’UE. »

La bioénergie est la plus grande source d’énergie renouvelable : elle représente 10 % de l’approvisionnement mondial. Certains craignent pourtant que la biomasse provenant de pays qui n’ont pas ratifié le protocole de Kyoto, comme les États-Unis, puisse provoquer des pratiques non respectueuses de l’environnement, voire la déforestation.

Une enquête menée par le Wall Street Journal a mis au jour l’année dernière l’abattage illégal des forêts américaines destinées pour la biomasse dans l’Europe. L’UE elle-même estime que cette pratique est illégale.

Lors de la récolte de la biomasse, les brindilles et feuilles tombées, les résidus agricoles ainsi que les autres déchets en fin de vie peuvent être des sources précieuses d’énergie renouvelable.

La combustion d’arbres n’est pas inoffensive

La combustion d’un arbre afin de produire de la bioénergie sous la forme de granulés ou de copeaux libère tout le carbone absorbé par l’arbre au cours de sa vie. Du coup, l’environnement est capable de combler stocker moins de CO2 jusqu’à ce qu’un arbre soit replanté et arrive totalement à maturation.

Le 22 mai, l’Agence américaine pour l’information sur l’énergie a indiqué que les exportations de granulés de bois américains ont presque doublé l’année dernière pour atteindre près de 3 millions de tonnes. Environ 98 % de ces exportations ont été livrées en Europe et 99 % de ces produits transitaient par les ports du sud-est des États-Unis et de la région inférieure du Mid-atlantic, sur la côte Est.

L’Institut pour une politique européenne de l’environnement (IEEP), l’International Institute for Sustainability Analysis and Strategy, l’Institut européen des forêts et Joanneum Research ont publié d’autres études sur le sujet. Ils sont arrivés à la même conclusion : la demande prévue en biomasse ligneuse serait supérieure à l’approvisionnement durable.

Le rapport de l’IEEP révèle que seulement 1,3 million d’hectares de terres en Europe pourraient être utilisés pour des cultures énergétiques sans devoir déplacer la production alimentaire ou endommager les habitats précieux.

« La combustion des arbres dans nos centrales énergétiques est une catastrophe », indique Robbie Blake, chargé de campagne pour les biocarburants pour les Amis de la Terre Europe. « La bioénergie contribue à la réduction des émissions, mais on devrait se concentrer sur l’utilisation de déchets plutôt que sur la combustion d’arbres et sur les cultures vivrières. »

La sécurité énergétique sur le devant de la scène

La biomasse a pris de plus en plus d’ampleur dans le calendrier politique étant donné que l’UE se concentre plus sur la sécurisation des sources nationales, ce qui permettrait de réduire la demande en importation.

D’après les rapports, la bioénergie s’est avérée particulièrement populaire dans les centrales à charbon au Royaume-Uni puisqu’il est aisé de changer de type d’approvisionnement dans ce genre de centrale.

Alors que les leaders européens ont tenté de trouver une solution à la crise ukrainienne le mois dernier, Jasmin Battista, membre du cabinet du commissaire en charge de l’énergie, Günther Oettinger, a confirmé que la mise en place de critères pour évaluer le développement durable serait reportée à l’après-2020.Les États producteurs de biomasse, dont la Finlande et la Suède, sont réputés pour s’être farouchement opposés à des règles strictes pour comptabiliser l’émission de carbone.

Un fonctionnaire de l’UE a expliqué à EurActiv qu’« aucune consultation » n’avait eu lieu avec les agents en charge du dossier avant de faire l’annonce. « Nous avons été mis au courant par la presse », indique la source.

La déclaration de Jasmin Battista est survenue alors que des scientifiques de l’UE venaient de découvrir que le biocarburant pourrait en réalité augmenter les émissions de carbone, en raison de l’incapacité à contrôler et à expliquer les émissions libérées à la source.

Jonas Helseth, directeur des politiques européennes de Bellona, une fondation qui fait la promotion de l’utilisation durable de la biomasse, a affirmé que les discussions avec les fonctionnaires européens l’avaient convaincu que le biocarburant était un contrepoids nécessaire à la hausse de l’utilisation de charbon au sein de l’UE.

Solutions au bilan carbone négatif

« Je pense que la question de la sécurité énergétique prend le dessus sur tout le reste alors que la biomasse est évidemment l’une des ressources énergétiques les plus abondantes sur le territoire européen », a-t-il expliqué EurActiv. « Nous devons nous reconcentrer sur la réduction de la dépendance vis-à-vis du gaz ainsi que sur des objectifs à long terme en matière de lutte contre le changement climatique. »

Selon Bellona, le cinquième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a provoqué ce changement de priorités. D’après le rapport, l’utilisation de la biomasse, accompagnée de la technologie du captage et stockage du dioxyde de carbone, apporte une solution à bilan carbone négatif qui permet de diminuer les émissions nettes de carbone.

Ces conclusions ont irrité les défenseurs de l’environnement. Ils redoutent le passage à des stratégies de géoingénierie destinées à la lutte contre le changement climatique dont les effets ne sont pas prouvés pour l’instant.

Jonas Helseth a admis que l’absence de critères en matière de développement durable pour la biomasse ligneuse le préoccupait.« Il va sans dire que l’importation de biomasse provenant des forêts tropicales n’est pas une source d’énergie durable », a-t-il assuré.« Il en va de même pour l’importation de granulés de bois venant de Caroline du Sud où les méthodes [d’exploitation] ne sont pas durables ».

« Si l’Europe n’est pas en mesure de garantir que les critères de développement durable soient mis en place et testés, alors l’ensemble du débat sur le climat pourrait être mis en péril et tout espoir d’avoir des émissions à bilan carbone négatif avec le CSC est impossible. »

PROCHAINES ÉTAPES :
2020 : date butoir à laquelle 20% du mix énergétique des États membres doit être issu d’énergies renouvelables

Par Arthur Neslen, EurActiv.com
Traduction de l’anglais par Aubry Touriel 

Et aussi dans les
ressources documentaires :

Carlos Ghosn voit des voitures autonomes en Europe en 2020

Pour lui, la voiture autonome permettrait d’améliorer la sécurité sur les routes, mais aussi de fluidifier la circulation et de permettre au conducteur de consacrer son temps en voiture à d’autres tâches, a-t-il expliqué devant un parterre de journalistes et de représentants du secteur automobile.

« Plus que la faisabilité technique, c’est la résolution des problèmes de législation et de responsabilité qui va prendre un petit peu de temps », a estimé Carlos Ghosn. « On peut établir la séquence actuelle: 2018, premiers véhicules sur les routes dans les pays pionniers que sont aujourd’hui les États-Unis, le Japon et la France. 2020 c’est un début de commercialisation en Europe », a poursuivi le numéro un de Renault.

Ce calendrier s’applique au cas de figure où un conducteur reste présent dans le véhicule, même s’il n’est pas toujours aux commandes. Concernant l’hypothèse où une voiture se déplace seule d’un point à un autre, « c’est beaucoup plus lointain » dans le temps, a-t-il jugé.

Google, qui travaille sur la voiture sans chauffeur, vient d’annoncer qu’il va construire son propre modèle, qu’il espère lancer sur les routes dans les prochaines années.

Pour autant, Carlos Ghosn n’y voit pas un concurrent direct pour les constructeurs automobiles. Si un géant de l’informatique comme le Californien ou encore son compatriote Apple voulait se lancer dans l’auto, il pourrait le faire en rachetant un constructeur, a expliqué le patron de Renault et du Japonais Nissan.

« Je ne pense pas » qu’ils le fassent, a indiqué Carlos Ghosn. L’automobile « est un métier » qu’il faut bien connaître « pour le faire vivre ». Autre argument, les marges dans la branche automobile, comparées à celles des géants de l’internet, sont faibles, a-t-il fait valoir. « Pour entrer dans l’automobile, il faut être frugal, il faut accepter beaucoup de travail et peu de profits, ce qui n’est pas forcément la direction de ces entreprises qui sont habituées à beaucoup d’innovation et de marges », a-t-il plaisanté.

 

Les réseaux électriques pour EnR meilleurs marché que les gazoducs

Mike Jacobs, analyste énergie & climat au sein de l’organisation UCS (Union of Concerned Scientists) a comparé les investissements nécessaires pour que les USA passent à un mix électrique 80% renouvelable avec ceux que l’industrie gazière appelle de ses vœux aux USA. Sa conclusion est que la première option est meilleure marché que la seconde.

L’America’s Natural Gas Alliance et la fondation INGAA ont estimé qu’il faudra investir 614 milliards de dollars durant les 20 ans à venir pour installer de nouveaux gazoducs aux USA et au Canada. Ce qui est équivalent à 14 milliards de dollars par an.

Une étude de l’EIPC (Eastern Interconnection Planning Collaborative) conclut que couvrir avec un grand réseau électrique pour EnR les 39 états de l’est américain, où habitent 220 millions de personnes soit 70% de la population des USA, coûtera 100 milliards de dollars. Et que cela permettra de réduire de 80% les émissions de CO2 d’ici 2050.

Une étude de GE Energy Consulting pour le gestionnaire de réseau PJM Interconnection qui couvre 13 états américains (61 millions de personnes, soit presque autant que la France) estime que le coût de la transmission pour atteindre 30% de renouvelables dès 2026 sera de 13.7 milliards de dollars et permettra une réduction de 40% des émissions de CO2.

Gaz de schiste ou énergie solaire, l’heure du choix

Les USA ont développé massivement ces dernières années la technologie d’extraction du gaz de schiste par fracturation hydraulique, ce qui a fait baisser le prix du gaz sur le marché. L’abondante production de gaz naturel a conduit à une telle baisse du prix du gaz que les producteurs produisent aujourd’hui à perte.

Les prix ont cependant déjà commencé à remonter et certains experts estiment que le gaz de schiste est une bulle qui va se dégonfler dès que les prix auront atteint un niveau compatible avec la rentabilité des projets.

Le gaz de schiste, s’il est préférable au charbon au niveau du bilan CO2, a cependant un bilan environnemental et sanitaire bien moins bon que celui de l’éolien ou du solaire. Et il s’agit d’une ressource non infinie.

Les USA s’apprêtent à construire le 4ème tronçon de l’énorme oléoduc Keystone XL, un projet vivement contesté.

Découverte d’une planète « Godzilla », 17 fois plus lourde que la Terre

Cette planète solide de composition rocheuse, située à 560 années-lumière de la Terre, a été découverte par la mission Kepler de l’agence spatiale américaine (Nasa), ont annoncé lundi des experts lors d’une rencontre à Boston (Massachusetts, nord-est) de l’American Astronomical Society.

Cette méga-planète, nommée Kepler-10c, a un diamètre de 29.000 kilomètres, soit 2,3 fois celui de la Terre.

« La surprise fut totale quand nous avons réalisé ce que nous avions trouvé », a rapporté l’astronome Xavier Dumusque, du centre d’astrophysique Harvard-Smithsonian.

Jusqu’à présent, les astronomes n’envisageaient pas l’existence d’un tel « monstre rocheux », car plus la planète est grande, plus son attraction gravitationnelle lui fait amasser non seulement des matériaux solides, mais aussi et surtout de grandes quantités d’hydrogène, la transformant en planète géante gazeuse, comme Jupiter.

« C’est le Godzilla des Terre! » s’est exclamé Dimitar Sasselov, directeur du projet sur les origines de la vie à l’université de Harvard (Harvard Origins of Life Initiative). « Mais contrairement au monstre du film, Kepler-10c a des implications positives pour la vie », selon lui.

La mission Kepler de la Nasa peut seulement repérer des planètes mais elle ne peut pas vraiment dire si elles sont gazeuses ou rocheuses.

La taille imposante de « Godzilla » suggérait plutôt une planète de type « mini-Neptune », plus grande que la Terre avec une épaisse enveloppe d’hydrogène et d’hélium.

Or un télescope situé sur les îles Canaries a pu déterminer que cette méga-planète avait une masse 17 fois supérieure à celle de la Terre, soit bien davantage que ce qui était attendu.

« Kepler-10c a dû conserver son atmosphère au cours de son existence, car la planète est suffisamment massive pour que l’atmosphère ne puisse s’échapper », a expliqué M. Dumusque.

Kepler-10c, qui tourne autour d’une étoile similaire au Soleil en 45 jours, semble toutefois trop chaude pour que la vie ait pu y perdurer.

Mais cette méga-planète démontre que l’Univers était capable de créer de grandes planètes rocheuses même à une époque où les éléments lourds nécessaires, comme le silicium et le fer, étaient rares (l’Univers primitif ne contenait que de l’hydrogène et de l’hélium).

Elle appartient au système de Kepler-10, qui comprend aussi une autre planète nommée Kepler-10b. Ce système est âgé d’environ 11 milliards d’années, ce qui signifie qu’il s’est formé moins de 3 milliards d’années après le Big Bang, selon les scientifiques.

« La découverte de Kepler-10c est la preuve que des planètes de type terrestre se sont formées très tôt dans l’histoire de l’Univers. Et qui dit planète rocheuse dit possibilité d’apparition de la vie », suggère M. Sasselov.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Delta commande quinze A321 à Airbus, un contrat estimé à 1,2 milliard d’euros

La valeur de ce contrat, d’après la grille indicative de prix d’Airbus, est estimée à 1,65 milliard de dollars environ, soit 1,2 milliard d’euros.

La commande porte sur des A321 ceo (pour « current engine option », c’est-à-dire des appareils disposant d’une motorisation classique, par opposition à l’A321 neo, modèle doté de moteurs consommant moins de carburant et qui entrera en service l’an prochain), a précisé Airbus dans un communiqué.

Ces avions, qui seront livrés à Delta à partir de 2018, seront dotés de moteurs fabriqués par CFM, coentreprise entre le fabricant français Snecma (groupe Safran) et l’américain General Electric.

Comme le rappelle le constructeur européen dans son communiqué, Delta Air Lines, qui est une des principales compagnies aériennes américaines, exploite déjà une importante flotte d’Airbus, dont 126 appareils de la famille A320 et 32 de la catégorie A330. Ce nouvel achat porte à 55 le nombre d’Airbus actuellement en commande par Delta, dont 45 A321 et 10 A330.

Bien que Delta ait préféré Airbus à son rival américain Boeing, il s’agira d’appareils en partie « Made in USA ». Airbus a précisé en effet que nombre de ces avions seraient assemblés sur son site flambant neuf de Mobile, dans l’Alabama (sud des États-Unis). L’usine a commencé à recruter des employés et l’assemblage d’avions y démarrera l’an prochain, en vue d’atteindre une cadence de production de quatre appareils par mois en 2017.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Selon Cedigaz : « le délaissement du gaz menace la sécurité énergétique de l’Europe »

Cedigaz met en avant un « paradoxe », dans une étude publiée lundi: le gaz naturel offre de nombreux avantages par rapport au charbon, comme une meilleure efficacité énergétique, des rejets de CO2 moindres et une production plus flexible, mais sa compétitivité est mise à mal par l’effondrement des prix du charbon (exporté à bas prix des Etats-Unis, où se développe le gaz de schiste), et la montée en puissance des énergies renouvelables.

« Divers facteurs, dont une faible demande électrique, le développement rapide des sources d’énergies renouvelables, la chute des prix de gros de l’électricité, la cherté des prix du gaz par rapport au charbon et la faiblesse des cours du CO2, ont érodé la compétitivité du gaz naturel dans le secteur électrique européen », souligne le document.

La part du gaz dans le bouquet énergétique de l’Union européenne est ainsi passée de 23,6% en 2010 à 19% en 2012, et « la consommation de gaz par les producteurs d’électricité a diminué de 51 milliards de m3 », un recul équivalent à l’ensemble de la consommation annuelle de gaz en France.

Dans le même temps, le secteur énergétique a consommé 10% de charbon en plus, la plus polluante des énergies fossiles.

Conséquence: les centrales à gaz à cycle combiné, dont le coût marginal est élevé, ont été délaissées au profit d’autres moyens de production d’électricité. Ainsi, 25 gigawatts de capacités de production ont été arrêtés, fermés ou étaient menacés de l’être à la fin 2013, selon Cedigaz.

« Au total, près de 30% des capacités de production au gaz pourraient être fermées ou mises en sommeil d’ici à 2015-2016 », souligne l’association professionnelle.

« Cela pose un sérieux problème de sécurité d’approvisionnement énergétique auquel il convient de répondre de manière urgente », prévient-elle.

« L’avantage compétitif du charbon pourrait se maintenir au cours des dix prochaines années à moins d’une réforme structurelle du marché des quotas de CO2 pour permettre une remontée des prix du CO2 » (ce qui rendrait le charbon plus onéreux), estime Cedigaz, qui plaide aussi pour une révision à la baisse des prix du gaz.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Tepco va construire un mur pour empêcher la pollution des eaux circulant sous le site de Fukushima

Parmi les conséquences environnementales de la catastrophe de Fukushima, la pollution de l’océan pacifique par des fuites d’eau radioactive est une préoccupation majeure. A ce jour, ce sont 435 000 m3 d’eau radioactive qui sont stockées sur le site à l’intérieur de réservoirs géants. Les responsables de Tepco peinent à contenir cette immense quantité d’eau, construisant chaque mois des dizaines de nouveaux contenants pour ne pas déverser cette eau dans la nature. A l’eau de refroidissement vient s’ajouter l’eau naturelle présente au voisinage du site de Fukushima. Cette eau s’écoule sous la centrale,  rentre en contact avec l’eau radioactive utilisée pour assurer le refroidissement des réacteurs, et se retrouve contaminée. Tecpco doit donc en assurer aussi le stockage. En attendant de savoir quoi faire de l’eau radioactive, Tepco va tenter d’enrayer la déferlante d’eau d’origine naturelle de façon à contenir les quantités d’eau polluée. 

Pour empêcher l’eau saine de rentrer sur le site, Tepco a proposé  de fabriquer une barrière artificielle. Celle-ci prendra la forme d’un mur de glace, monté grâce à du liquide réfrigérant qui sera introduit dans le réseau de canalisations actuel. L’Autorité de sûreté nucléaire vient de donner son accord au projet qui va débuter dans les semaines qui viennent. Avec ce mur de glace, Tepco va mettre un terme à l’aggravation du problème de stockage de l’eau radioactive, mais en aucun cas le résoudre. Espérons que ce gain de temps sera mis à profit pour établir des solutions pérennes. 

L’accident nucléaire de Fukushima  suite à un Tsunami date de plus de trois ans. Classé comme accident nucléaire majeur de niveau 7, niveau le plus élevé, ce drame a mis un terme à l’investissement du Japon dans l’énergie nucléaire. Le démantèlement de la centrale de Fukushima est estimé à une quarantaine d’années.

Par Audrey Loubens, journaliste scientifique

Le textile moteur d’innovation pour les technologies high-tech

Intégrer des technologies high-tech dans le substrat textile

La quête de fibres hautes performances motive des partenariats entre des entreprises à fort potentiel technologique et des experts en fibres, et de ce ferment émergent de nouvelles technologies encore plus avancées. Le besoin en matériaux textiles hightech se fait croissant car ils répondent aux changements de notre environnement social. Si la dernière décennie a mis en évidence les atouts des nanomatériaux qui offrent des fonctionnalités révolutionnaires, le textile sera peut-être à l’origine d’une nouvelle révolution technologique.

Nanotechnologies et fibres

La structuration à l’échelle nanométrique améliore certaines fonctions cruciales (conductivité, action antibactérienne, résistance au feu), avec la diminution de la taille des composants, l’augmentation des superficies et des interfaces opérationnelles, le renforcement des interactions entre les matériaux. Les nanofibres ouvrent la voie à de nouvelles applications high-tech. Leur faible densité, leur large zone de surface, leur grand volume poreux leur confèrent des atouts incontestables par rapport aux autres fibres utilisées pour les non-tissés, tout spécialement dans la filtration. Aujourd’hui, il reste encore de nombreux freins à la production de nanofibres, car les processus pour les fabriquer sont très coûteux et l’incidence écologique reste à évaluer.

Biotechnologies et techniques textiles

Les biotechnologies intègrent le domaine du textile et cette coopération rapprochée est source de projets innovants. En biomédecine, les textiles se prêtent à l’ingénierie tissulaire, la réparation des plaies et les implants. Les biologistes et les ingénieurs travaillent de près pour développer des biomatériaux fibreux 3D résorbables et adaptables à la physiologie du patient. Les techniques textiles traditionnelles comme le tricotage, le tissage et le tressage sont utilisées avec des fibres PEEK. Les ingénieurs textiles peuvent doser la flexibilité du tissu en fonction de l’objectif thérapeutique souhaité. Chaque structure géométrique confère des propriétés mécaniques et physiques, permettant d’obtenir ainsi un matériau plus poreux ou au contraire un effet barrière. Les polymères, les métaux et les filaments de matière biologique peuvent constituer une structure textile composite correspondant exactement aux caractéristiques voulues et conforme au traitement biologique.

L’électronique organique dans le textile

L’électronique organique pourrait être une révolution technologique pour produire des semi-conducteurs plus écologiques et à moindre coût, dotés de propriétés élargies, notamment pour l’énergie, l’affichage et l’éclairage [105]. On pourrait ainsi concevoir des circuits flexibles insérables dans les vêtements, des panneaux photovoltaïques organiques (OPV), ou encore des solutions d’affichage ou d’éclairage par diodes électroluminescentes organiques (OLED), voire des composants électroniques transistors (OTFT). Un des atouts des polymères semiconducteurs est de pouvoir être mis en forme par des techniques d’impressions sur des substrats flexibles de grande dimension par électronique imprimée. Les investissements et les coûts sont aussi infiniment plus faibles que dans la filière silicium. L’électronique organique devrait représenter un secteur d’activités de 30 milliards de dollars en 2015 [106], poussée par le besoin d’économie d’énergie et de métaux rares, dans l’électronique. De nouvelles applications devraient voir le jour dans des secteurs comme la santé, le vêtement, l’édition, l’emballage, mais l’aspect écologique devra d’abord être étudié de près.

Le textile pour de nouveaux modes de communication sensibles

Les nouveaux matériaux textiles vont contribuer au défi de la dématérialisation, idéal de notre société de consommation boulimique. La progression continuelle de la miniaturisation des composants électroniques toujours plus puissants va permettre d’incorporer ces éléments dans le textile et de concevoir des dispositifs TIC que l’on portera sur soi. Le textile permettra peut-être de nouveaux modes de communication sensibles, dans le prolongement des ordinateurs portables. On voit déjà émerger le concept de « wearable computer », en prise avec tous nos sens. La prochaine génération de textiles intelligents inclura un système autonome de génération d’énergie, dérivée du soleil, du mouvement, voire des fluctuations de température. Ils sentiront notre présence, contrôleront notre santé et s’adapteront à nos besoins individuels. Ces smart textiles pourront être vus comme une « seconde peau » où les technologies embarquées permettront d’amplifier les caractéristiques cognitives de nos sens. Le calcul et la manipulation de données pourraient créer des expériences visuelles ou tactiles transmises à distance au porteur du vêtement intelligent. Tout comme pour le smartphone, le marché nécessitera d’élaborer des textiles intelligents capables d’exécuter plusieurs fonctions en même temps. Alors il y aura pléthore de nouveaux services à développer.

Auteur : Christine Browaeys, préface de Clément Sanchez
Editeur : EDP Sciences (Collection : InterSections)
Date de Parution : 05/2014
ISBN : 978-2-7598-1135-9
Public : Professionnels, étudiants, grand public
Broché : 220 pages
Site web du livre

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de mai 2014 2/2

Décisions d’importation de l’UE pour certains produits chimiques

20/05/2014

Une décision d’exécution de la commission du 15 mai 2014 adopte des décisions d’importation de l’Union pour certains produits chimiques (azinphos-méthyl, pentabromodiphényléther commercial, octabromodiphényléther commercial, acide perfluorooctane sulfonique, sulfonates de perfluorooctane, sulfonamides de perfluorooctane et sulfonyles de perfluorooctane) mentionnés sur les formulaires de réponse concernant l’importation qui figurent en annexe, est adoptée conformément au règlement (UE) no 649/2012 du Parlement européen et du Conseil.

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOC_2014_152_R_0002&from=FR

Exemptions pour le plomb

20/05/2014

Une directive déléguée 2014/69/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans la céramique diélectrique des condensateurs pour tension inférieure à 125 V AC ou 250 V CC destinés à être utilisés dans les instruments de contrôle et de surveillance industriels.

Une directive déléguée 2014/70/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les galettes de microcanaux (GMC).

Une directive déléguée 2014/71/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans la soudure d’une interface des éléments empilés de grande surface).

Une directive déléguée 2014/72/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les soudures et finitions des raccordements des composants électriques ou électroniques et les finitions des cartes de circuit imprimé, qui sont utilisés dans les modules d’allumage et autres systèmes de commande électrique ou électronique des moteurs.

 

Une directive déléguée 2014/73/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les électrodes en platine platiné utilisées pour les mesures de conductivité. Plus d’information sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_148_R_0017&from=FR

 

Une directive déléguée 2014/74/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le plomb dans les systèmes de connecteurs à broches souples autres que du type «C-press» destinés à être utilisés dans les instruments de contrôle et de surveillance industriels. Plus d’information sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_148_R_0018&from=FR

Exemptions pour le mercure

20/05/2014

Une directive déléguée 2014/75/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le mercure contenu dans les lampes fluorescentes à cathode froide, à raison de 5 milligrammes de mercure par lampe au maximum, servant au rétroéclairage des écrans à cristaux liquides utilisés dans les instruments de contrôle et de surveillance industriels mis sur le marché avant le 22 juillet 2017.

Une directive déléguée 2014/76/UE de la Commission du 13 mars 2014 modifie, aux fins de son adaptation au progrès technique, l’annexe IV de la directive 2011/65/UE du Parlement européen et du Conseil en ce qui concerne une exemption pour le mercure contenu dans les tubes lumineux à décharge de fabrication artisanale utilisés pour les enseignes et la signalétique lumineuses, l’éclairage décoratif ou architectural et spécialisé et les créations lumineuses.

Nouvelle proposition de classification et d’étiquetage harmonisé

20/05/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances (chlorsulfuron (ISO); 2-chloro-N-[[(4-methoxy-6-methyl-1,3,5-triazin-2-yl)amino]carbonyl]benzenesulphonamide). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 4 juillet 2014.

Mise à jour du plan d’actions triennal d’évaluation des substances chimiques

25/05/2014

Un avis aux opérateurs économiques a été publié sur la mise à jour du plan d’actions triennal d’évaluation des substances chimiques (CoRAP) en application du règlement REACH.

Publication de trois documents d’orientation sur les biocides

28/05/2014

L’ECHA a publié trois nouveaux guides d’orientation sur les biocides.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

 

Et aussi dans les
ressources documentaires :

Les énergies renouvelables désormais en tête du mix électrique européen

En s’établissant autour de 28% en 2013, elles ont légèrement dépassé le charbon et le nucléaire comme source première de production d’électricité, alors que la consommation électrique a diminué de 1% dans les 28 pays de l’Union européenne, essentiellement en raison de la crise économique.

Par ailleurs, la consommation d’électricité des pays du G7 (États-Unis, Canada, France, Allemagne, Italie et Japon) a stagné en 2013, selon le Bilan énergétique mondial d’Enerdata.

« Cela a des conséquences pour les grands acteurs de l’électricité », a commenté Sylvain Chateau, directeur général adjoint d’Enerdata. Cela « pose la problématique de la rentabilité des investissements qui ont été faits dans les centrales, quand elles tournent un nombre d’heures insuffisant pour rentabiliser l’investissement », explique-t-il.

Ainsi en Europe, plus de 20 gigawatts (GW) de capacités ont été fermées ou mises sous cocon depuis 2010, avec 13 GW supplémentaires annoncés d’ici 2017.

Prenant l’exemple de la France, il a estimé que cela pourrait poser à terme un problème, dans la mesure où les centrales qui seraient fermées rendraient le pays potentiellement « incapable de gérer une future période de pointe » de demande de consommation électrique.

Plus généralement, la consommation d’énergie des Brics (Brésil, Russie, Inde, Chine, Afrique du sud), et en particulier celle de la Chine, a encore tiré l’an dernier la demande mondiale, avec une croissance de 3,5% contre 2,1% pour le G20.

Selon Sylvain Chateau, c’est une croissance « toujours dynamique mais c’est beaucoup plus faible que par le passé et c’est le signe d’une sorte de maturité de la croissance de la demande de ces pays ».

– La Chine en pointe sur les renouvelables –

La Chine représente à elle seule 28% de la consommation d’énergie des pays du G20, devant les États-Unis (20%) et est responsable de 60% de l’augmentation de la demande en 2013. En matière d’électricité, le pays est le plus gros consommateur mondial, contribuant pour 85% de l’augmentation de la consommation du G20 (+2,3%).

La Chine occupe également la première place en matière d’installations d’énergies renouvelables éoliennes et solaires. Selon Enerdata, le pays connaît un « emballement » sur le marché du photovoltaïque, avec 7 GW de capacité installées en 2013, alors que dans le même temps, le mouvement ralentit en Europe à cause de la baisse ou de la suppression des tarifs d’achat.

Même chose sur l’éolien où les capacités installées chinoises représentent 37% de l’ensemble des nouvelles installations dans le monde.

Enerdata confirme par ailleurs le bouleversement du secteur du gaz du fait de l’exploitation des gaz et pétrole de schiste aux États-Unis. A l’horizon 2020, ce pays va devenir un acteur clé des échanges gaziers mondiaux. Près de 30 terminaux de liquéfaction sont actuellement en construction ou en projet et 53 gigamètres cubes de contrats GNL (gaz naturel liquéfié) ont déjà été signés, dont 38 en direction du Japon et de l’Asie.

Sur le plan des émissions de CO2, avec une hausse de 2%, elles ont continué de suivre le rythme de la croissance économique, la Chine étant responsable du tiers des émissions du G20. Cette évolution illustre « le peu de changement dans le mix énergétique » en 2013 en matière de conséquences sur les émissions de CO2.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le risque d’une collision entre un astéroïde et la Terre est réel

Que ceux qui se moquent d’Abraracourcix arrêtent de rigoler. Car le chef Gaulois n’a peut-être pas tort de redouter les colères du ciel, un ciel qui pourrait bien nous tomber sur la tête ! Pour preuves, de nouvelles statistiques viennent d’être publiées par la Fondation B612 (rein à voir avec la terrible organisation  B613 de la série  Scandal). Depuis l’année 2000,  celle-ci a dénombré 26 impacts d’astéroïdes dont l’explosion induite est équivalente à «  […] la détonation de 1 à 600 kilotonnes de TNT » précise-t-elle. Ces mesures proviennent d’un satellite américain dédié à la surveillance de telles explosions. Problème, c’est 3 à 10 fois plus que les prévisions de la NASA.

 Heureusement, la plupart de ces explosions se produisent au dessus de l’atmosphère de telle sorte qu’aucun débris n’atteigne le sol terrestre, et dans le cas contraire, ces derniers tombent dans des zones inhabitées, principalement en mer. Mais qu’adviendra-t-il lorsqu’un astéroïde se précipitera sur une ville ? Souvenez-vous  de la récente pluie de météorites qui s’est abattue à Tcheliabinsk le 15 février 2013. Avec un diamètre compris entre 15 et 17 m, l’engin extra-terrestre a dégagé une énergie estimée à 440 kilotonnes, soit trente fois Hiroshima. L’onde de choc générée a causé les blessures d’un millier de personnes, principalement dûes à l’explosion des vitres et fenêtres. L’un des fondateurs de la Fondation B612 tient à prévenir les populations du fait que la chute d’un astéroïde de seulement 40 m de diamètre suffirait à balayer une ville entière.

Mais que fait la NASA ? Pour nous protéger de ce danger apparemment sous-estimé, le B612 propose de fabriquer une véritable sentinelle, capable de repérer les astéroïdes dangereux pour les détruire avant qu’ils ne se crashent sur Terre, il s’agit de la Sentinel Space Telescope Mission.

Par Audrey Loubens, journaliste scientifique

L’UE s’entend sur la culture des OGM à la carte

L’accord, qui doit être formalisé le 12 juin par les ministres de l’Environnement, a été adopté lors d’une réunion des représentants permanents des 28, après des années de blocage sur ce dossier.

Au départ opposés à la formule proposée, l’Allemagne, le Royaume-Uni et la France, qui redoutait un cadre trop favorable aux multinationales semencières, s’y sont finalement ralliés, selon le même diplomate. Egalement réfractaire, la Belgique s’est abstenue.

Sans renationaliser la procédure d’autorisation, le nouveau cadre permet à chaque Etat d’interdire la culture d’un OGM sur tout ou partie de son territoire pour des raisons autres que la santé et l’environnement, comme l’ordre public, l’aménagement du territoire ou la lutte contre la dissémination.

La procédure fixée par le projet de directive prévoit que les Etats puissent demander aux semenciers candidats à la mise en culture dans l’UE d’être exemptés du champ d’application de leurs demandes d’autorisation. Si ceux-ci refusent, l’Etat réfractaire prendra la décision d’interdire.

« Le compromis atteint donne au final plus de garanties aux anti-OGM » que la proposition de départ de l’exécutif européen, a estimé un diplomate européen.

« Une garantie légale assez solide » est assurée aux Etats contre d’éventuels recours des multinationales semencières, a-t-il ajouté. La France notamment avait bataillé pour cette sécurisation juridique.

Une deuxième chance est également offerte aux Etats pour interdire une mise en culture autorisée ou en voie de l’être, à la condition qu’ils puissent invoquer « de nouvelles bases objectives ».

Une clause de révision a aussi été introduite, prévoyant que la Commission européenne présente à l’issue d’un délai de quatre ans un rapport au Parlement européen et au Conseil.

Mais les Etats membres anti-OGM ne pourront pas interdire sur leur territoire le transit des OGM autorisés, précise le projet de directive.

Sous ces réserves, l’accord ouvre désormais les terres de l’UE à la culture des OGM, une mesure attendue par les semenciers depuis quatorze ans.

Jusqu’à présent, les divergences des Etats sur les semis OGM rendaient les procédures d’autorisation très difficiles et longues, objet à chaque fois d’empoignades politiques.

Les Etats membres réfractaires n’avaient que la possibilité de recourir à des clauses de sauvegarde nationales, souvent attaquées en justice.

Quatre OGM ont obtenu une autorisation de culture, mais un seul est encore cultivé: le maïs MON810 du groupe américain Monsanto, qui a demandé le renouvellement de cette autorisation. Les autres, deux maïs (BT176 et T25) et la pomme de terre Amflora, ont été abandonnés.

Mais sept autres demandes de cultures sont en attente d’une autorisation, dont le maïs TC1507 de Pioneer, filiale du groupe américain DuPOnt.

cb/csg/plh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le coût de production du nucléaire a bondi en France depuis 2010 (rapport)

La Cour estime à 59,8 euros le mégawattheure (MWh) en 2013 le coût de production moyen des 19 centrales nucléaires françaises, soit une augmentation de 20,6% (en euros courants) par rapport aux 49,6 euros de 2010, calculés dans son précédent rapport datant de janvier 2012.

En euros constants, la hausse serait de 16% à 57,5 euros, précise-t-elle, rappelant que le coût de production de l’électricité nucléaire représente environ 40% du prix payé par les consommateurs.

Cette progression s’explique notamment par la « forte croissance » des dépenses d’exploitation par l’opérateur des centrales EDF (achats de combustible nucléaire, personnel, impôts, logistique, etc.), indique le rapport actualisé à la demande de la commission d’enquête parlementaire sur le coût de la filière nucléaire.

« Compte tenu du poids de ces dépenses dans le coût de production de l’électricité nucléaire (41%, soit 24,8 euro/MWh en 2013), cette évolution, qui s’explique notamment par le déploiement du projet industriel d’EDF pour permettre le prolongement de la durée d’exploitation des réacteurs existants, a des conséquences lourdes sur le coût du MWh », souligne l’organisme public dans ce document de plus de 200 pages.

Ce chiffrage intègre aussi les dépenses de maintenance, qui devraient partir en flèche pour atteindre 3,7 milliards d’euros par an en moyenne entre 2011 et 2025, contre 1,7 milliard en 2010.

Ces « investissements de maintenance, en particulier de sûreté, n’ont pas encore atteint leur maximum; ils devraient encore sensiblement progresser jusqu’en 2017, avant de commencer à diminuer », souligne la Cour des comptes.

Le programme dit de « grand carénage » d’EDF prévoit en effet de mener pour 55 milliards d’euros de travaux de maintenance et de modernisation des 58 réacteurs nucléaires français qu’il exploite, à l’horizon 2025, pour pouvoir prolonger leur durée de vie au-delà de la limite de 40 ans initialement fixée lors de leur conception.

mpa/fpo/jag

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Usine du futur : le défi de la sobriété

L’industrie consomme environ 20 % de  l’énergie  française et un tiers de l’électricité. Cela  y représente donc un poste de dépenses important. Voici une bonne raison de s’y intéresser pour booster leur compétitivité ! Pour ce faire, l’Agence de l’environnement et de la maîtrise de l’énergie (ADEME) accompagne les entreprises à plusieurs niveaux. Elle les aide notamment à réduire leurs consommations, à analyser la performance énergétique de leurs équipements, à développer la récupération d’énergie fatale et à mettre en place des systèmes de production d’énergies renouvelables.

Miser sur l’innovation et l’accompagnement

L’ADEME soutient l’innovation des industriels notamment grâce aux investissements d’avenir. Entre 2008 et 2013, elle a également mené le  programme ADEME-Total. L’ADEME et Total y ont soutenu la recherche en technologies innovantes pour améliorer l’efficacité énergétique pour un montant total de 43 millions d’euros. Début 2014, environ 50 % des projets sont terminés et 5 technologies sont déjà disponibles sur le marché. Un nouvel appel à projet Recherche sur ces thématiques, porté uniquement par l’ADEME, est envisagé d’ici l’automne 2014. 

L’agence intervient aussi sur l’aide à la décision. « On aide les entreprises à faire des diagnostics sur la performance énergétique de leurs process industriels ou de leurs utilités pour voir, par exemple, sur l’air comprimé et la vapeur quelles sont les marges de manœuvre », affirme Sylvie Padilla, Responsable du service Entreprises et Eco-technologies de l’ADEME. Ces diagnostics permettent de déterminer des plans d’actions. Concrètement, ces aides à la décision prennent la forme d’un soutien financier entre 50 et 70 % du montant de la prestation (qui s’élève en moyenne entre 10 000 et 20 000 euros). Si ces audits énergétiques interviennent pour le moment sur la base du volontariat, à partir de Décembre 2015, ils deviendront obligatoires pour toutes les grandes entreprises, dans le cadre de la Directive Efficacité Energétique. 

Enfin, l’ADEME agit dans le processus de gouvernance du système de Certificats d’économies d’énergie (CEE). « Lorsque les industriels font des actions d’économies d’énergie, pour certaines,  elles peuvent les valoriser auprès des fournisseurs d’énergie qui ont des obligations en matière d’économies d’énergie à faire chez eux ou chez d’autres consommateurs comme les industriels », précise Sylvie Padilla. Par exemple, si un industriel met en place un moteur performant ou un récupérateur de chaleur, une part de son investissement pourra être remboursée par le fournisseur d’énergie grâce à ces certificats. « Cela permet de rendre plus facilement rentables les investissements en matière d’efficacité énergétique », se félicite Sylvie Padilla.

Concrètement, à quels postes s’intéresse-t-on ?

Les postes de consommation varient bien évidemment selon les industries. En 2010, l’industrie manufacturière française a consommé 120 TWh d’électricité et 311 TWh de combustibles. Les postes de consommations électriques majoritaires étaient les moteurs (69%), l’électrolyse (8%) et l’éclairage (4%) Pour les combustibles, là encore, les fours représentaient le poste le plus important (43 %) ; le séchage, le traitement des matières premières et le chauffage des locaux représentant respectivement 27 %, 11 % et 8 % des consommations. 

Tous ces postes peuvent être optimisés. Par exemple, selon l’ADEME, le potentiel d’économies d’énergie lié à l’air comprimé, au froid, au réseau de vapeur et au pompage peuvent être respectivement de 25 %, 20 %, 35 % et 40 % dans le cas théorique où il est possible d’investir dans la totalité des actions d’efficacité énergétique !

De façon globale, selon le scénario prospectif de l’ADEME sur la consommation d’énergie à l’horizon 2030 et 2050, le potentiel de réduction des consommations énergétiques industrielles sont d’environ 20 % d’ici 2030 par rapport à 2010. « Deux tiers de ces actions d’économies d’énergie pourraient être faites par des technologies existantes d’efficacité énergétique et un tiers par des approches innovatrices, comme l’a fait Bonduelle », confie Sylvie Padilla.

Un exemple concret : Bonduelle, vers des usines « sobres » en énergie

Les usines du groupe Bonduelle produisent 24h/24 et 7 jours sur 7 des légumes sous diverses formes. L’énergie utilisée notamment pour stériliser et surgeler les produits y est un poste de dépenses important. En 2010, Bonduelle a ainsi consommé 317 GWh d’électricité et 436 GWh de gaz pour préparer ses légumes. Elle a alors dépensé 38 millions d’euros pour le poste énergie, soit 10 % de son prix de revient.

Pour une meilleure efficacité énergétique, Bonduelle a engagé en 2009 le projet Usine Sobre, avec le support de l’ADEME. Ce projet a permis de passer en revue les trois technologies de transformation du légume du groupe : le surgelé, la conserve et le frais élaboré (salades en sachets ou barquettes plastiques). Dans ce contexte, Bonduelle a mis en œuvre la méthode de l’Energie Minimale Requise (E.M.R).

Cette méthode innovante évalue les besoins énergétiques minimaux nécessaires à la transformation des légumes pour les comparer à ce qui est concrètement mis en œuvre dans les usines. Elle a permis d’identifier des optimisations de procédé, des améliorations matures à installer et des solutions innovantes à développer. Les résultats ont montré qu’il est théoriquement possible de réduire la consommation de 60 % dans ses conserveries. L’entreprise estime donc envisageable de réaliser des économies réalistes entre 20 et 30 %. Un plan d’actions est en cours de déploiement !

Pour aller plus loin :

 

Par Matthieu Combe, journaliste scientifique

L’usine du futur à la française

Le plan « Usine du futur » propose sur le papier de développer les secteurs industriels français liés aux technologies de demain. Numérique, interfaces homme-machine, robotique, réalité augmentée, intelligence artificielle, réseaux sociaux sont des exemples de ces secteurs prometteurs. L’objectif affiché est de ne pas rater le coche de cette nouvelle révolution industrielle !

Une feuille de route validée

Le second comité de pilotage des 34 plans de la nouvelle France industrielle s’est tenu le 7 mai 2014 à l’Elysée. La feuille de route du plan « Usine du futur » a été validée. Elle a notamment retenu les 7 premiers projets pilotes qui serviront de vitrines des usines françaises pour l’export, mais aussi pour les entreprises du territoire. Ils seront lancés au 4e trimestre 2014. Une deuxième vague de projets pilotes sera prochainement planifiée avec 11 autres projets pilotes.

Parmi les premiers projets retenus, on trouve notamment le programme pilote 5E dans l’agroalimentaire qui vise à faciliter le financement des équipements industriels réduisant l’empreinte carbone des unités industrielles, les éoliennes off-shore du Havre, les chantiers navals en Bretagne et une unité de conditionnement de bouteilles de gaz liquide.

Le plan a également retenu le procédé de Moulage par Injection de Métal (MIM), porté par Safran. « Ce procédé s’avère être une méthode de façonnage compétitive pour la production, en grand volume, de petites pièces métalliques, aux formes très complexes et précises, avec des propriétés métallurgiques élevées et avec un réel potentiel pour concevoir de manière innovante ces pièces »,  avance le cabinet d’Arnaud Montebourg, ministre de l’économie, du redressement productif et du numérique.

Enfin, on trouve une ligne pilote de matériaux composites pour l’automobile fabriqués par Excelcar, une société de R & D créée par PSA, et une ligne flexible et automatisée pour des petites pièces en composites dans l’aéronautique.

« Le montant des aides n’est pas encore fixé ; en effet ces différents projets pilotes ont été présélectionnés pour une instruction accélérée. Les dossiers seront finalisés dans les semaines à venir et c’est l’instruction qui suivra qui sera en mesure de définir le montant exact des financements. » précise le cabinet d’Arnaud Montebourg.

Plusieurs aides accompagneront cette nouvelle industrie

Ces vitrines serviront de base de travail pour accompagner la modernisation des PME et des ETI. Leur diagnostic et leurs actions de modernisation se fera sous le co-pilotage des Régions qui financeront des diagnostics industriels pour 2 000 à 3 000 d’entre elles. Le financement des projets de modernisation de ces entreprises et des autres pourra se faire dans des délais très courts par une gamme de prêts de Bpifrance labellisés « Usine du futur ». Ils seront cumulables jusqu’à 12 millions d’euros par entreprise par le biais d’un amortissement accéléré de 2 ans au lieu des 5 à 10 ans habituels.

Ce plan veut aussi coordonner les briques technologiques existantes et développer les technologies nécessaires encore non matures grâce à 6 projets structurants de R&D financés par l’État. Les projets de R&D retenus concernent l’impression 3D, le contrôle non-destructif, la plateforme robotique Industrielle, la Virtualisation et l’Internet des objets, les matériaux composites et la place de l’homme dans l’usine. Les recherches s’étaleront entre 2015 et 2017 pour développer des solutions encore non matures nécessaires au développement de l’usine du futur.

A quoi ressemblera cette usine du futur ?

L’usine du futur sera plus robotisée. Mais Frédéric Sanchez, président du directoire du groupe d’ingénierie Fives, en charge du pilotage de ce plan avec Bernard Charlès, Directeur Général de la société Dassault Systèmes, veut miser sur l’homme et pas seulement sur les machines. Les robots l’assisteront pour améliorer les conditions de travail, s’acquitter des tâches les plus ingrates grâce à des interfaces homme-machine améliorées, mais ne le remplaceront pas. Ce modèle d’usine pourra être exporté dans les pays émergents.

L’usine du futur devra aussi être plus respectueuse de son environnement. Elle misera sur l’éco-conception, l’économie circulaire, économisera les matières premières et abaissera ses rejets. Plus flexible, elle utilisera également des outils de production reconfigurables. Son offre sera plus ancrée au niveau local, plus proche des besoins du marché, s’adaptant plus facilement aux demandes de ses clients. 

Par Matthieu Combe, journaliste scientifique

Pourquoi le cerveau se souvient-il des rêves?

L’origine du rêve continue d’être un mystère pour les chercheurs qui étudient la différence entre les « grands rêveurs », qui parviennent à se souvenir de leurs rêves régulièrement, et les « petits rêveurs » pour lesquels cet événement est plus rare. En janvier 2013 (travaux publiés dans la revue Cérébral Cortex), l’équipe de Perrine Ruby, chargée de recherche à l’Inserm et ses collaborateurs du centre de recherche en neurosciences de Lyon, ont réalisé deux constats : les « grands rêveurs » comptabilisent 2 fois plus de phases de réveil pendant le sommeil que les « petits rêveurs » et leur cerveau est plus réactif aux stimuli de l’environnement. Cette sensibilité expliquerait une augmentation des éveils au cours de la nuit et permettrait ainsi une meilleure mémorisation des rêves lors de cette brève phase d’éveil. Dans cette nouvelle étude, l’équipe de recherche a cherché quelles régions du cerveau différencient les grands des petits rêveurs en mesurant l’activité cérébrale spontanée en Tomographie par Emission de Positons (TEP) à l’éveil et pendant le sommeil chez 41 rêveurs volontaires.

Les volontaires ont été classés en 2 groupes : 21 « grands rêveurs » se souvenant de leur rêve en moyenne 5.2 fois par semaine et 20 « petits rêveurs » rapportant en moyenne 2 rêves par mois. Les chercheurs ont mesuré avec le scanner TEP l’activité cérébrale des grands et petits rêveurs pendant l’éveil et pendant le sommeil. 

Les résultats révèlent que les grands rêveurs présentent une activité cérébrale spontanée plus forte pendant leur sommeil au niveau du cortex préfrontal médian (MPFC) et de la jonction temporo-pariétale (JTP), une zone cérébrale impliquée dans l’orientation de l’attention vers les stimuli extérieurs. 

« Cela explique pourquoi les grands rêveurs réagissent plus aux stimuli de l’environnement et se réveillent plus au cours de leur sommeil que les petits rêveurs, et ainsi pourquoi ils mémorisent mieux leurs rêves. En effet le cerveau endormi n’est pas capable de mémoriser une nouvelle information en mémoire, il a besoin de se réveiller pour pouvoir faire ça » explique Perrine Ruby, chargée de recherche à l’Inserm. 

Le neuropsychologue sud-africain Mark Solms avait remarqué dans de précédents travaux que des lésions de ces deux zones conduisaient à une cessation des souvenirs de rêves. « Ces résultats montrent que les grands et petits rêveurs se différencient en terme de mémorisation du rêve mais n’exclut pas qu’ils se différencient également en terme de production de rêve. En effet, il est possible que les grands rêveurs produisent une plus grande quantité de rêve » conclut l’équipe de recherche. 

Sources
Resting brain activity varies with dream recall frequency between subjects Jean-Baptiste Eichenlaub1,2, Alain Nicolas3, Jérôme Daltrozzo1,2, Jérôme Redouté4, Nicolas Costes4, Perrine Ruby1,2
1 CRNL – Lyon Neuroscience Research Center, INSERM, CNRS, Brain Dynamics and Cognition Team, Lyon, F-69000, France.
2 University Claude Bernard Lyon 1, Lyon, F-69000, France.
3 Unité d’Exploration Hypnologique, CH le Vinatier, Lyon, F-69000, France.
4 CERMEP-Imagerie du Vivant, Lyon, F-69000, France.
Neuropsychopharmacology

 

Comment la simulation et la virtualisation vont devenir les clés de l’usine numérique

L’usine numérique est un outil, généralement un logiciel de simulation en relation avec une chaîne de production robotisée, rendant possible la planification du processus de fabrication d’un produit simultanément à sa conception. Le virtuel et le réel sont ainsi étroitement liés. Le process défini en amont est validé, ou corrigé, étape par étape. Les prototypes sont numériques, ce qui restreint l’usage de matières premières. Il n’est plus nécessaire de réaliser de nombreuses maquettes comme c’était le cas avant puis de corriger éventuellement le tir. Le produit fini est normalement apte à remplir la fonction pour laquelle il a été créé. 

L’exemple de Dassault Aviation montre les bienfaits de l’usine numérique

La simulation numérique a du bon lorsque l’intégration est réussie. Prenons l’exemple de la conception du Falcon 7X, un avion d’affaires signé Dassault Aviation. Lors de sa création, qui a nécessité de nouvelles méthodes d’assemblage, le montage a duré deux fois moins de temps que les estimations habituelles si les procédés de fabrication traditionnelle avaient été employés. Il a fallu seulement sept mois au lieu de quinze. La surface pour construire l’appareil a elle aussi subi quelques changements et a drastiquement diminué, passant de 650 à 250 mètres carrés. 

Présentement, Dassault Aviation vient de démarrer l’assemblage du premier exemplaire du Falcon 5X dans une usine de Biarritz.

L’usine numérique conçue par Siemens

Ce que l’on appelle « Usine numérique » ici, n’est autre que le produit de la fusion du logiciel d’automatisation TIA Portal avec le logiciel CAP Macatronics concept designer conçus respectivement par Siemens Industry et Siemens PLM Software. Il est employé pour optimiser la fabrication de produit. Ainsi, sur une même plate-forme, la conception, le debug et les tests ont lieu en même temps; ceci dans une logique de simultanéité entre la conception virtuelle et l’automatisation du processus de fabrication. 

Les problèmes pouvant se poser au fur et à mesure de la conception sont rapidement perçus et une solution proposée. En fait, la validation du process se fait dès la conception grâce à la connexion entre la partie virtuelle et celle qui est réelle. Il y a un véritable échange entre les deux logiciels et les répercussions sont automatiques en cas de modification dans l’une des parties.

Son utilisation est également pédagogique puisqu’une classe du lycée Vieljeux situé à La Rochelle teste l’outil numérique. Les élèves qui se préparent à un BTS Conception et réalisation de systèmes automatiques bénéficient en effet de la plate-forme d’automatisation et des outils MCD (Mecatronics Concept Designer). Ils travaillent sur une machine de nettoyage automatique de bacs à poisson et sa traçabilité. L’étude porte sur l’ergonomie des postes de déchargement des bacs, la vérification des données (types de poisson, date de pêche…) et la coordination des éléments.

Le virtuel pour appréhender le réel

Le Centre de recherche allemand sur l’intelligence artificielle (DFK) a développé un jeu vidéo baptisé Vistra (Virtual Simulation and Training of Assembly and Services Processes in digital Factories) destiné à la formation. Mis au point par des chercheurs en réalité augmentée, ce logiciel de simulation 3D permet aux employés de s’entraîner virtuellement, et donc sans risques, aux tâches de leur futur poste. Avantage non négligeable, le temps d’apprentissage en serait raccourci.

Par Sébastien Tribot

L’analyse des données industrielles en temps réel par Energiency

Après avoir roulé sa bille comme consultant chez Ernst&Young, Arnaud Legrand s’est aperçu que le lot des contraintes auxquelles doivent faire face les industriels les empêche bien souvent de suivre intégralement les plans d’action recommandés. Par manque de temps, de moyen, où parce que les industriels rencontrent des difficultés à anticiper d’autres paramètres, les raisons varient. En parallèle, l’ingénieur agronome a constaté que les factures liées à l’énergie avaient tendance à être décuplées ces dernières années. Il a donc eu l’idée de créer un logiciel web collaboratif dédié à l’analyse de milliers de données industrielles. Ainsi, la toute jeune start-up (créée en avril 2013) Energiency est née.

La modélisation de la consommation d’énergie pour une intervention immédiate

Le volume de données récoltées par les industries est tellement important qu’ils se retrouvent dans l’incapacité d’en faire usage. « Les industriels commencent à numériser leurs sites et à s’équiper de capteurs et compteurs intelligents pour mieux piloter leur consommation d’énergie. » Or pour un compteur industriel, on recense 300 000 données par an. Energiency propose d’analyser ces données et d’apporter des solutions en temps réel. 

En effet, l’algorithme utilisé par le logiciel, par l’analyse croisée des compteurs et des données recueillies en continu en usine, permet d’élaborer des plans d’action en tenant compte des variables de productions. Le logiciel soulage ainsi les industriels d’une gestion de données laborieuse. 

Le point fort de ce logiciel est qu’il est collaboratif. Tout se passe sur le Cloud. Cela signifie que chaque personne qui travaille dans l’usine, quel que soit son rôle, peut accéder aux données qui lui sont importantes selon son champ de compétence. Tout est là, à portée de clic. L’intervention sur les lignes de productions peut se faire en continu. 

Les bienfaits de l’analyse en temps réel

Le travail de ces données n’est pas vain. Il sert à anticiper les besoins, les problèmes, les écarts de consommation entre les estimations et le réel et ainsi prendre des mesures précises plus tôt qu’auparavant. Jusqu’à 20 % d’économies peuvent être réalisées par ce biais si les recommandations sont suivies et mises en place en temps réel par l’homme. Et c’est bien là le but premier.

Pour l’heure, le secteur agroalimentaire est le seul à bénéficier de ce dispositif. Energiency compte notamment parmi ses clients l’entreprise bretonne Triballat Noyal, dont l’activité se tourne autour des fromages, du végétal et de la nutrition (Sojasun, Petit Billy, Petit Breton, Vrai…). Il s’agit d’ailleurs d’un « grand client » pour la start-up qui a dû en équiper 17 sites de production. Mais, à l’avenir il y a fort à parier que le logiciel d’Energiency conquiert d’autres secteurs.

Ce qui nous ramène au sujet du cahier… L’usine du futur! Comme en témoigne le cas Energiency, on constate qu’elle sera connectée en permanence. Grâce au Cloud, il sera possible d’évaluer en continu les besoins afin de produire les protocoles à suivre et garantir de meilleures performances énergétiques. Le maître mot est donc l’optimisation des performances grâce à une gestion intelligente des données. Cela ne veut pas dire que les machines seront autonomes. Bien au contraire, l’homme aura toujours une place prépondérante dans les process industriels.

Par Sébastien Tribot

Quatrième révolution industrielle : 3 projets d’usine du futur

L’interface homme-machine ainsi que la robotique sont plus que jamais au coeur de l’usine du futur. Il s’agit d’ailleurs d’un des trente-quatre plans industriels lancés en 2013. Comme il est écrit, « la robotique est une des clés pour maintenir et relocaliser la production et l’emploi industriel en France. » Le gouvernement y croit dur et souhaite, grâce au plan, équiper 250 PME.

Voici quelques-uns de ces projets – pas nécessairement français -, en place, à l’état d’expérimentation où à venir.

Une usine expérimentale pour assembler l’E-Fan

Le premier vol officiel de l’E-Fan, un petit biplace tout électrique a eu lieu il y a à peine un mois à l’aéroport de Bordeaux-Mérignac. Il a semble-t-il enchanté le ministre de l’Économie, du Redressement productif et du Numérique, Arnaud Montebourg, qui l’a décrit comme une « révolution aéronautique ».

L’appareil se destine à un marché ciblé: celui des écoles de pilotage du monde entier. En tout, pas moins de 650 000 pilotes devraient être formés d’ici vingt ans. Cela nécessite donc un paquet d’avions-écoles, 21 000 selon Arnaud Montebourg.

La production de l’E-Fan doit débuter fin 2017 dans une usine expérimentale, basée à Mérignac. Au sein de sa surface de 1 500 mètres carrés, elle abritera des méthodes de production innovantes, dont la cobotique ou la coopération « entre un opérateur humain et un système robotique » est l’un des points importants avec la réalité augmentée. Ce sont à peu près 80 appareils qui devraient sortir de ses bancs de production tous les ans. La création de l’usine de construction de l’E-Fan pourrait engendrer quelque 350 emplois indirects locaux.

Les robots dirigés par des puces RFID

En mars 2013, le Centre de recherche allemand sur l’intelligence artificielle (DFKI) a présenté au salon Cebit de Hanovre une usine miniature intelligente qu’elle souhaite mettre en place d’ici 2020; symbole de la « quatrième révolution industrielle ».

L’usine produira des badges plastiques. À cela, rien d’extraordinaire. Ce qu’il y a d’intéressant en revanche, c’est que chacune de ces pièces est munie d’une puce RFID (radio-identification) permettant à l’objet en cours de fabrication de communiquer avec celui qui le fabrique: en l’occurrence des automates.

Concrètement, cela signifie que les puces RFID peuvent donner des instructions aux machines, comme par exemple la langue que le graveur doit inscrire sur le badge, sa couleur, sa forme… Ainsi la gestion se fait en temps réel et va dans le sens d’une plus grande flexibilité.

L’industrie automobile au rang des pionniers

Les robots industriels sont très répandus dans le secteur automobile. Il semble donc normal qu’ils suivent les progrès technologiques de ces derniers pour les intégrer dans leurs usines. Preuve en est avec le groupe Volkswagen. L’année dernière, le constructeur automobile a en effet équipé l’un de ses centres de production de moteurs d’un cobot nommé UR5. Ce dernier a pour but d’ôter les tâches pénibles et répétitives, où à faible valeur ajoutée qui incombent généralement aux ouvriers.

Le directeur du secteur Industrie de Siemens France, Vincent Jauneau, estime que le secteur automobile sera un pionnier en ce qui concerne la « quatrième révolution industrielle ». Il entrevoit un futur dans lequel la production sera réactive, rapide et paramétrable. Les robots, lorsqu’ils seront capables d’user à bon escient des données, permettront de réduire les factures énergétiques et augmenter la productivité.

Que devient l’homme ?

Les robots ont de l’avenir, c’est certain. Toutefois, l’usine sans hommes n’est pas pour demain, rassurons-nous. Les robots sont là pour effectuer les tâches répétitives les moins intéressantes, mais nécessitant de la précision. La nouvelle vague de robotisation soulignera au contraire les qualités de nos ingénieurs en leur apportant davantage « de tâches à valeur ajoutée », c’est en tout cas ce que pense l’ancien directeur industriel d’Air Liquide Emmanuel Julien. Quant à Frédéric Sanchez, coresponsable du plan « usines du futur », il dit lutter pour « une usine où l’homme sera placé au cœur, et pas pour des usines totalement automatisées, comme en Allemagne ou au Japon ».

Hommes et robots travaillant conjointement

La collaboration entre opérateur et robot se précise. De grands groupes industriels se penchent sur le sujet. Pour le moment des doutes concernant la sécurité des opérateurs subsistent. En effet, les hommes peuvent-ils travailler à proximité des robots sans danger ? Or, il s’agit d’assurer la sécurité des ouvriers. Pour ce faire, l’idée est de rendre les robots plus intelligents, en les dotant de capteurs, de caméras, de puces RFID afin de bien percevoir les mouvements des opérateurs et d’interpréter leurs intentions.

Par Sébastien Tribot

Quelles innovations sont indispensables à la construction de l’usine du futur ?

Rendre l »usine plus intelligente est un défi continu. Le développement de technologies avancées est crucial car elles seront intégrées dans l’usine de demain qui sera numérique, tout en laissant l’homme au centre des opérations. Rien n’est épargné, capteurs, puces RFID, simulation 3D, impression 3D, usine numérique… Tout ses outils façonneront l’usine de demain.

Les enjeux ne sont pas des moindres. Les industriels pour être compétitifs doivent optimiser leurs performances énergétiques, réduire les coûts de fabrication, être en mesure de faire face à des besoins modulables en temps réel… Les hommes devront s’appuyer sur les nouvelles technologies, dans une collaboration harmonieuse avec les machines, afin de mieux piloter les process. Et ce, dans une démarche durable. L’usine de demain doit en effet être soucieuse de l’écologie. Il est nécessaire de moderniser le parc industriel français, parfois vieillot. Cela passe bien sûr par la compréhension des processus industriels. C’est indispensable. 

C’est pour cette raison que le ministre de l’Économie, du Redressement productif et du Numérique, Arnaud Montebourg, insiste tant sur l’importance du projet « Usine du futur » comptant parmi les trente-quatre plan de ré-industrialisation et piloté par Frédéric Sanchez. Car il s’agit de rattraper le retard par rapport à nos collègues allemands ou américains dans ce domaine.

Par Sébastien Tribot