Voitures électriques : +20% en 2014 mais part de marché encore faible

Au total, 10.560 voitures particulières électriques ont été immatriculées pendant l’année 2014, contre 8.779 en 2013, selon les chiffres obtenus lundi par l’AFP auprès du Comité des constructeurs français d’automobiles (CCFA).

Cette hausse de 20,3% est à des lieues de celle qu’a enregistré le marché français des voitures neuves l’année dernière: +0,3%, alors que 2013 avait déjà marqué un point bas depuis la crise ouverte en 2008.

Mais en part de marché, les voitures électriques restent encore anecdotiques, représentant 0,59% du 1,79 million de voitures neuves immatriculées en 2014, selon les chiffres du CCFA.

L’année 2014 a été marquée par des annonces gouvernementales sur le développement des bornes de recharge et des incitations fiscales à remplacer des vieilles voitures diesel par des autos électriques.

De leur côté, plusieurs constructeurs ont adopté des mesures commerciales agressives avec par exemple des offres de location longue durée à partir de 169 euros par mois tout compris, après apport initial.

A ce jeu, Renault s’est arrogé plus de la moitié des ventes de voitures particulières électriques avec sa petite Zoé, qui s’est écoulée à 5.970 exemplaires. Suit son partenaire Nissan, dont la voiture moyenne Leaf a séduit 1.604 acheteurs. La Bluecar de Bolloré, essentiellement dévolue aux solutions de location à l’heure dans des grandes villes (dont Autolib’ à Paris), a quant à elle obtenu 1.170 immatriculations.

A noter les résultats de Tesla, firme américaine qui propose la luxueuse berline « Model S » à partir de 60.000 euros: 328 exemplaires ont été immatriculés en France en 2014, en faisant le cinquième modèle électrique le plus diffusé, après la citadine Smart (groupe Daimler) dont 509 modèles ont été mis sur la route.

Alors que la faible autonomie des voitures électriques reste un frein à l’achat, même si leurs défenseurs font valoir qu’elles répondent aux besoins quotidiens d’une grande majorité d’automobilistes, Tesla affirme que ses Model S peuvent couvrir jusqu’à 500 km entre deux recharges.

Côté utilitaires en revanche, le marché a reculé de 13,3% puisqu’il s’est vendu 4.485 de ces véhicules électriques en 2014 contre 5.175 en 2013, selon le CCFA.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La Hongrie va reprendre ses livraisons de gaz à l’Ukraine à partir du 1er janvier

« FGSZ Ltd va assurer à nouveau les livraisons de gaz à l’Ukraine à partir du 1er janvier », indique l’opérateur dans un communiqué posté sur son site internet. La reprise de ces livraisons, a-t-il ajouté, dépend des conditions techniques et commerciales et est susceptible d’être interrompue.

FGSZ avait cessé ses livraisons de gaz à l’Ukraine en septembre dernier, une mesure alors critiquée par la société publique ukrainienne Naftogaz qui l’avait qualifiée d »inattendue et injustifiée ».

Le gouvernement hongrois avait expliqué la suspension des livraisons à l’Ukraine par la nécessité d’augmenter les réserves de gaz, un engagement dont Bruxelles demande le respect par les 28.

La suspension était intervenue quelques jours après une rencontre à Budapest entre Viktor Orban et le président du géant gazier russe Gazprom, Alexeï Miller.

Ce coup d’arrêt coincidait aussi avec une réunion UE-Russie-Ukraine à Berlin pour tenter de régler le contentieux gazier entre Moscou et Kiev et garantir que l’UE pourra compter cet hiver sur le gaz russe. La Russie fournit 30% du gaz importé par l’UE, dont la moitié transite par l’Ukraine.

esz/nas/eb/pjl

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Best of des IG Nobels… de chimie

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de chimie !

 

  • 1996 : l’Ig Nobel de cette année vint récompenser George Goble, de l’université Purdue, pour avoir établi le record du monde de l’allumage le plus rapide de barbecue, en n’utilisant que du charbon et… de l’oxygène liquide. Trois secondes, record à battre.

 

  • 1999 : Takeshi Makino, président de l’Agence des détectives pour la sécurité dans la ville d’Osaka, au Japon, se voit attribuer l’Ig Nobel de chimie pour avoir conçu « S-Check », un spray permettant supposément de révéler les infidélités d’un homme, une fois appliqué sur ses sous-vêtements. Reprenant dans les grandes lignes les tests de détection des phosphatases acides, le produit miracle colore les sous-vêtements maculés en vert flashy, et peut repérer les résidus pendant deux semaines… si toutefois l’infidèle n’a pas eu la bonne idée de laver son slip.

Test en situation… / Copyright Takeshi Makino

 

  • 2005 : remporté par deux chercheurs américains de l’université du Minnesota, Edward Cussler et Brian Gettelfinger, pour s’être penchés sur une question primordiale, à savoir si l’on nage plus rapidement dans du sirop que dans l’eau.

Etat de la piscine pour le test / Copyright université du Minnesota

 

  • 2006 : prix décerné à Antonio Mulet, José Javier Benedito et José Bon, de l’université de Valence (Espagne), ainsi qu’à Carmen Rosselló de l’université des îles Baléares, pour avoir démontré que la vitesse des ultrasons dans le cheddar était fonction de la température. On apprend d’ailleurs que l’intervalle le plus fiable pour mesurer la vitesse ultrasonique dans ce fromage se situe entre 0 et 17 degrés Celsius.

 

  • 2007 : prix remporté par le Japonais Mayu Yamamoto, du centre médical international du Japon, pour être parvenu à extraire d’une bouse de vache… l’arôme naturel de la vanille. Sa méthode d’extraction en eau subcritique de la vanilline fait désormais école. Pour rendre hommage au chercheur japonais, le meilleur glacier de Cambridge aurait créé une nouvelle crème glacée dont l’arôme s’appelle « Yum-a-Moto Vanilla Twist ». Les heureux participants à la cérémonie eurent la chance de pouvoir y goûter.

Les « vrais Nobel » Craig Mello, Roy Glauber, Dudley Herschbach, en pleine dégustation.

  • 2009 : prix décerné à Javier Morales, Miguel Apátiga, et Victor M. Castaño de l’université nationale et autonome du Mexique, pour avoir fabriqué une membrane en diamant à partir de la boisson nationale mexicaine, la tequila. 

 

  • 2011Les Japonais Makoto Imai, Naoki Urushihata, Hideki Tanemura, Yukinobu Tajima, Hideaki Goto, Koichiro Mizoguchi and Junichi Murakami ont reçu le prix parodique cette année pour avoir déterminé la quantité idéale de wasabi à pulvériser dans l’atmosphère d’une chambre afin de réveiller une personne endormie, malentendante ou sourde en cas d’incendie. Oui, l’équipe japonaise est parvenu à isoler l’isothiocyanate d’allyle – le composant organo-sulfuré présent dans le wasabi, la moutarde et le raifort, responsable du goût piquant de ces derniers – pour concevoir une alarme anti-incendie d’un genre nouveau.

 

  • 2013 : l’Ig Nobel de l’année dernière est venu récompenser les Japonais Shinsuke Imai, Nobuaki Tsuge, Muneaki Tomotake, Yoshiaki Nagatome, H. Sawada, Toshiyuki Nagata, and Hidehiko Kumgai, pour avoir essayé de comprendre pourquoi les oignons nous faisaient pleurer. Leur conclusion est savoureuse : ce processus biochimique est autrement plus complexe que ce que les scientifiques avaient pu imaginé.

 

  • A venir : le best of des IG Nobels… de littérature

Par Rahman Moonzur

Feux de cheminée: vers une levée de l’interdiction à Paris

Un arrêté du préfet de la région Ile-de-France, pris au nom de la lutte contre les émissions de particules fines, prévoyait de bannir, à compter du 1er janvier, tous les feux de bois en foyers ouverts, à Paris et dans 435 communes environnantes. Cet arrêté avait été pris en mars à la suite d’un très fort épisode de pollution.

Début décembre, la ministre de l’Ecologie Ségolène Royal avait annoncé son intention de revoir cette disposition, assimilée à de « l’écologie punitive », puis écrit au préfet pour lui demander de « supprimer cette interdiction ».

Selon la préfecture, le Conseil de l’environnement et des risques sanitaires et technologiques (CoDERST) de Paris vient d’émettre « un avis favorable » à une modification de l’arrêté dans la capitale.

Pour autant, il n’y aura pas de nouvel arrêté tant que les CoDERST des autres départements de la couronne francilienne n’auront pas rendu leur avis, ajoute la préfecture. Aucun arrêté nouveau ne pourra donc être émis avant le 1er janvier, date à laquelle l’interdiction entre en vigueur, ajoute-t-on.

« Une telle interdiction n’est pas adaptée aux actions de lutte contre la pollution atmosphérique en Ile-de-France », avait estimé la ministre dans sa lettre au préfet. Elle « donne un signal négatif alors que les pouvoirs publics veulent développer l’usage de la biomasse comme énergie renouvelable ».

Les particules fines, en suspension dans l’air, sont considérées comme très nocives pour la santé, avec notamment les PM10 (diamètre inférieur à 10 microns) qui proviennent surtout des processus mécaniques comme les activités de construction, et les PM 2,5 (inférieur à 2,5 microns) issues de la combustion du bois ou des carburants (essentiellement le diesel) ainsi que des vapeurs industrielles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #73 : les vidéos les plus étonnantes de décembre 2014 (3/3)

Cette semaine dans la revue du Web :

  • Les Slow-mo Guys : bricoler une machine à « découpe plasma », puis filmer au ralenti ;
  • Une campagne virale pour l’écran 4K TV de LG ;
  • Destruction d’une tour de refroidissement d’une centrale électrique polonaise ;
  • La Terre vue de l’espace : petit cadeau de fin d’année de l’astronaute allemand Alexander Gerst ;
  • Le gadget (inutile ?) de la semaine : « Lonely Sculpture », un doigt de pragmatisme sur les sites de rencontre ;
  • Bonus : Oxford et le Muséum d’histoire naturelle de Londres vous souhaitent un joyeux Noël ! (Crédit photo : Alexander Gerst / Agence Spatiale Internationale)

Les Slow-mo Guys : bricoler une machine à « découpe plasma », puis filmer au ralenti

Commençons cette soixante-treizième Revue du Web avec les désormais incontournables « Slow-mo Guys ». Derrière ce nom de scène se cachent le réalisateur anglais Gavin Free et son ami Daniel Gruchy, deux compères rigolards prêts à se lancer dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la très bonne habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti. Pour ce faire, rien de tel qu’une « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde. La jouissance primaire de la destruction couplée à la beauté des images rendent souvent ces scènes… hypnotiques.

Dans la vidéo qui suit, Gavin Free bricole un petit dispositif qu’il présente comme une machine à découpe plasma – bien que cela n’en soit pas une. L’appareil, fait maison, se fraie un chemin dans une feuille d’aluminium avec une facilité déconcertante, laissant peu à peu apparaître une inscription sibylline : « Slow-mo Guys ».

Une campagne virale pour l’écran 4K TV de LG

Rien de tel qu’une bonne campagne de pub virale pour sortir du lot et mettre en avant l’un de ses produits dans un secteur ultra-concurrentiel… Le géant sud-coréen de l’électronique LG l’a bien compris, avec cette petite vidéo mettant en scène quelques uns de nos animaux de compagnie favoris, cueillis dans leur torpeur dominicale par une « présence » inconnue. Cette présence, on la doit à l’écran 4K TV de LG, dont la précision serait telle qu’elle pourrait troubler les animaux de tous poils. Pourtant, les possesseurs de chiens, chats et autres perroquets le savent déjà : un vieux téléviseur à tube cathodique suffirait à troubler nos animaux préférés.

Le format vanté ici, le désormais fameux 4K, est un format d’image numérique, utilisé principalement dans le domaine du cinéma numérique, dont la définition est environ quatre fois supérieure à celle du HD 1080p (elle offre une résolution de 3840 par 2160 pixels, ce qui correspond à un ratio 16/9). On compte près de 2033 % de pixels en plus qu’une télévision standard, et 326 % de pixels en plus qu’une télévision HD.

Destruction d’une tour de refroidissement d’une centrale électrique polonaise

Il est toujours fascinant de voir s’effondrer en quelques secondes ce qu’on a mis tant de temps à édifier. Oui, le plaisir jouissif de la destruction n’est pas un mythe. C’est ici la centrale électrique de Lublin-Wrotkow, en Pologne, qui en fait les frais, y laissant quelques plumes au passage. Les explosifs, situés à la base de l’une des tours de refroidissement, ne laissent aucune chance à l’édifice, qui s’écroule comme un vulgaire château de cartes.

La Terre vue de l’espace : petit cadeau de fin d’année de l’astronaute allemand Alexander Gerst

Du 28 mai au 11 novembre dernier, Alexander Gerst s’en est mis plein les yeux. Ce volcanologue de formation a en effet eu l’insigne honneur de faire partie de l’une des missions à bord de la Station Spatiale Internationale (ISS), en compagnie du Russe Maxime Souraïev et de l’Américain Reid Wiseman. Sa fonction d’ingénieur de vol lui a permis de prendre un nombre considérable de clichés en orbite, à partir de la station, aussi bien pour documenter son travail que pour profiter du plus beau de tous les spectacles. L’astronaute allemand avait pris la bonne habitude de programmer son appareil, afin qu’il prenne des photos à intervalles réguliers.

Résultat ? Une petite vidéo en timelapse, combinant la bagatelle de 12500 photos, où se côtoient de sublimes aurores boréales, des orages électriques, des levers de soleil à vous couper le souffle ainsi que l’apparition de notre Voie Lactée et de quelques villes illuminées de nuit. Un chouette cadeau de Noël pour tout ceux qui ne mettront jamais un pied dans l’espace.

Le gadget (inutile ?) de la semaine : « Lonely Sculpture », un doigt de pragmatisme sur les sites de rencontre

Rencontrer l’âme sœur (pour une nuit, ou pour la vie) n’a jamais été aussi facile que depuis l’avènement des sites de rencontre, toujours plus nombreux, qu’ils soient généralistes ou qu’ils surfent sur de micro-niches. Devant la pléthore de profils qui s’offrent à celui qui se donne la peine de chercher, passer d’un individu à l’autre devient une entreprise décérébrante et chronophage. Notre gadget (inutile ?) vient épauler cette semaine le chasseur ou la chasseuse solitaire dans sa quête infinie de l’altérité virtuelle, en lui épargnant le choix cornélien d’un épuisant écrémage de profils. En somme, « Lonely Sculpture », conçue par Tully Arnot, fait tout le sale boulot pour vous, et vous laisse récolter paresseusement les fruits de son dur et aveugle labeur.

Pour concevoir cet ingénieux dispositif, le sémillant Australien s’est appuyé sur un servomoteur et sur un micro-contrôleur pour mettre en mouvement cet infatigable doigt en silicone, qui vient méthodiquement aider le prédateur fainéant à se faire remarquer par son gibier préféré. Il va sans dire que ce joujou n’est à recommander qu’à ceux qui croient dur comme fer à une approche quantitative de la « séduction ».

Bonus : Oxford et le Muséum d’histoire naturelle de Londres vous souhaitent un joyeux Noël !

C’est l’université d’Oxford et le Muséum d’histoire naturelle de Londres qui viennent conclure cette soixante-treizième Revue du Web, avec un joli conte de Noël en guise de bonus de cette semaine. Les deux prestigieuses institutions d’Outre-Manche ne pouvaient pas se contenter d’une banale vidéo présentant leurs vœux de fin d’année. Les cerveaux anglais ont en effet opté pour une approche XXL, avec un conte de leur cru illustré par quelques jolis plans décortiquant Noël à travers la lentille grossissante d’un microscope.

Sont passés au crible le sucre de la « mince pie » – tarte anglaise habituellement servie à Noël – comme le pelage d’un renne, la laine des chaussettes de Noël comme de jolis cristaux de pyrite. On peut également apercevoir la structure d’une éponge de verre, d’un papillon de nuit, de crinoïdes ainsi que le squelette d’un Edmontosaurus que vient coiffer une étoile de mer. Moralité : « la plupart des créatures ne semblent pas magiques, mais en guise de consolation, tout devient intéressant à un fort grossissement ».

Par Moonzur Rahman

Recyclage: entrée en vigueur d’un nouveau logo le 1er janvier

La mise en place de ce logo, né du Grenelle de l’Environnement et baptisé « Triman », était initialement prévue dès 2012. Mais elle s’est heurtée à une forte opposition, notamment des industriels, qui ont invoqué son coût et le fait que, selon eux, il allait encore complexifier la signalétique du tri.

« Tout metteur sur le marché de produits pouvant faire l’objet d’un recyclage de manière effective (….) informe le consommateur par une signalétique commune que ceux-ci relèvent d’une consigne de tri », stipule le décret.

Le pictogramme « doit figurer sur le produit. A défaut, il peut figurer sur l’emballage, la notice ou tout autre support y compris dématérialisé », c’est-à-dire sur un site internet, ajoute le texte. Ces dispositions « entrent en vigueur le 1er janvier 2015 ».

Certains produits recyclables –piles, accumulateurs usagés, déchets d’équipements électriques et électroniques, déchets ménagers des produits chimiques– ne sont pas concernés par le « Triman », de même que le verre.

La mise en oeuvre d’une signalétique commune doit « permettre une importante simplification du geste de tri du citoyen et contribuer à l’augmentation des performances des collectes séparées et du recyclage », souligne le décret.

« On est content. L’intérêt du Triman est de valoriser les produits et emballages recyclables et qui sont effectivement recyclés », se réjouit-on à l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). « L’ambition à terme » est que ce nouveau logo « devienne un des critères de choix des consommateurs dans leurs actes d’achat et donc un facteur de différenciation pour les entreprises », ajoute-t-elle.

Le Triman est déjà présent sur quelques emballages dont des bouteilles et canettes d’Orangina et de Schweppes.

Les pouvoirs publics espèrent qu’il poussera les industriels à investir dans des produits plus écologiques.

Actuellement, 42% des emballages et papiers collectés par le service public de la gestion des déchets sont recyclés, selon l’Ademe. L’objectif est d’arriver à 60 % en 2025 selon le projet de loi de transition énergétique pour la croissance verte.

L’entrée en vigueur du « Triman » le 1er janvier 2015 figure dans une loi sur la simplification de la vie des entreprises promulguée en janvier dernier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La pollution de l’air augmente les risques de maladies cardiovasculaires

La pollution de l’air abîme notre cœur. Selon un exposé de position publié dans l’European Heart Journal, il existe de nombreuses manifestations de la maladie cardio-vasculaire associées à la pollution de l’air. La pollution atmosphérique aggrave non seulement des problèmes cardiaques existants, mais semble également jouer un rôle dans le développement de la maladie chez des personnes saines. Il y a notamment une forte preuve d’un effet négatif des particules en suspension par rapport aux polluants gazeux.

La pollution de l’air extérieur est un mélange complexe de milliers de composants. Du point de vue de la santé, des éléments importants de ce mélange comprennent des particules en suspension et les polluants gazeux comme l’ozone, le dioxyde d’azote (NO2), les composés organiques volatils (dont le benzène), le monoxyde de carbone (CO) et le dioxyde de soufre (SO2). Les particules de suie, d’oxydes d’azote et de soufre sont émises directement dans l’air par la combustion de combustibles fossiles. Les principales sources de NO2 sont le trafic motorisé routier, la production d’énergie, de sources industrielles et le chauffage résidentiel.

Selon l’Organisation mondiale de la santé (OMS), les maladies cardiovasculaires sont la première cause de mortalité dans le monde. En Europe, elles tuent 4 millions d’Européens et 1,9 million de citoyens de l’Union européenne, selon la société européenne de cardiologie.

La pollution de l’air, première cause environnementale de décès

En novembre dernier, l’Agence européenne de l’environnement (AEE) a publié un rapport dans lequel elle indique que la pollution de l’air reste la principale cause environnementale de décès prématurés dans l’Europe urbaine. « Presque tous les urbains sont exposés à des polluants à des niveaux considérés comme dangereux par l’Organisation mondiale de la santé (OMS) ».

Les maladies et les crises cardiaques sont la principale cause (80 %) de décès dus à la pollution de l’air, avant les maladies pulmonaires et le cancer, selon l’étude de l’AEE. Le document indique également qu’environ neuf habitants sur dix des villes européennes respirent un air chargé de polluants considérés comme responsables de 400.000 morts prématurées chaque année.

La pollution de l’air est ainsi liée à des pathologies telles que les maladies des artères coronaires, l’insuffisance cardiaque, l’arythmie et l’arrêt cardiaque, les maladies cérébrovasculaires ou encore l’artériosclérose.

Une action des pouvoirs publics attendue

L’exposé de position de l’European Heart Journal appelle intensifier les efforts pour réduire l’exposition à la pollution atmosphérique par le soutien d’une législation approprié et efficace pour réduire. Ainsi la Commission européenne a lancé en 2005 une stratégie thématique sur la pollution de l’air en vue d’atteindre « des niveaux de qualité de l’air qui ne donnent pas lieu à des effets négatifs importants sur la santé humaine et l’environnement ».

De même en 2008, l’UE a adopté directive « Air pur pour l’Europe » qui modifie la législation européenne relative à la qualité de l’air ambiant pour réduire la pollution à des niveaux qui réduit les effets nocifs sur la santé humaine et sur l’environnement tout en améliorant l’information du public sur les risques encourus.

Cependant, le 12 décembre dernier, le vice-président de la Commission européenne Frans Timmermans a annoncé l’abandon du projet pour de nouvelles règles européennes contre la pollution de l’air. Une décision qui a provoqué la colère des écologistes pour qui la Commission a cédé aux pressions du patronat.

Lors de la session plénière de décembre, le président de la Commission Jean-Claude Juncker a, de son côté, indiqué que le texte serait maintenu tout en aidant modifié.

Source : Euractiv.fr. Anne-Claude Martin

Reach/CLP : toute l’actualité de décembre (2/2)

La newsletter de décembre est en ligne

Nouvelles propositions de classification et d’étiquetage harmonisé

09/12/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 23 janvier 2015.

Mise à jour de l’outil QSAR 

09/12/2014

La version 3.3 de l’outil « QSAR Toolbox » est désormais disponible.

Les détails sur cette nouvelle version sont disponibles sur : 

http://echa.europa.eu/view-article/-/journal_content/title/qsar-toolbox-3-3-now-available

Le Comité sur les produits biocide adopte 8 avis 

09/12/2014

Le Comité sur les produits biocides a adopté 8 avis.

Adoption de 23 avis pour des classifications et étiquetages harmonisés

10/12/2014

Le Comité d’évaluation des risques (RAC) a adopté 23 avis pour des classifications et étiquetages harmonisés.

Modification de l’arrêté TMD

12/12/2014

L’arrêté TMD, relatif aux transports de marchandises dangereuses par voies terrestres, fait l’objet d’une nouvelle modification par un arrêté paru vendredi 12 décembre au Journal officiel. Le texte entre en vigueur le 1er janvier 2015 mais il est possible de continuer à appliquer l’arrêté TMD dans sa version antérieure jusqu’au 30 juin 2015.

Nouvelle consultation pour éviter les tests sur les animaux

12/10/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 16 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 26 janvier 2015.

Un guide pour le règlement PIC

15/12/2014

Le règlement PIC qui régit l’exportation et l’importation de certains produits chimiques dangereux est en vigueur depuis le 1er Mars 2014. L’ECHA a publié un document d’orientation pour aider les détenteurs dans l’application des dispositions spécifiques pour l’exportation et l’importation de certains produits chimiques dangereux en vertu de ce règlement.

6 nouvelles substances classées extrêmement préoccupantes

17/12/2014

L’ECHA a annoncé l’ajout de six nouvelles substances à la liste des substances extrêmement préoccupantes (SVHC). Désormais, elles sont inscrites à la liste candidate et soumises à autorisation, dans le cadre du REACH. Les substances concernées sont : le fluorure de cadmium, le sulfate de cadmium, deux types de benzotriazole (UV-320 et UV-328) et deux réactions chimiques (DOTE et MOTE).

Une réactualisation a également été décidée pour le phtalate DEHP, pour ses effets endocriniens. Ce phtalate était déjà inscrit à la liste candidate comme reprotoxique. Les producteurs et importateurs d’articles contenant ces substances disposent de 6 mois pour notifier à l’Echa leur présence dans des quantités supérieures à une tonne par an et à une concentration de 0,1%.

Proposition de restriction

17/12/2014

L’ECHA a lancé un appel visant une proposition de restriction de l’acide perfluorooctanoïque (PFOA, CAS 335-67-1, CE 206-397-9), y compris ses sels, et toute autre substance ayant des dérivés de perfluoroheptyl linéaires ou ramifiés avec la formule C7F15- comme un élément structurel, y compris ses sels, sauf les dérivés avec la formule C7F15-X, où X = F, Cl, Br et toute autre substance ayant des dérivés de perfluorooctyle, linéaires ou ramifiés ayant la formule C8F17- comme élément structurel, y compris ses sels, à l’exception des dérivés de formule C8F17-X, où X = F, Cl, Br ou, C8F17-SO2X ‘, C8F17-C (= O) OH ou C8F17-CF2-X’ (où X ‘= aucun groupe, y compris les sels).

Les commentaires sont à soumettre avant le 16 juin 2015.

Exportation et importation de produits chimiques dangereux

18/12/2014

Un rectificatif au règlement délégué européen n° 1078/2014 de la Commission du 7 août 2014 modifiant l’annexe I du règlement européen n° 649/2012 du Parlement européen et du Conseil concernant les exportations et importations de produits chimiques dangereux est paru au Journal officiel le 18/12/2014.

Décisions de la Commission relatives aux autorisations de mise sur le marché en vue de l’utilisation et/ou à l’utilisation de substances

20/12/2014

Un résumé des décisions de la Commission du 18/12/2014 relatives aux autorisations de mise sur le marché en vue de l’utilisation et/ou à l’utilisation de substances énumérées à l’annexe XIV du règlement européen REACH est paru au Journal Officiel le 20/12/2014.

Par Céline Garobiaud

 

Et aussi dans les
ressources documentaires :

Les panneaux solaires risquent d’être affectés lors de la prochaine éclipse solaire

En donnant une part de plus en plus importante aux sources d’énergie solaire, les gouvernements n’avaient pas pensé aux éclipses. Certes, les éclipses solaires sont rares, mais elles pourraient bien avoir de graves conséquences sur l’approvisionnement en électricité, notamment en privant brutalement les panneaux photovoltaïques de lumière. Or, la part d’énergie produite via ces panneaux est suffisamment importante pour qu’on ne puisse pas s’en passer si facilement.

Que va-t-il se passer quand le soleil sera caché par la Lune le 20 mars 2015 ? Ce sont pas moins de 75 000 à 80 000MW de panneaux solaires qui risquent d’être affectés dans toute l’Europe. Deux cas de figures sont possibles. Si le jour du l’éclipse, le ciel est très nuageux au dessus des panneaux, ceux-ci produiront très peu et leur contribution sera négligeable. Même si la forte diminution de luminosité abaissera encore leur production, la différence sera minime et facilement compensée en temps réel par les autres sources d’énergie.

Mais si le 20 mars est un jour ensoleillée, l’approvisionnement risque d’être fortement perturbé. En effet, en quelques minutes seulement, près de 30 000MW produits par les sources photovoltaïques pourraient disparaitre. Une baisse brutale qui devra être compensée par les autres sources d’électricité. En parallèle, la demande va grimper à cause des lumières qui vont être allumées au même moment pour éclairer les maisons, habitations et bureaux. De quoi accentuer les difficultés d’approvisionnement du réseau électrique.

Heureusement, plusieurs solutions sont envisageables. La plus évidente est de se passer des panneaux photovoltaïques quelques heures avant l’éclipse, et donc de ne pas s’exposer à une variation brutale de la production. Une deuxième approche consiste à préparer les centrales hydrauliques qui prendront le relai pendant l’éclipse. L’avantage est que cette source d’électricité est rapidement mobilisable. Sinon, il est toujours possible d’activer quelques heures en avance  des centrales à gaz en renforts.

Il reste 3 mois aux différents acteurs du secteur de l’électricité pour préparer l’éclipse de soleil. Les Allemands sont les plus exposés avec leur parc solaire très développé de 36.9 GW, soit 8 fois plus que la France.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

La Chine double les Etats-Unis et devient première puissance économique

Serait-ce la fin de la suprématie américaine ? C’est ce que suggère fortement Brett Arends, journaliste au Market Watch dans son article soulignant la performance chinoise. L’éditorialiste parle même de « tremblement de terre géopolitique ». Pour la première fois depuis 1872, les Etats-Unis ne sont plus la première puissance économique du monde, désormais détrônés par la Chine. Plus précisément, d’après les chiffres du Fonds monétaire international (FMI), la Chine représente 16.5% de l’économie mondiale contre « seulement » 16.3% pour le pays de l’oncle Sam. Cet écart de 0.2% va même s’accroitre dans les années qui viennent puisque le FMI prédit une richesse nationale de la Chine de 26800 milliards de dollars contre 22000 milliards pour les Etats-Unis d’ici 2019.

Mais alors, le monde va-t-il changer ? Non, en tout cas pas tout de suite. La place de leader de l’économie repose sur le calcul du produit intérieur brut (PIB) selon les parités de pouvoir d’achat. En milliards de dollars en parité de pouvoir d’achat, le PIB chinois vaut 17632 en 2014 quand celui des Etats-Unis vaut 17416. En réalité, la domination du marché chinois date de plusieurs années. Si l’on calcule le PIB en milliards de dollars en prix constants, la Chine est  déjà sur la première marche du podium depuis 2011. Une méthode de calcul moins représentative que celle en PPA qui tient compte de ce que l’on peut acheter localement selon un panier de plus de 3000 produits, mais qui témoigne d’une tendance qui n’est pas nouvelle. D’autant que la Chine revendiquait déjà le statut de première puissance commerciale depuis 2013, avec plus de 4000 milliards de dollars d’échanges commerciaux.

En termes de PIB nominal, c’est-à-dire calculé en tenant compte des taux de change, les Etats-Unis sont classés 1er avec 18 287 milliards de dollars, loin devant la Chine et sa seconde place avec 11285 milliards de dollars. A noter que la France se classe 6ème, derrière le Royaume Unis, avec 2935 milliards de dollars de PIB. De plus, si l’on considère le PIB par habitant, la Chine chute en 89ème position, alors que les Etats-Unis se maintiennent dans le top 10.

Pour résumer, la Chine n’a pas encore supplanté les Etats-Unis mais sa puissance, notamment économique et commerciale, ne cesse d’augmenter. Une croissance fulgurante qui pourrait bien, à moyen terme, rebattre les cartes de l’économie mondiale et bousculer l’ordre établi depuis près d’un siècle et demi.

Par Audrey Loubens, journaliste scientifique

Le pétrole se stabilise à New York, poussé par la confiance sur l’économie

Vers 14h10 GMT, le baril de « light sweet crude » (WTI) pour livraison en février prenait 0,05 cents à 55,31 dollars sur le New York Mercantile Exchange (Nymex).

« Le marché devrait rester orienté à la hausse », a annoncé Bob Yawger, de Mizuho Securities. « On dirait que les chiffres du PIB vont le soutenir, car ils laissent attendre une avancée conséquente de la demande. »

Selon une troisième estimation du produit intérieur brut (PIB) des Etats-Unis, publiée mardi par le département du Commerce, la croissance américaine a augmenté de 5% en rythme annualisé de juillet à septembre, soit une révision en hausse de 1,1 point de pourcentage par rapport à la 2e estimation (3,9%). C’est le rythme d’expansion le plus fort depuis le 3e trimestre 2003.

« Après les bons chiffres sur l’économie, et vu que des investisseurs parient sur un rebond à court terme des cours, on pourrait assister à une hausse au-dessus des 60 dollars, probablement pas aujourd’hui, mais à plus long terme », a-t-il jugé.

Le marché attend désormais la publication des stocks hebdomadaires de pétrole brut aux Etats-Unis par le département de l’Energie, prévue mercredi matin. La semaine dernière, ils ont moins baissé que prévu.

Au niveau mondial, les prix ont également été soutenus par une annonce de la Libye sur la baisse de son offre d’or noir à cause de combats dans les régions productrices.

« La compagnie nationale du Pétrole a révélé que sa production actuelle de pétrole brut à 300.000 barils par jour (bj) n’était pas suffisante pour combler la demande domestique », notaient les analystes du courtier PVM.

Le marché reste cependant sous la pression de l’Organisation des pays exportateurs de Pétrole (Opep) qui refuse de réduire sa production, avec de nouveaux propos en ce sens d’Ali al-Nouaïmi, le ministre saoudien du Pétrole.

« Il n’est pas dans l’intérêt des producteurs de l’Opep de réduire leur production, quel que soit le prix (…). Que ça descende à 20, 40, 50 ou 60 dollars, il n’est pas pertinent » de réduire l’offre, a–il déclaré dans un entretien à la revue spécialisée Middle East Economic Survey (MEES), publié lundi.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’usage des pesticides agricoles est reparti à la hausse en 2013 (+9%)

En 2013, le printemps a été exceptionnellement humide, ce qui a favorisé la prolifération de champignons, de limaces et mauvaises herbes, a expliqué le ministère dans un communiqué.

C’est un revers, car, l’année précédente, le recours aux produits chimiques en agriculture avait baissé (-6%) pour la première fois depuis la mise en place d’un indicateur de mesure en 2009.

Surtout, entre 2009 et 2013, l’emploi de produits d’agrochimie reste en hausse de 5%.

En 2008, dans la cadre du Grenelle de l’Environnement, la précédente majorité avait lancé son plan Ecophyto avec un objectif: réduire de moitié le recours aux pesticides d’ici 2018.

A son arrivée en mai 2012, le ministre socialiste de l’Agriculture Stéphane Le Foll avait pris ses distances avec cet objectif chiffré, tout en tentant de changer durablement les pratiques de production avec l’agroécologie.

Pour l’heure, ces politiques n’ont pas encore réussi à porter leurs fruits. Pour autant le tableau n’est pas tout noir, selon Patrick Dehaumont, directeur général de l’Alimentation.

D’abord parce que dans les zones non agricoles (jardins publics, cimetières…), l’utilisation des produits phytosanitaires a baissé de près de 8% en 2013 et de 3,4% depuis 2009.

Ce qui témoigne de l’engagement des collectivités à changer leurs pratiques. Une évolution encourageante, sachant que la ministre de l’Écologie Ségolène Royal envisage d’interdire l’usage des pesticides dans les jardins publics fin 2016.

De plus, le plan Ecophyto a permis de « faire le grand ménage dans les molécules les plus dangereuses » et de « mettre en place un réseau de 2.000 fermes pilote dans le développement de pratiques et de programmes de recherche », ajoute Patrick Dehaumont, interrogé par l’AFP.

Des résultats « encourageants » ont en effet été observés dans ce réseau de fermes baptisé Dephy.

« Le nombre de traitements moyen depuis l’entrée des fermes dans le réseau a diminué en 2013 de 12% pour les grandes cultures et la polyculture-élevage et de 11% pour l’arboriculture », détaille le ministère de l’Agriculture.

« Le poste herbicides reste néanmoins le plus difficile à réduire », reconnaît-il.

Mardi matin, le député PS de Meurthe-et-Moselle Dominique Potier doit remettre au Premier ministre Manuel Valls un rapport d’évaluation et de révision du plan Ecophyto baptisé « Pesticides et agroécologie: les champs du possible ».

« Les recommandations de ce rapport seront analysées et serviront de socle au lancement d’un nouveau plan Ecophyto », explique le ministère.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Pesticides: Valls demande un nouveau plan de réduction des pesticides après l’échec du plan Ecophyto

« Six ans après son démarrage fin 2008, le plan n’a pas eu les résultats espérés puisque les indicateurs de suivi (…) ne montrent pas de tendance à la baisse », conclut la mission pilotée par le député socialiste de Meurthe-et-Moselle, Dominique Potier, à la demande du chef de gouvernement.

Adopté dans le cadre du Grenelle de l’Environnement et lancé en 2008, le Plan Ecophyto visait à diviser par deux, « si possible », l’usage des produits phytosanitaires aussi bien en zone agricole qu’en ville et dans les jardins.

Or le bilan 2013 publié lundi par le ministère de l’Agriculture a montré un usage en hausse de plus de 9% pour l’année, en raison de conditions climatiques difficiles il est vrai, et de 5% en moyenne entre 2009 et 2013.

« Pendant ses six premières années, le Plan a créé les conditions nécessaires mais non suffisantes pour atteindre ses objectifs », note la mission. « La dynamique collective n’a pas encore diffusé au-delà des réseaux de praticiens pionniers alors même que des succès probants commencent à être enregistrés ».

M. Valls a donc chargé les ministres Ségolène Royal (Ecologie) et Stéphane Le Foll (Agriculture) « d’engager un nouveau plan de réduction de l’utilisation des pesticides en France », annonce un communiqué de ses services.

Selon Matignon, « le rapport formule de nombreuses préconisations qui rejoignent les préoccupations constantes de nos concitoyens: la préservation de la santé publique et de l’environnement, la transition agro-écologique et plus particulièrement la diminution du recours aux produits phytosanitaires ».

Les parlementaires préconisent dans leur rapport de « restructurer » le plan autour de six axes, dont un effort « considérable » de recherche et d’innovation mais aussi de le réorienter en vue d’une meilleure cohérence avec les autres politiques publiques, afin de créer « un cadre socio-économique propice à des systèmes de production beaucoup plus autonomes vis-à-vis des intrants ».

En l’état, « le plan n’a pas d’emprise sur les leviers majeurs de l’usage des pesticides que constituent le choix des cultures, des systèmes de culture et de gestion de l’espace », estiment-ils en insistant sur « la nécessité pour notre agriculture de sortir de l’impasse d’une excessive dépendance aux pesticides » pour éviter une perte de compétitivité future.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un Américain réussit à contrôler en même temps deux prothèses de bras par la pensée

Leslie Baugh a été amputé des deux bras il y a 40 ans suite à une électrocution. Pourtant, depuis cet été, il a réussi à se servir de deux bras bioniques avec suffisamment de précision pour déplacer une tasse sur une étagère. Cet exploit a pu se produire grâce aux scientifiques, chirurgiens et experts en robotique,  de l’Université du Colorado qui ont mis au point un programme informatique bien particulier. Celui-ci est capable d’analyser tous les signaux corporels liés au mouvement des bras, qu’il s’agisse d’identifier quel muscle se contracte à quel moment, avec quelle intensité, comment l’information sur le mouvement à effectuer se propage d’un muscle à l’autre, et bien sûr quelles sont l’amplitude et la fréquence de ces déplacements. Une fois toutes ces données connues, elles sont transmises à la prothèse pour qu’elle se déplace en conséquence.

Les prothèses sont fixées à l’aide d’un corset fabriqué sur-mesure. L’algorithme de reconnaissance est incorporé au corset et fonctionne pas simple contact. Ce procédé n’intègre aucune chirurgie ! Tout le travail est fait par l’algorithme qui analyse les signaux corporels du patient au niveau de son torse et de ses épaules pour les traduire en mouvement de la prothèse. Ainsi, l’homme peut à nouveau contrôler « ses » bras par la pensée. Leslie Baugh, qui est le premier a tester ce qui n’est encore qu’un prototype, a donc appris à plier un bras, fermer et ouvrir la main, jusqu’à très vite réussir à attraper un objet. Il a même été capable de combiner des mouvements des deux bras simultanément. Pourtant, ces bras bioniques n’ont pas des mouvements aussi fluides qu’un bras vivant, il faut d’abord gérer le mouvement d l’épaule, puis celui du coude, du poignet et enfin celui de la main, ce qui donne un déroulé saccadé.

Cette approche est révolutionnaire car elle s’affranchit des risques liés à une intervention médicale. Toutefois, il a fallu au préalable réveiller les nerfs qui étaient morts ce qui est un processus douloureux.

Découvrez en vidéo le fonctionnement de ces nouvelles prothèses :

Par Audrey Loubens, journaliste scientifique

Les Emirats dotés d’un premier réacteur nucléaire en 2017

« Quant ils seront pleinement opérationnels en 2020, ces réacteurs vont générer 25% des besoins en électricité des Emirats arabes unis », a déclaré le Pdg de l’Emirates Nuclear Energy Corp (ENEC), Mohamed al-Hammadi, lors d’un forum sur l’énergie à Abou Dhabi.

M. Hammadi a indiqué que le premier réacteur, réalisé à 61%, entrera en production en 2017. Les travaux sont en cours pour la construction des deuxième et troisième réacteurs pour une entrée en service en 2018 et 2019, tandis que le site du quatrième est en cours de préparation, a-t-il ajouté.

Un consortium international conduit par la Korea Electric Power Corp avait remporté en décembre 2009 un contrat de 20,4 milliards de dollars pour la construction de quatre réacteurs de 1.400 mégawatts chacun à Baraka, à l’ouest d’Abou Dhabi. Ce contrat, le plus gros jamais remporté par la Corée du sud à l’étranger, associe des firmes comme Samsung, Hyundai et Doosan Heavy Industries.

M. Hammadi a indiqué qu’ENEC avait conclu un contrat de trois milliards de dollars avec des firmes internationales pour approvisionner les réacteurs en matériaux nucléaires pendant 15 ans.

En outre, a-t-il précisé, 5% des besoins en électricité des Emirats seront fournis par des sources d’énergie renouvelables d’ici à 2020, aidant le pays à réduire de 12 millions de tonnes ses émissions de CO2 d’ici 2020.

En mars 2013, les Emirats avaient inauguré Shams-1, la plus grande centrale d’énergie solaire à concentration mise en service au monde, devant alimenter quelque 20.000 domiciles en électricité.

Les Emirats ont d’importantes réserves pétrolières et produisent 2,8 millions de barils par jour.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Dis-moi où tu vis, et je te dirai comment tu télécharges

Le partage de fichiers via Internet grâce au modèle de réseau informatique « Peer-to-peer » – avec en tête les films, les séries télé, la musique, les jeux vidéos et les livres numériques – s’est rapidement imposé comme l’approche alternative privilégiée pour obtenir le contenu digital désiré, et souvent de manière illicite. Mais, contrairement aux utilisateurs de services légaux et payants comme Amazon ou le nouveau venu en France, Netflix, bien peu d’informations tangibles et sourcées transpirent sur les utilisateurs de Peer-to-peer, en raison de l’absence cruelle de données.

Deux types de comportements

Bien décidée à faire bouger les lignes, une équipe de chercheurs de l’université américaine de Northwestern, près de Chicago, est parvenue à collecter une quantité jusque-là inédite de données sur un panel de 10000 utilisateurs du très populaire réseau BitTorrent, répartis à travers le monde et ce pendant un mois. Ces données ont permis aux chercheurs de cerner deux types de comportements intéressants parmi les usagers du réseau créé par Bram Cohen :

  • un grand nombre des utilisateurs de BitTorrent sont « spécialisés » dans leur contenu (c’est-à-dire qu’ils ne partagent presque exclusivement qu’un seul type de fichiers, à savoir par exemple uniquement des films ou seulement de la musique) ;
  • les internautes se trouvant dans des pays dont le niveau de vie est équivalent ont tendance à télécharger le même type de contenu. Les habitants de pays comme l’Espagne ou la Lituanie (dont les économies sont considérées comme « modestes » par le groupe de chercheurs) téléchargeraient en priorité des fichiers de grande taille, i.e. des films.

L’internaute, un spécialiste ès contenu

« Les habitants d’un pays donné montrent des préférences pour certains contenus – contenus dont la disponibilité peut laisser à désirer en raison d’un gouvernement autoritaire ou d’infrastructures de culture et de communication médiocres. Cette étude peut fournir un aperçu du bon fonctionnement d’un pays » explique Luis A. Nunes Amaral, professeur d’ingénierie chimique et biologique, et coauteur de l’étude. En clair, les téléchargements de films pourraient être plus importants dans des pays qui disposent d’un moins grand nombre de cinémas, d’une offre de films moins variée ou moins pointue, ou dont le prix de la place peut sembler élevé par rapport au niveau de vie.

En effet, l’étude rapporte qu’un utilisateur vivant dans un pays dont le Produit Intérieur Brut (PIB) est peu élevé aura plutôt tendance à partager des fichiers lourds, comme des films Haute Définition. A l’opposé, ceux qui vivent dans un pays dont le PIB est plus élevé tendraient plus naturellement vers des fichiers plus petits, tels que des fichiers musicaux.

Les chercheurs ont également observé que plus de la moitié des fichiers téléchargés par un internaute appartiendra à l’un de ses deux types de contenus favoris, faisant de lui un « spécialiste ès contenu » plutôt qu’un généraliste.

Par Moonzur Rahman

Et aussi dans les ressources documentaires :

L’équipage de l’ISS reçoit un nouvel outil, par courriel

C’est la première fois que l’équipage a pu ainsi bricoler un outil qui lui manquait grâce à une imprimante 3D fabriquée spécialement pour l’apesanteur.

La clé a été conçue par Made in Space, la compagnie basée en Californie qui a créé l’imprimante.

Cette dernière avait déjà été utilisée dans la station spatiale mais seulement sur des dessins testés et téléchargés d’abord sur Terre.

Cette fois-ci, l’outil a été dessiné et testé sur Terre puis son dessin envoyé par courriel à l’imprimante, qui a réalisé l’objet en quelque 4 heures, a indiqué la compagnie dans un communiqué.

« La clé a été dessinée avec ses pièces amovibles sans qu’il y ait besoin d’autres matériaux », indique un communiqué de la compagnie.

Un prototype a été imprimé dans un laboratoire californien puis envoyé à la NASA pour qu’elle l’inspecte avant que le dessin n’aille vers l’ISS.

Tout le processus, de la conception à son exécution, a pris moins d’une semaine.

La clé comme tous les autres objets imprimés dans la station, sera ramenée sur Terre pour être comparée avec des objets imprimés normalement.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Fukushima: fin du retrait du combustible de la piscine du réacteur 4

« C’est une avancée importante », s’est félicité devant la presse le directeur de la centrale, Akira Ono.

Cette opération, qui a pris plus d’un an, s’est terminée samedi. Tokyo Electricc Power (Tepco) avait déjà annoncé début novembre qu’il ne restait que 180 assemblages neufs dans ce bassin de désactivation. Avaient alors déjà été enlevés les 1.331 assemblages de combustible usé qu’elle contenait au moment de l’accident.

Quand a commencé ce retrait, la première grande étape dans le démantèlement de la centrale Fukushima Daiichi, il y avait dans la piscine 1.533 assemblages, dont 1.331 usés et 202 neufs. Tous ont donc désormais été transférés en lieu plus sûr, dans un autre bassin du site, à l’écart des réacteurs mis en péril par le tsunami du 11 mars 2011.

En réalisant sans incident l’extraction de ce combustible, Tepco a levé une menace importante: si la piscine avait subi une nouvelle catastrophe (à cause d’un séisme ou d’un tsunami), de nouveaux dégagements massifs de substances radioactives auraient pu se produire à cause de la difficulté (voire l’impossibilité) de refroidir ce combustible.

Pour procéder à l’extraction, Tepco a bâti une nouvelle couverture au-dessus du réacteur numéro 4 et installé un dispositif neuf d’extraction ainsi que procédé à la récupération des détritus tombés dans le bassin.

La même opération de transfert des assemblages un à un vers un caisson immergé pouvant en contenir 22, puis vers l’autre piscine d’entreposage, a été effectuée 71 fois, sans problème notable.

Il n’est jamais arrivé auparavant que de telles tâches soient réalisées dans un environnement accidenté où les techniciens doivent oeuvrer en combinaisons de protection et porter des masques intégraux pour se protéger de la radioactivité.

Il s’agissait en outre de la plus délicate opération depuis la stabilisation du site en décembre 2011, mais c’est cependant loin d’être la dernière ou la plus risquée.

Le combustible usé qui reste encore dans les piscines des réacteurs 1 à 3 devra lui aussi être extrait, des travaux encore plus difficiles.

Le coeur du réacteur 4 était vide au moment de l’accident, seule sa piscine contenait du combustible, mais pour les trois autres, le bassin de chacun était rempli de plus de 500 assemblages et leur coeur a fondu, ce qui va rendre les opérations de nettoyage autrement plus longues et complexes.

kap/mpd

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Es-tu un robot ? La question qui remplace les CAPTCHAS

Un CAPTCHA est un test de Turing visant à identifier le caractère humain ou non d’une requête sur internet.  L’objectif final étant de se protéger des spams en débusquant les robots et ainsi les bloquer. Pour faire la différence, le CAPTCHA repose sur la capacité d’analyse visuelle propre à l’être humain et dont un robot malveillant est dépourvu. Une image est donc affichée à l’écran, contenant une série de chiffres et de lettres plus ou moins déformés que l’utilisateur est censé être capable de déchiffrer. Ne reste plus qu’à saisir cette séquence aléatoire et de valider.

Très efficace et facile à mettre en place pour un site, le CAPTCHA est toutefois pénible pour l’internaute qui doit taper le code à chaque fois. Sans compter que parfois les symboles  sont tellement tordus qu’ils sont impossibles à reconnaitre. Du coup, l’utilisateur se trompe et doit recommencer. Et oui, l’erreur aussi est humaine, ce qui rend les CAPTCHAS  encore plus fastidieux.

Mais tout ceci pourrait bien disparaitre prochainement puisque Google vient d’annoncer qu’il travaillait au remplacement des CAPTCHAS.  Pour savoir si vous êtes un humain ou un robot, Google a eu l’idée de tout simplement vous poser la question directement. Google a donc développé une nouvelle interface de programmation (API) appelée « No CAPTCHA reCAPTCHA ». Cette nouvelle API consiste à vous identifier une première fois et à répondre à une question personnelle comme « Quelle est votre couleur préférée » puis à cocher la case « Je ne suis pas un robot ». La façon dont vous bougez votre souris suffit à valider le fait que vous êtes un humain. Félicitations, vous voilà inscrit dans la catégorie « humain ». Ainsi fiché, le site vous reconnait et ne  vous demande plus systématiquement de faire la preuve de votre humanité. En cas de doute, l’API vous demandera de relever un nouveau défi moins fastidieux qu’un CAPTCHA puisqu’il s’agira de répondre à une question en cliquant sur une image. Ce qui reste plus rapide que de taper au clavier une série de chiffres et de lettres.

Découvrez No CAPTCHA reCAPTCHA :

Par Audrey Loubens, journaliste scientifique

L’atterrissage sur une comète, percée scientifique n°1 de 2014 pour Science

Des instruments de Rosetta ont déjà détecté de l’eau, du méthane et de l’hydrogène dans la chevelure de la comète, qu’elle accompagne depuis cet été, souligne la prestigieuse revue scientifique américaine.

Les premiers résultats des analyses des molécules d’eau de « Tchouri » montrent que, contrairement à ce qu’on pensait, les comètes de ce type provenant de la ceinture de Kuiper, située au-delà de Neptune, ne sont pas à l’origine de l’eau terrestre qui aurait plutôt été apportée par des météorites.

En continuant d’observer les traînées de gaz et de poussières de cette comète, les chercheurs vont probablement pouvoir découvrir comment ces corps célestes se comportent en approchant du Soleil. Et en remontant dans le temps, ils pourraient aussi percer le mystère de la formation des différents types de comètes il y a 4,5 milliards d’années, explique Science.

Même si les batteries de Philae ne se rechargeaient pas quand la comète se rapprochera du Soleil, la mission ne serait pas pour autant trop affectée puisque, selon l’Agence spatiale européenne (ESA), 80% des résultats scientifiques proviendront de l’orbiteur Rosetta, relève la revue.

Outre Rosetta, Science a sélectionné neuf autres percées scientifiques en 2014 sans leur attribuer un rang particulier dont voici la liste:

* Le séquençage du génomes de 48 espèces d’oiseaux qui montre que la plupart des oiseaux modernes sont apparus dans les quelques millions d’années après l’extinction des dinosaures dont ils descendent, il y a 66 millions d’années. Cela a contredit les hypothèses jusqu’alors.

* Des chercheurs ont démontré que du sang de jeunes souris rajeunit les muscles et le cerveau de vieilles souris ce qui a conduit à un essai clinique dans lequel des malades d’Alzheimer ont reçu du plasma de jeunes donneurs.

* S’inspirant des termites, des scientifiques ont construit de petits robots interactifs capables de coopérer sans intervention humaine pour construire des structures simples.

* Création de puces neuromorphiques mimant l’architecture cérébrale de l’homme pour traiter l’information d’une manière plus semblable à celle d’un cerveau humain.

* Culture en laboratoire de cellules similaires aux cellules bêta qui produisent l’insuline dans le pancréas ouvrant la voie à des avancées contre le diabète.

* Des archéologues ont déterminé que des peintures d’animaux dans une grotte indonésienne que l’on pensait vieilles de 10.000 ans dataient de 30.000 à 40.000 ans aussi anciennes que l’art rupestre européen.

* La manipulation de l’activité des neurones avec des rayons lumineux a permis de modifier la mémoire chez des souris, effaçant les souvenirs existants et en implantant des faux.

* Autrefois considérés comme des outils d’apprentissage bon marché pour les étudiants, les satellites miniatures (CubeSats) commencent à faire de la vraie science, selon les chercheurs.

* Création en laboratoire de bactéries synthétiques E. coli en manipulant leur ADN qui pourrait permettre de créer des protéines artificielles sur mesure.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

COP21 : après Lima, un accord à Paris en 2015 ?

L’objectif de la COP21 est d’atteindre le Saint Graal tant de fois évoqué, mais désormais visiblement hors d’atteinte : maintenir la hausse des températures sous la barre des 2°C en 2100 par rapport à l’époque pré-industrielle.

2015 sera l’année décisive pour le climat. Il s’agira en quelque sorte de l’année qui scellera pour de bon l’avenir de la lutte contre le changement climatique et, peut-être même l’avenir de l’humanité. Mais tout n’est peut-être pas perdu d’avance. Les négociateurs viennent d’aboutir à un accord lors de la COP 20 à Lima, au Pérou. Si cet accord est qualifié par beaucoup de « a minima », il a au moins le mérite de poser les bases définissant un calendrier à respecter d’ici la COP21 du Bourget en Décembre.

Ainsi, les délégations se sont entendues sur le format des futurs engagements de réduction des émissions de gaz à effet de serre. Chaque texte, présenté par chaque pays, devra définir le périmètre, le contenu et le mode d’évaluation de ces engagements. De même, un projet de texte, qui servira de base aux négociations préalables à la COP21 a été adopté.

Quel est le calendrier d’ici décembre ?

D’ici la COP21, les négociateurs se retrouveront à l’occasion de plusieurs rendez-vous pour préparer au mieux les bases de cet acord. Les pays devront tout d’abord annoncer leurs engagements en matière de réduction de gaz à effet de serre « pour ceux qui le peuvent » d’ici le 31 mars 2015 ou bien au plus tôt après cette date. Le secrétariat de la Convention réalisera une synthèse agrégeant les engagements de chaque pays pour le 1er novembre. Il s’agira de voir si les engagements permettront d’atteindre notre Saint Graal ou non, mais aucun mécanisme d’évaluation n’a pu être adopté.

Avant cela, du 8 au 13 février, les pays se retrouveront à Genève pour continuer les discussions portant sur le document de travail du futur accord de Paris. Un projet officiel de texte devra être soumis aux 195 pays négociateurs au plus tard le 31 mai. Il sera à nouveau discuté lors d’une réunion à Bonn du 3 au 14 juin. Une dernière session de négociations intermédiaires sera prévu avant fin Novembre dans un lieu restant à définir. Toutes ces étapes doivent permettre aux négociateurs d’aboutir à un accord historique qui entrerait en vigueur en 2020.

Les récentes annonces de la Chine et des Etats-Unis suffiront-elles ?

Rappelons les faits : le 12 novembre dernier, les présidents Barack Obama et Xi Jinping  ont annoncé solennellement un plan conjoint pour limiter leurs émissions de gaz à effet de serre. Du côté des Etats-Unis, on parle d’une réduction de 26 à 28 % d’ici 2025 par rapport à leur niveau de 2005. La Chine s’engage quant à elle pour la première fois sur un plafonnement de ses émissions, au plus tard en 2030, sans chiffrer la hauteur de ce pic.

Mais il va encore falloir travailler ardemment d’ici la COP21. Début décembre, dans une chronique du Monde ,Stéphane Foucartprésente les travaux de Chris Hope, chercheur à l’université de Cambridge (Royaume-Uni) et spécialiste de modélisation des interactions entre politique énergétique et climat. Grâce à un modèle de simulation climatique supposant que les récentes promesses sino-américaines, l’engagement européen de réduire les émissions de l’Union de 40 % à l’horizon 2030 seront respectées et que le reste du monde suivrait une trajectoire similaire, Chris Hope montre que la probabilité de demeurer en 2100 sous les 2 °C est de 1,1 %. « Ces estimations doivent être prises avec prudence, n’ayant pas été dûment publiées ; mais elles offrent une idée des ordres de grandeur » , précise le journaliste. Selon les calculs de Chris Hope, l’accord sino-américain nous place en réalité, le plus probablement, sur la trajectoire d’un réchauffement de 3,8 °C d’ici à la fin du siècle.

Ces deux pays doivent donc s’orienter de manière décisive, aux côtés des autres pays, vers une lutte beaucoup plus contraignante contre le réchauffement climatique. De même, ils doivent prévoir les efforts à fournir d’ici à 2020, c’est-à-dire entre la fin d’application du protocole de Kyoto en 2015 et le début de ce futur accord éventuel en 2020. Car le GIEC le réaffirmait dans son dernier rapport  nous sommes bel et bien sur la trajectoire d’un réchauffement compris entre 3 et 4°C à la fin de ce siècle.

Par Matthieu Combe, journaliste scientifique

Google investit massivement dans les remèdes du futur

Cela fait bien longtemps que Google n’est plus seulement le moteur de recherche n°1 dans le monde mais une gigantesque société aux ambitions phénoménales. Fondée en 1998, Google Inc. est classée en 2èmeposition du Best Global Brands avec une valorisation de 107,43 milliards de dollars. De quoi se permettre des investissements importants.

Et Google ne se prive pas. En 2013, Google a suscité l’intérêt en rachetant pas moins de 8 sociétés expertes en robotiques. En parallèle, l’américain mise beaucoup sur le domaine de la santé, plus précisément les NBIC (Nanotechnologies, biotechnologies, informatique et sciences cognitives). La preuve.

Google X Life Science (Google X lab)

Quelque part dans la baie de San Francisco se cache le laboratoire ultra-secret de Google, baptisé Google X Lab, surnommé Google X. Officiellement, impossible de savoir sur quoi planchent les équipes de Google X. Toutefois, parmi les projets rendus publics on trouve des voitures automates, les Google Glass, Google Loon (des ballons stratosphériques pour développer internet partout sur la planète, un réseau neural de reconnaissance de concept ou encore Google Wing pour la livraison par drone. Mais Google X abrite une division consacrée à la santé, il s’agit de Google X Life Science, dirigée par Andrew Conrad.

Récemment, Google X Life Science a absorbé les équipes de Lift Labs, une société rachetée par Google experte en  fabrication d’outils pour les malades de Parkinson, notamment une cuillère capable de compenser les mouvements dus aux tremblements des mains.

Lentilles pour diabétiques

Grâce à des lentilles connectées à un mini capteur de glucose, il est possible de suivre l’évolution au cours du temps du taux de sucre dans le sang. Ces verres de contact mis au point par le Google X Lab pourraient grandement faciliter la vie des diabétiques en mesurant leur glycémie directement dans l’œil, plus précisément dans les larmes, et en continu.

Baseline Study

Ce projet consiste à collecter de l’ADN humain pour le corréler à l’état de santé de la personne. En faisant cela sur des milliers de gens, Google espère définir des critères permettant de distinguer les gens malades des individus sains. A terme, la connaissance de l’ADN suffira à établir des diagnostics et identifier les personnes susceptibles de développer une maladie. Pour l’instant, Google a récupéré l’ADN de 175 cobayes mais projette de compléter sa base de données avec l’ADN de plusieurs milliers de volontaires.

Pour corréler l’état de santé au génome, Google demande aux « donneurs » de porter des capteurs pour mesurer certains paramètres comme le rythme cardiaque. Mené sous la houlette du biologiste Andrew Conrad, ce programme se veut comme un outil santé de prévention, permettant de soigner la maladie avant qu’elle ne se déclare.

Plateforme à nanoparticules

C’est la dernière annonce de Google. La technologie consiste à envoyer dans le sang des particules magnétiques (oxyde de fer) capables de dépister des maladies. Ainsi, en ingérant une simple pilule, nous pourrons savoir si une pathologie est en train de se développer en nous.

En effet, ces nanoparticules possèdent des anticorps et des protéines capables de détecter certaines molécules bien précises, elles-mêmes des marqueurs de telle ou telle maladie. En parcourant le corps, elles réalisent un diagnostic très complet comme la présence d’un cancer, les prémices d’une maladie cardiovasculaire ou encore un excès de sel. Cette techno n’est pas encore opérationnelle, comme l’a confirmé Andrew Conrad, directeur de Google X Life Sciences, Google recherche actuellement des partenaires pour la pousser à maturité.

Calico

Google s’est associé à Apple pour créer Calico (California Life Company), une société dédiée à la lutte contre le vieillissement. A sa tête, Arthur Livinson, président du conseil d’administration d’Apple et de la société de biotechnologies Genentech, va donc tenter de dompter les mécanismes de l’âge et prolonger l’espérance de vie. Pour l’instant, rien ne filtre des travaux menés par Calico. Et pour cause, la société est basée au cœur du mystérieux Google X Lab dont l’emplacement reste secret.

Vers le transhumanisme

Dans sa quête de l’immortalité, Google soutient ce courant de pensée qui imagine l’homme du futur comme un être perfectible et modifiable, utilisant les nouvelles technologies pour repousser la fin de vie. Google parraine  la Singularity University spécialisée dans les NBIC et dirigé par Raymond Kurzweil. Cet ingénieur est un  transhumaniste convaincu, prédisant que le cerveau humain sera dépassé par l’intelligence artificielle dès 2045. Avec lui dans ses rangs, Google, ne cache plus son ambition de faire converger l’homme et la machine et pourquoi pas, atteindre l’immortalité.

Par Audrey Loubens

Réalité virtuelle : effet de mode ou révolution ?

Facebook, Sony, Samsung, Google se sont lancé à corps perdu dans la conception de casques capables de vous entraîner dans un autre monde – celui de jeux vidéos futuristes, de films jamais vus, et bien plus encore. 

Mais s’il ne s’agissait que d’un effet de mode ? Les Google Glass, trop chères, pas assez “grand public”, ne semblent plus intéresser que les entreprises. Mais face à la réalité augmentée, la réalité virtuelle a d’autres cordes à son arc : il ne s’agit pas ici de reproduire devant vos yeux ce que vous voyez déjà sur votre smartphone, mais de vous plonger littéralement dedans.

“L’effet est saisissant et donne la sensation de plonger dans un monde virtuel à 360°.Casque vissé sur la tête, écouteurs dans les oreilles, le joueur est coupé du monde, mais se plaît à se promener dans cette « réalité », passant de la paisible prairie à une guerre contre des aliens”, décrit Boris Manenti, du Nouvel Obs, qui a pu tester l’Oculus Rift, casque conçu par la société Oculus VR. 

Sommes-nous face à une révolution technologique ? Facebook et Mark Zuckerberg en semblent convaincus : en mars 2014, la firme californienne a ainsi racheté Oculus VR, pour 1,48 milliards d’euros. Brendan Iribe, Tim Sweeney, cofondateur du studio Epic Games (« Gears of War »), a testé l’Oculus Rift. Même si pour l’instant, ce casque est encore en cours de finalisation, sans réelles applications, selon lui, “la réalité virtuelle est une technologie qui va complètement changer le monde ».

L’échec passé de la réalité virtuelle

Pourtant, Oculus VR n’a rien inventé. La réalité virtuelle est née en 1968, aux Etats-Unis. A l’époque, cette technologie était surtout utilisée par les scientifiques et les ingénieurs, dans le cadre de leurs recherches. Dans les années 1990, la réalité virtuelle tente de conquérir le grand public, via les jeux vidéos. 

Quatre casques de réalité virtuelle, l’iGlasse de Virtual I-O, le Cybermaxx de VictorMaxx Technologies, le Virtual Boy, de Nintendo, et le VFX-1 de Forte Technologies, auraient pu révolutionner les jeux vidéos, mais ne réussirent pas à séduire les joueurs de l’époque. Cette technologie était encore balbutiante, avec un manque de puissance problématique, et des utilisateurs se plaignant de “malaises physiques”.

Aujourd’hui, ces problèmes semblent loin, grâce aux progrès technologiques, et à la coopération des développeurs, qui testent par milliers l’Oculus Rift. Avec l’arrivée, dans le monde des jeux vidéos, de la 3D, avec la Wii de Nintendo et le Kinect de Xbox, puis avec la percée de la réalité augmentée, tout semble possible.

Les constructeurs du monde des jeux vidéos ont vite pris la menace d’Oculus au sérieux : ainsi, Sony conçoit depuis 2013 son propre casque, sous le nom de “projet Morpheus”. Un casque plutôt onéreux, tout comme l’Oculus – les deux appareils devraient être commercialisés entre 230 et 320 euros.

Casques low cost

Alors que les géants du Web que sont Microsoft et Apple planchent eux aussi sur leurs propres systèmes de réalité virtuelle, Google a pris de vitesse ses concurrents, en proposant un casque low cost, à fabriquer pour 50 euros : le Cardboard. Il s’agit en fait d’une armature en carton, qui se pose sur un smartphone Android, et le transforme en casque de réalité virtuelle. Grâce à une panoplie d’applications, il permet de visiter le château de Versailles, de parcourir le monde avec Google Earth, de faire un tour de montagne russe, de regarder des films “comme au cinéma”, ou de jouer à des jeux vidéos plus vrais que nature.

Samsung s’est aussi engouffré dans la brèche des casques-smartphones. Depuis début décembre, il vend le Gear VR. Compatible avec le Galaxy Note 4 uniquement, il fonctionne comme le Cardboard… sauf qu’il coûte 200 euros. En revanche, Archos propose un casque pour iPhone, Android et Windows Phone, qui coûte 30 euros : le VR Glasses.

Optimistes contre sceptiques

Au delà des jeux vidéos, les casques de réalité virtuelle pourraient, prédisent les experts, être utilisés dans le domaine de la chirurgie (pour réaliser des opérations à distance), du tourisme, de l’architecture, ou encore du cinéma. Ainsi, la startup américaine Jaunt a conçu un prototype de caméra, qui permet de filmer à 360 degrés, afin de plonger le spectateur dans un film en réalité virtuelle. 

Le monde de l’immobilier semble attendre impatiemment le développement de ces casques : ainsi, le site d’annonces immobilières Explorimmo a développé une application permettant de visiter des maisons en 3D, sans bouger de chez soi, grâce à l’Oculus Rift. Pour Facebook, ce casque est en outre l’occasion, confie Marc Zuckerberg, de permettre à l’utilisateur de “faire des achats dans des boutiques virtuelles”, et de lui proposer de la publicité ciblée.

Mais certains restent sceptiques, comme Ed Fries, créateur de la console Xbox, qui parle d’effet de mode : “au regard du faible succès des télévisions 3D avec lunettes, je reste sceptique quant à l’adoption massive d’un tel appareil de réalité virtuelle dans un avenir proche », note-t-il.

“Ce nouveau buzz suffira-t-il à installer durablement la réalité virtuelle dans les pratiques ? En marketing, on a coutume de dire qu’on n’invente pas un besoin mais qu’on le révèle. Or, tout n’est pas gagné d’avance si on fait le parallèle avec la télévision 3D, autre technologie liée à la qualité de l’expérience, dont le boom promis n’eut pas lieu malgré une baisse spectaculaire du prix de l’équipement”, soutient également Lionel Chaze, directeur pédagogique du groupe Bellecour Ecoles d’Art, dans le Huffington Post.

Ce scepticisme n’empêche pas la société Sophic Capital de jouer les prophètes… et d’estimer que la réalité virtuelle représentera, d’ici à 2018, un marché de 6 milliards d’euros. Dans la même période, selon le cabinet Gartner, il devrait se vendre plus de 25 millions de casques.

Par Fabien Soyez

Vêtements connectés : bientôt une seconde peau high tech ?

Dans le sillage des télévisions intelligentes ou des Google Glass, les montres et les bracelets connectées ont la côte. Qu’il s’agisse des bracelets Fitbit ou Jawbone, ou de l’Apple Watch, ces gadgets permettent le “quantified self”, ou auto-mesure de données concernant sa santé.

Les “wearable devices” (les technologies qui se portent) permettent de surveiller votre sommeil, vos nombre de pas effectués par jour, votre rythme cardiaque, votre tension, ou vos calories brûlées. En 2018, le marché de ces objets connectés devrait peser 30 milliards de dollars. 

Dans la logique de joujous high tech se miniaturisant sans cesse davantage, sont apparus les vêtements connectés. 2015 devrait ainsi être l’année des “smart clothes”, ou textiles intelligents. Encore plus simples que les bracelets ou les montres, puisqu’ils se “portent” littérallement, devenant partie intégrante de votre corps. D’après le cabinet d’études Gartner, 10 millions de vêtements intelligents devraient être vendus durant l’année qui vient, et 26 millions en 2016.

Bienvenue dans l’ère du “smart sensing”. Désormais, vos vêtements vous permettront de surveiller votre état de santé. En 2012, déjà, un designer anglais avait conçu des chaussures GPS, qui vous indiquent le chemin de la maison.

T-Shirt et body pour bébé connectés

Aujourd’hui, les T-Shirts connectés d’OM Signal, dont la technologie se retrouve aussi dans le “Polo Tech” de Ralph Lauren, permettent de mesurer la respiration et le pouls, puis de transmettre ces informations à un smartphone via le Bluetooth. Ils vous permettront, si vous êtes un sportif, d’enregistrer des informations sur vos courses, ou sur votre rythme cardiaque, comme le  T-shirt Gymi (encore à l’état de prototype).

Si vous êtes jeune parent, sachez qu’il existe aussi un… body connecté (pour l’instant réservé au marché US), le Mimo, qui permet de surveiller votre bébé quand il dort.

Pas de miracle : pour collecter toutes ces données, ces vêtements “intelligents” sont munis de capteurs. Bien sûr, une question se pose : celle de l’utilisation des données par l’entreprise à l’origine du vêtement porté. Comme l’indique la CNIL dans son dernier livret (Cahiers IP n°2), intitulé “le corps, nouvel objet connecté”, les informations collectées, si elles sont croisées, peuvent révéler l’état de santé de l’utilisateur, violant ainsi sa vie privée.

Sachant que les leaders du “quantified self”, Withings, Fitbit, Runkeeper, Jawbone, ou Nike+, tentent de “monétiser” les données personnelles, en les revendant aux publicitaires – et pourquoi pas, un jour, aux assureurs ou à votre patron ? Et que dire des risques de piratage, sachant que des hackers ont déjà réussi à percer la sécurité de pacemakers connectés, et de bien d’autres objets connectés ?

Effet de mode ou révolution ?

Au delà de ces questions, et s’il ne s’agissait que d’un effet de mode, d’un soufflet qui risque de se dégonfler après un succès bref, à l’image des Google Glass, qui ne semblent désormais plus intéresser que le monde de l’entreprise ? 

Pour certains, la force des vêtements connectés, serait justement leur nature de vêtements : “la convergence avec la mode sera bientôt déterminante. A l’avenir, vous vous rendrez dans un magasin pour acheter une chemise ou un soutien-gorge, et vous n’aurez même pas à vous poser la question, ils seront connectés”, prophétise Stéphane Marceau, président d’OMsignal.

Une prédiction optimiste, sachant que nous n’en sommes encore qu’à la Préhistoire des “wearable devices”. Il serait peut être un peu trop tôt pour analyser ce qui n’est pour l’heure que l’ombre d’une tendance, les vêtements intelligents n’étant que les derniers venus dans la famille des objets connectés à porter sur soi – et ne représentant en 2015, prédit l’Observatoire des textiles techniques, que 1,5 milliards d’euros, c’est-à-dire pas grand chose encore. « Le marché des wearables est à l’âge de pierre pour l’instant. Il doit y avoir de grosses améliorations pour améliorer leur attrait », indique Marina Koytcheva, du cabinet CCS Insight, à ZDNet.com.

En avril dernier, Nike a abandonné son bracelet intelligent, “FuelBand”, et licencié 55 personnes. Révélateur ? Selon Gartner, les vêtements connectés sont pour l’instant vendus trop chers – 200 euros pour les T-Shirts d’OMsignal, ou 350 euros pour le D-Shirt par exemple -, pour intéressant le grand public. Il s’agit dont, pour le moment, d’objets réservés à une poignée d’utilisateurs, soit geeks, soit fortunés, soit fans du quantified self – et sportifs, pour la plupart.

D’après le cabinet, la démocratisation devrait survenir dans les 5 prochaines années. Angela McIntyre, analyste chez Gatner, explique au Guardian : “les consommateurs auront davantage de choix en 2015, en matière de bracelets et montres connectés. Mais l’expansion du quantified self va attirer de nouvelles personnes, qui n’ont pas envie d’avoir des écrans au poignet ou de porter une seconde montre en plus de leur modèle traditionnel”. En d’autres termes, plutôt que de s’encombrer avec toute une panoplie d’objets, le consommateur finira probablement par préferer n’en porter qu’un seul – un objet épousant son corps, sorte de seconde peau high tech.

Fermons les yeux, et rêvons  un jour, peut être, n’aurons-nous même pas besoin de T-Shirt connectés, les capteurs se trouvant… sous notre peau. Un peu science-fictionnesque. Mais certains y croient : selon une étude de Forrester Research, 8% des Américains sont séduits à l’idée de se faire tatouer des capteurs connectés. Et pour cause, puisque depuis l’été dernier, VivaLnk commercialise un tatouage NFC, permettant de déverrouiller son smartphone avec le bras.

Par Fabien Soyez

Impression 3D : un boom à prévoir en 2015 ?

L’impression 3D serait, selon Barack Obama lui-même, une “nouvelle révolution industrielle”. Née dans les années 1980, mais popularisée ces dix dernières années par le mouvement des “makers”, ces afficionados du “Do It Yourself” (DIY – le bricolage) et de l’auto-suffisance, l’imprimante 3D permet de dupliquer ou de créer l’objet de son choix, chez soi, à la maison – une tasse, un porte-clé, mais aussi le bras d’un robot, un crâne artificiel ou des vaisseaux sanguins

L’imprimante 3D permet de passer du mode “virtuel”, d’un objet modélisé (que l’on aura conçu soi-même grâce à un logiciel, ou que l’on aura téléchargé, gratuitement, sur un site tel que Thingeverse) sur l’écran d’un ordinateur, à un objet réel, grâce à la superposition de couches de matières (plastique, cire, plâtre, bobines de filament, etc.).

Trop complexe pour le grand public

Permettra-t-elle à tout un chacun de créer, en un clin d’oeil, le boulon qui vous manque, ou une nouvelle paire de chaussures ? Permettra-t-elle aussi aux entreprises d’optimiser le processus de production ? Encore jeune, l’impression 3D se démocratise, mais il reste encore du chemin à parcourir.

Du moins, du côté des particuliers. Selon Terry Wohlers de Wohlers Associates, entre 2007 et 2012, à peine 68 000 “imprimantes personnelles” ont été vendues. Principaux freins : les prix des imprimantes 3D, et leur complexité. Certes, les machines les plus performantes sont aussi les plus chères – la MakerBot Replicator 2 et l’Ultimaker coûtent 2000 euros. Mais il existe désormais des appareils “low cost”, qui coûtent entre 350 et 800 euros. Ainsi, la FreeSculpt « EX1-Basic de Pearl coûte 800 euros, quand la Solidoodle coûte 400 euros, et quand la Micro 3D de Bethesda ne coûte que 200 euros.

Malgré cela, selon une étude du cabinet Wolhers Associates, le grand public continue à trainer un peu les pieds… peut-être à cause de la difficulté, pour le débutant, d’imprimer en 3D à partir des machines d’entrée de gamme. “À ma décharge, l’impression 3D est étonnamment difficile – chose que ses partisans ne crient pas sur les toits. Il y a tant de choses qui peuvent mal se passer : le bec se bouche, la machine surchauffe, le support d’impression penche trop d’un côté…”, décrit ainsi un journaliste du New-York Times.

L’impression 3D reste donc pour l’instant, à défaut d’une prise en main future plus simple, le domaine d’une poignée de “makers”, de passionnés du DIY, plutôt que de s’infiltrer dans chaque maison. Elle se démocratise, mais principalement dans les Fab Lab, et dans le monde de l’industrie.

Impression 3D mode industriel

Selon le cabinet McKinsey, d’ici à 2025, l’impression 3D devrait avoir un impact global compris entre 230 et 550 milliards de dollars. Et en 2015, selon Gartner, son marché devrait doubler – avec 217 000 pièces vendues. À l’horizon 2018, les ventes pourraient atteindre 2,3 millions d’imprimantes 3D. Le secteur des matérieux d’impression 3D (plastiques, photo-polymères, ABS, PLA, mais aussi métaux, céramiques, cire et filaments Lay Wood) devrait également connaître un vrai boom, atteignant plus de 6,9 milliards de dollars en 2019.

D’après Gartner, dans les années qui viennent, les entreprises devraient représenter 90% des ventes d’imprimantes 3D.

L’impression 3D devrait d’abord se démocratiser dans le secteur médical – avec la conception d’appareils auditifs et de prothèses adaptées à chaque personne. Elle devrait aussi être largement utilisée par les créateurs et l’industrie de pointe, pour le prototypage, l’innovation et le développement de produits – bijoux, pièces d’avion, vêtements, meubles, composants électroniques, etc. L’impression 3D intéresse aussi les ingénieurs automobiles, une voiture, la Strati, ayant déjà été entièrement imprimée via cette machine.

Selon Gartner, les coûts d’acquisition des machines professionnelles (entre 300 000 et 1 million d’euros), freinent encore les investissements des entreprises. Mais d’ores et déjà, pour celles qui ont passé le pas, l’impression 3D leur a permis de réduire les coûts de production de 4% – en plus du gain de temps et d’un processus de fabrication simplifié, notamment pour la réalisation de pièces complexes. Ce qui devrait permettre, à terme, espère le Nouvel Economiste, de relocaliser les usines.

Pour Mathilde Berchon, auteur du livre L’impression 3D, la “révolution industrielle” tant promise par certains experts, est encore loin devant nous : “certains secteurs comme le biomédical, l’aéronautique, le spatial et certains domaines de niche vont connaître des transformations importantes en relocalisant les usines. Il s’agit de tous les domaines où la réalisation de pièces uniques a une importance majeure, comme les implants dentaires ou les prothèses auditives. Mais ce n’est pas du tout la révolution globale annoncée en fanfare par certains.”

Par Fabien Soyez

Comment donner une conscience à un ordinateur ?

Pourquoi c’est important :

Les scientifiques ne tombent pas d’accord sur ce qu’est la conscience.

Un ver de terre est-il conscient ? Un bourdon ? Est-ce qu’un ordinateur qui peut jouer aux échecs ressent quelque chose ?

Pour Christof Koch, directeur scientifique du Allen Institute for Brain Science [Institut Allen pour la science du cerveau] à Seattle, la réponse à ces questions pourrait se trouver dans la trame constitutive de l’univers. La conscience, pense-t-il, est une propriété intrinsèque de la matière, tout comme la masse ou l’énergie. Organisez la matière de la bonne façon, comme dans le cerveau mammifère, et tada ! on peut ressentir.

M. Koch, aujourd’hui 57 ans, a passé presqu’un quart de siècle à essayer d’expliquer pourquoi, par exemple, le soleil nous fait chaud sur le visage. Mais après avoir écrit trois livres sur la conscience, M. Koch dit que les chercheurs sont encore loin de savoir pourquoi la conscience survient, ou même de tomber d’accord sur ce que c’est. C’est un problème difficile. C’est l’une des raisons pour lesquelles M. Koch a quitté son poste à Caltech [California Institute of Technology] en 2011 pour rejoindre un projet à 500 millions de dollars lancé par le milliardaire Paul Allen, co-fondateur de Microsoft.

Le but de l’Institut Allen est de construire un atlas détaillé de chaque neurone et chaque synapse du cerveau mammifère. Cela fournirait aux neurosciences un geyser* de données similaire à ce qu’a accompli le Projet Génome Humain.

Mais M. Koch n’a pas abandonné sa recherche d’une grande théorie qui pourrait tout expliquer. En fait, il pense que la conscience pourrait être expliquée par ce qu’on appelle la théorie de l’information intégrée, laquelle affirme que la conscience est un produit des structures, comme le cerveau, qui ont à la fois la capacité d’emmagasiner une grande quantité d’informations, et une densité critique d’interconnexions entre leurs parties constitutives.

Pour M. Koch, cette théorie fournit un moyen d’évaluer des degrés de conscience chez les personnes ayant subi des dommages au cerveau, chez les espèces du règne animal, et même, dit-il, chez les machines. Nous avons interrogé M. Koch sur la conscience des ordinateurs pendant la conférence EmTech de MIT Technology Review.

La découverte du fondement biologique de la conscience sera-t-elle déshumanisante en aucune façon ? Et si ce n’était qu’une illusion ?

Je trouve ridicule cette vision de certaines personnes que la conscience est une illusion. Si c’est une illusion, alors c’est l’illusion la plus puissante que nous ayons. Et la plus célèbre déduction de la philosophie occidentale, c’était quoi déjà ? « Je pense. Donc je suis ». Le fait que nous possédions l’expérience consciente est la seule certitude indéniable que nous ayons.

Si les scientifiques découvrent le fondement de la conscience, quels genres de technologies pourraient en résulter ?

On pourrait avoir un test pour déterminer qui a une conscience et qui n’en a pas. Nous avons des débats passionnés dans ce pays sur l’avortement. J’aimerais avoir un moyen objectif de tester à quel moment un fœtus commence véritablement à avoir des sensations conscientes. Ou bien si un patient [dans le coma] est conscient ou non. Souvent, on ne sait pas, en fait. Ce sont des questions que les gens se posent depuis la nuit des temps, mais une fois qu’on aura une théorie, et une théorie acceptée par le plus grand nombre, on pourra aussi y répondre. Et puis, si je voulais construire une machine qui soit consciente, ça me donnerait un plan directeur.

Donc vous pensez qu’un ordinateur peut être conscient ?

J’ai fait récemment un cours magistral au MIT sur la théorie de l’information intégrée, développée par Giulio Tononi à l’Université du Wisconsin. C’est une théorie qui fait une prédiction très claire : elle dit que la conscience est une propriété des systèmes complexes qui possèdent un répertoire « cause-effet » particulier. Ils ont une façon particulière d’interagir avec le monde, comme le fait le cerveau, ou en principe, comme pourrait le faire un ordinateur. Si vous arriviez à construire un ordinateur qui a les mêmes circuits et branchements que le cerveau, cet ordinateur serait aussi doué de conscience. Il pourrait ressentir et ça lui ferait quelque chose d’être cet ordinateur-là. Cependant, il n’en est pas de même des simulations digitales.

Si je construisais un modèle logiciel parfait du cerveau, il ne serait jamais conscient, mais une machine spécialement conçue qui imite le cerveau le serait ?

Exact. Cette théorie dit clairement qu’une simulation digitale ne serait pas consciente, ce qui est radicalement différent de la croyance fonctionnaliste de 99 % des gens du MIT ou des philosophes comme Daniel Dennett. Ils disent tous qu’une fois qu’on arrivera à tout simuler, il n’y aura besoin de rien d’autre, et ce sera conscient.

Je pense que la conscience, comme la masse, est une propriété fondamentale de l’univers. L’analogie, et elle est très bonne, est qu’on peut faire de très bonnes prédictions météo de nos jours. On peut prédire l’intérieur d’une tempête. Mais ce n’est jamais mouillé à l’intérieur de l’ordinateur. On peut simuler un trou noir par ordinateur, mais l’espace-temps n’y sera jamais déformé. La simulation n’est pas vraie.

C’est la même chose avec la conscience. Dans 100 ans, on pourra peut-être simuler la conscience sur un ordinateur. Mais l’ordinateur ne vivra, ne sentira rien. Nada. Ce sera tout noir dedans. Il ne pourra pas avoir de ressenti en tout état de cause, même s’il peut avoir notre intelligence et notre capacité de parler.

Je ne suis pas en train de dire que la conscience est une âme magique. Non. C’est quelque chose de physique. La conscience survient toujours sur du physique. Mais il faut un type de matériel informatique particulier pour l’instancier. [Ndlt : instancier = en programmation informatique, créer un élément à partir d’un modèle et d’un jeu de valeurs initiales de paramètres.] Un ordinateur fait de transistors, qui déplacent des charges à travers des portes électroniques, avec chacune de ces portes connectée à quelques autres portes, est une structure cause-effet très différente de celle que nous avons dans le cerveau, où on a un neurone connecté à 10.000 neurones afférents et projetant vers 10.000 autres neurones. Mais si vous construisiez l’ordinateur de façon appropriée, comme un ordinateur neuromorphique, il pourrait être conscient.

Si je vous enfermais dans une pièce avec un ordinateur du futur, seriez-vous capable de déterminer s’il est conscient ?

Je ne pourrais pas de l’extérieur. Il faudrait que j’examine la mécanique.

Et avec le test de Turing ?

La question posée par le test de Turing est : « les machines peuvent-elles penser ? ». Mais finalement, c’est un test opérationnel pour l’intelligence, et non pour la conscience. Si vous avez une conversation intelligente avec un type dans une autre pièce, et qu’après une demi-heure vous ne pouvez pas décider s’il s’agit d’un ordinateur ou d’un humain, ben, là vous dites que l’ordi est aussi intelligent qu’un humain. Mais le test de Turing ne me dirait pas si l’ordinateur a ressenti quoi que ce soit. Je pourrais lui demander « Es-tu conscient ? » et la machine pourrait me répondre : « Mais oui, je suis pleinement conscient. Et pourquoi affirmez-vous que je ne le suis pas ? Je suis offensé ! » Mais je ne pourrais pas vraiment savoir. Je serais obligé de dire : « Désolé, il va falloir que je te démonte pour savoir comment tu es fait et comment tu fais pour générer ces états physiques différents ».

N’y a-t-il pas une question-piège à poser, à laquelle seul un être conscient pourrait répondre ?

Très bonne question. Chez les humains, nous avons des tests pratiques pour évaluer la conscience. S’il vous arrive un accident grave et que vous atterrissez aux urgences, ils vous demanderont : « Pouvez-vous bouger les yeux ? Pouvez-vous bouger vos membres ? Pouvez-vous parler ? Si vous pouvez parler, savez-vous en quelle année nous sommes ? Savez-vous qui est le président ? »

Mais comment puis-je vraiment savoir que vous êtes conscient ? C’est le problème du solipsisme. Dans l’analyse précédente, je ne sais pas. Mais je sais que votre cerveau est très similaire au mien. J’ai passé plein de gens au scanner, et je sais qu’ils ont tous un cerveau, et que leur cerveau se comporte similairement au mien. Donc je peux faire la déduction parfaitement raisonnable que vous aussi, vous êtes conscient.

Mais plus ces systèmes différent de moi, plus il est difficile de faire cette démarche par déduction. Par exemple, prenez une abeille. Est-ce qu’elle ressent quelque chose du fait d’être une abeille et de voler dans les rayons dorés du soleil et de boire du nectar ? Je trouve qu’il est très difficile de savoir si une abeille est consciente ou non. Et un ordinateur est encore plus radicalement différent. Il n’existe aucun comportement duquel je puisse le rapprocher par analogie. Je serais obligé d’examiner la mécanique sous-jacente.

Pensez-vous qu’on construira un jour des machines conscientes ?

Je ne suis pas sûr de savoir pourquoi on voudrait faire ça. Mais il n’y a aucun doute dans mon esprit qu’on construira des machines intelligentes capables de passer le test de Turing bien avant de comprendre le fondement biologique de l’intelligence humaine. Et je pense qu’il y a des dangers qui vont avec ça, que la plupart des gens, en optimistes insouciants, ignorent complètement.

Quels dangers ?

Vous ne regardez pas les films de science-fiction ? « L’intelligence artificielle hors de contrôle », bien sûr. Pensez aux marchés financiers, à toutes ces machines d’échanges boursiers, tous ces flash-crashes. Les gens vont abuser de l’intelligence des ordinateurs, la maximiser aveuglément pour un quelconque but. Ca mènera à une concentration de plus en plus grande du pouvoir entre des mains de moins en moins nombreuses. On le voit déjà, ça va conduire à du chômage en masse. Et peut-être dans 30 ou 40 ans, je pense qu’il y a vraiment un risque existentialiste pour l’espèce, de l’ampleur des armes nucléaires ou d’une chute de météorite.

Et tout ça sans que les machines soyent conscientes ? Dans les films, c’est précisément au moment où l’IA devient folle qu’elle gagne la conscience d’elle-même.

Ca, c’est parce que les gens veulent faire une histoire captivante. Si l’ennemi ne ressentait rien, s’il n’y avait rien en face, ça ne ferait pas un bon adversaire.

* ndlt : geyser de données, ou data firehose en anglais = lorsqu’un fournisseur de données sociales dynamiques (de type Twitter, par exemple) se met d’accord avec un utilisateur final pour lui envoyer la totalité des données dynamiques d’un secteur défini en temps réel, la puissance colossale du flux de données reçues par l’utilisateur final en temps réel peut être comparée par analogie à la puissance d’un geyser. 

Source :

  • Antonio Regalado, MIT Technology Review, 2 octobre 2014
  • Traduit par Alexandra Béliaeff