L’atterrissage sur une comète, percée scientifique n°1 de 2014 pour Science

Des instruments de Rosetta ont déjà détecté de l’eau, du méthane et de l’hydrogène dans la chevelure de la comète, qu’elle accompagne depuis cet été, souligne la prestigieuse revue scientifique américaine.

Les premiers résultats des analyses des molécules d’eau de « Tchouri » montrent que, contrairement à ce qu’on pensait, les comètes de ce type provenant de la ceinture de Kuiper, située au-delà de Neptune, ne sont pas à l’origine de l’eau terrestre qui aurait plutôt été apportée par des météorites.

En continuant d’observer les traînées de gaz et de poussières de cette comète, les chercheurs vont probablement pouvoir découvrir comment ces corps célestes se comportent en approchant du Soleil. Et en remontant dans le temps, ils pourraient aussi percer le mystère de la formation des différents types de comètes il y a 4,5 milliards d’années, explique Science.

Même si les batteries de Philae ne se rechargeaient pas quand la comète se rapprochera du Soleil, la mission ne serait pas pour autant trop affectée puisque, selon l’Agence spatiale européenne (ESA), 80% des résultats scientifiques proviendront de l’orbiteur Rosetta, relève la revue.

Outre Rosetta, Science a sélectionné neuf autres percées scientifiques en 2014 sans leur attribuer un rang particulier dont voici la liste:

* Le séquençage du génomes de 48 espèces d’oiseaux qui montre que la plupart des oiseaux modernes sont apparus dans les quelques millions d’années après l’extinction des dinosaures dont ils descendent, il y a 66 millions d’années. Cela a contredit les hypothèses jusqu’alors.

* Des chercheurs ont démontré que du sang de jeunes souris rajeunit les muscles et le cerveau de vieilles souris ce qui a conduit à un essai clinique dans lequel des malades d’Alzheimer ont reçu du plasma de jeunes donneurs.

* S’inspirant des termites, des scientifiques ont construit de petits robots interactifs capables de coopérer sans intervention humaine pour construire des structures simples.

* Création de puces neuromorphiques mimant l’architecture cérébrale de l’homme pour traiter l’information d’une manière plus semblable à celle d’un cerveau humain.

* Culture en laboratoire de cellules similaires aux cellules bêta qui produisent l’insuline dans le pancréas ouvrant la voie à des avancées contre le diabète.

* Des archéologues ont déterminé que des peintures d’animaux dans une grotte indonésienne que l’on pensait vieilles de 10.000 ans dataient de 30.000 à 40.000 ans aussi anciennes que l’art rupestre européen.

* La manipulation de l’activité des neurones avec des rayons lumineux a permis de modifier la mémoire chez des souris, effaçant les souvenirs existants et en implantant des faux.

* Autrefois considérés comme des outils d’apprentissage bon marché pour les étudiants, les satellites miniatures (CubeSats) commencent à faire de la vraie science, selon les chercheurs.

* Création en laboratoire de bactéries synthétiques E. coli en manipulant leur ADN qui pourrait permettre de créer des protéines artificielles sur mesure.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

COP21 : après Lima, un accord à Paris en 2015 ?

L’objectif de la COP21 est d’atteindre le Saint Graal tant de fois évoqué, mais désormais visiblement hors d’atteinte : maintenir la hausse des températures sous la barre des 2°C en 2100 par rapport à l’époque pré-industrielle.

2015 sera l’année décisive pour le climat. Il s’agira en quelque sorte de l’année qui scellera pour de bon l’avenir de la lutte contre le changement climatique et, peut-être même l’avenir de l’humanité. Mais tout n’est peut-être pas perdu d’avance. Les négociateurs viennent d’aboutir à un accord lors de la COP 20 à Lima, au Pérou. Si cet accord est qualifié par beaucoup de « a minima », il a au moins le mérite de poser les bases définissant un calendrier à respecter d’ici la COP21 du Bourget en Décembre.

Ainsi, les délégations se sont entendues sur le format des futurs engagements de réduction des émissions de gaz à effet de serre. Chaque texte, présenté par chaque pays, devra définir le périmètre, le contenu et le mode d’évaluation de ces engagements. De même, un projet de texte, qui servira de base aux négociations préalables à la COP21 a été adopté.

Quel est le calendrier d’ici décembre ?

D’ici la COP21, les négociateurs se retrouveront à l’occasion de plusieurs rendez-vous pour préparer au mieux les bases de cet acord. Les pays devront tout d’abord annoncer leurs engagements en matière de réduction de gaz à effet de serre « pour ceux qui le peuvent » d’ici le 31 mars 2015 ou bien au plus tôt après cette date. Le secrétariat de la Convention réalisera une synthèse agrégeant les engagements de chaque pays pour le 1er novembre. Il s’agira de voir si les engagements permettront d’atteindre notre Saint Graal ou non, mais aucun mécanisme d’évaluation n’a pu être adopté.

Avant cela, du 8 au 13 février, les pays se retrouveront à Genève pour continuer les discussions portant sur le document de travail du futur accord de Paris. Un projet officiel de texte devra être soumis aux 195 pays négociateurs au plus tard le 31 mai. Il sera à nouveau discuté lors d’une réunion à Bonn du 3 au 14 juin. Une dernière session de négociations intermédiaires sera prévu avant fin Novembre dans un lieu restant à définir. Toutes ces étapes doivent permettre aux négociateurs d’aboutir à un accord historique qui entrerait en vigueur en 2020.

Les récentes annonces de la Chine et des Etats-Unis suffiront-elles ?

Rappelons les faits : le 12 novembre dernier, les présidents Barack Obama et Xi Jinping  ont annoncé solennellement un plan conjoint pour limiter leurs émissions de gaz à effet de serre. Du côté des Etats-Unis, on parle d’une réduction de 26 à 28 % d’ici 2025 par rapport à leur niveau de 2005. La Chine s’engage quant à elle pour la première fois sur un plafonnement de ses émissions, au plus tard en 2030, sans chiffrer la hauteur de ce pic.

Mais il va encore falloir travailler ardemment d’ici la COP21. Début décembre, dans une chronique du Monde ,Stéphane Foucartprésente les travaux de Chris Hope, chercheur à l’université de Cambridge (Royaume-Uni) et spécialiste de modélisation des interactions entre politique énergétique et climat. Grâce à un modèle de simulation climatique supposant que les récentes promesses sino-américaines, l’engagement européen de réduire les émissions de l’Union de 40 % à l’horizon 2030 seront respectées et que le reste du monde suivrait une trajectoire similaire, Chris Hope montre que la probabilité de demeurer en 2100 sous les 2 °C est de 1,1 %. « Ces estimations doivent être prises avec prudence, n’ayant pas été dûment publiées ; mais elles offrent une idée des ordres de grandeur » , précise le journaliste. Selon les calculs de Chris Hope, l’accord sino-américain nous place en réalité, le plus probablement, sur la trajectoire d’un réchauffement de 3,8 °C d’ici à la fin du siècle.

Ces deux pays doivent donc s’orienter de manière décisive, aux côtés des autres pays, vers une lutte beaucoup plus contraignante contre le réchauffement climatique. De même, ils doivent prévoir les efforts à fournir d’ici à 2020, c’est-à-dire entre la fin d’application du protocole de Kyoto en 2015 et le début de ce futur accord éventuel en 2020. Car le GIEC le réaffirmait dans son dernier rapport  nous sommes bel et bien sur la trajectoire d’un réchauffement compris entre 3 et 4°C à la fin de ce siècle.

Par Matthieu Combe, journaliste scientifique

Google investit massivement dans les remèdes du futur

Cela fait bien longtemps que Google n’est plus seulement le moteur de recherche n°1 dans le monde mais une gigantesque société aux ambitions phénoménales. Fondée en 1998, Google Inc. est classée en 2èmeposition du Best Global Brands avec une valorisation de 107,43 milliards de dollars. De quoi se permettre des investissements importants.

Et Google ne se prive pas. En 2013, Google a suscité l’intérêt en rachetant pas moins de 8 sociétés expertes en robotiques. En parallèle, l’américain mise beaucoup sur le domaine de la santé, plus précisément les NBIC (Nanotechnologies, biotechnologies, informatique et sciences cognitives). La preuve.

Google X Life Science (Google X lab)

Quelque part dans la baie de San Francisco se cache le laboratoire ultra-secret de Google, baptisé Google X Lab, surnommé Google X. Officiellement, impossible de savoir sur quoi planchent les équipes de Google X. Toutefois, parmi les projets rendus publics on trouve des voitures automates, les Google Glass, Google Loon (des ballons stratosphériques pour développer internet partout sur la planète, un réseau neural de reconnaissance de concept ou encore Google Wing pour la livraison par drone. Mais Google X abrite une division consacrée à la santé, il s’agit de Google X Life Science, dirigée par Andrew Conrad.

Récemment, Google X Life Science a absorbé les équipes de Lift Labs, une société rachetée par Google experte en  fabrication d’outils pour les malades de Parkinson, notamment une cuillère capable de compenser les mouvements dus aux tremblements des mains.

Lentilles pour diabétiques

Grâce à des lentilles connectées à un mini capteur de glucose, il est possible de suivre l’évolution au cours du temps du taux de sucre dans le sang. Ces verres de contact mis au point par le Google X Lab pourraient grandement faciliter la vie des diabétiques en mesurant leur glycémie directement dans l’œil, plus précisément dans les larmes, et en continu.

Baseline Study

Ce projet consiste à collecter de l’ADN humain pour le corréler à l’état de santé de la personne. En faisant cela sur des milliers de gens, Google espère définir des critères permettant de distinguer les gens malades des individus sains. A terme, la connaissance de l’ADN suffira à établir des diagnostics et identifier les personnes susceptibles de développer une maladie. Pour l’instant, Google a récupéré l’ADN de 175 cobayes mais projette de compléter sa base de données avec l’ADN de plusieurs milliers de volontaires.

Pour corréler l’état de santé au génome, Google demande aux « donneurs » de porter des capteurs pour mesurer certains paramètres comme le rythme cardiaque. Mené sous la houlette du biologiste Andrew Conrad, ce programme se veut comme un outil santé de prévention, permettant de soigner la maladie avant qu’elle ne se déclare.

Plateforme à nanoparticules

C’est la dernière annonce de Google. La technologie consiste à envoyer dans le sang des particules magnétiques (oxyde de fer) capables de dépister des maladies. Ainsi, en ingérant une simple pilule, nous pourrons savoir si une pathologie est en train de se développer en nous.

En effet, ces nanoparticules possèdent des anticorps et des protéines capables de détecter certaines molécules bien précises, elles-mêmes des marqueurs de telle ou telle maladie. En parcourant le corps, elles réalisent un diagnostic très complet comme la présence d’un cancer, les prémices d’une maladie cardiovasculaire ou encore un excès de sel. Cette techno n’est pas encore opérationnelle, comme l’a confirmé Andrew Conrad, directeur de Google X Life Sciences, Google recherche actuellement des partenaires pour la pousser à maturité.

Calico

Google s’est associé à Apple pour créer Calico (California Life Company), une société dédiée à la lutte contre le vieillissement. A sa tête, Arthur Livinson, président du conseil d’administration d’Apple et de la société de biotechnologies Genentech, va donc tenter de dompter les mécanismes de l’âge et prolonger l’espérance de vie. Pour l’instant, rien ne filtre des travaux menés par Calico. Et pour cause, la société est basée au cœur du mystérieux Google X Lab dont l’emplacement reste secret.

Vers le transhumanisme

Dans sa quête de l’immortalité, Google soutient ce courant de pensée qui imagine l’homme du futur comme un être perfectible et modifiable, utilisant les nouvelles technologies pour repousser la fin de vie. Google parraine  la Singularity University spécialisée dans les NBIC et dirigé par Raymond Kurzweil. Cet ingénieur est un  transhumaniste convaincu, prédisant que le cerveau humain sera dépassé par l’intelligence artificielle dès 2045. Avec lui dans ses rangs, Google, ne cache plus son ambition de faire converger l’homme et la machine et pourquoi pas, atteindre l’immortalité.

Par Audrey Loubens

Réalité virtuelle : effet de mode ou révolution ?

Facebook, Sony, Samsung, Google se sont lancé à corps perdu dans la conception de casques capables de vous entraîner dans un autre monde – celui de jeux vidéos futuristes, de films jamais vus, et bien plus encore. 

Mais s’il ne s’agissait que d’un effet de mode ? Les Google Glass, trop chères, pas assez “grand public”, ne semblent plus intéresser que les entreprises. Mais face à la réalité augmentée, la réalité virtuelle a d’autres cordes à son arc : il ne s’agit pas ici de reproduire devant vos yeux ce que vous voyez déjà sur votre smartphone, mais de vous plonger littéralement dedans.

“L’effet est saisissant et donne la sensation de plonger dans un monde virtuel à 360°.Casque vissé sur la tête, écouteurs dans les oreilles, le joueur est coupé du monde, mais se plaît à se promener dans cette « réalité », passant de la paisible prairie à une guerre contre des aliens”, décrit Boris Manenti, du Nouvel Obs, qui a pu tester l’Oculus Rift, casque conçu par la société Oculus VR. 

Sommes-nous face à une révolution technologique ? Facebook et Mark Zuckerberg en semblent convaincus : en mars 2014, la firme californienne a ainsi racheté Oculus VR, pour 1,48 milliards d’euros. Brendan Iribe, Tim Sweeney, cofondateur du studio Epic Games (« Gears of War »), a testé l’Oculus Rift. Même si pour l’instant, ce casque est encore en cours de finalisation, sans réelles applications, selon lui, “la réalité virtuelle est une technologie qui va complètement changer le monde ».

L’échec passé de la réalité virtuelle

Pourtant, Oculus VR n’a rien inventé. La réalité virtuelle est née en 1968, aux Etats-Unis. A l’époque, cette technologie était surtout utilisée par les scientifiques et les ingénieurs, dans le cadre de leurs recherches. Dans les années 1990, la réalité virtuelle tente de conquérir le grand public, via les jeux vidéos. 

Quatre casques de réalité virtuelle, l’iGlasse de Virtual I-O, le Cybermaxx de VictorMaxx Technologies, le Virtual Boy, de Nintendo, et le VFX-1 de Forte Technologies, auraient pu révolutionner les jeux vidéos, mais ne réussirent pas à séduire les joueurs de l’époque. Cette technologie était encore balbutiante, avec un manque de puissance problématique, et des utilisateurs se plaignant de “malaises physiques”.

Aujourd’hui, ces problèmes semblent loin, grâce aux progrès technologiques, et à la coopération des développeurs, qui testent par milliers l’Oculus Rift. Avec l’arrivée, dans le monde des jeux vidéos, de la 3D, avec la Wii de Nintendo et le Kinect de Xbox, puis avec la percée de la réalité augmentée, tout semble possible.

Les constructeurs du monde des jeux vidéos ont vite pris la menace d’Oculus au sérieux : ainsi, Sony conçoit depuis 2013 son propre casque, sous le nom de “projet Morpheus”. Un casque plutôt onéreux, tout comme l’Oculus – les deux appareils devraient être commercialisés entre 230 et 320 euros.

Casques low cost

Alors que les géants du Web que sont Microsoft et Apple planchent eux aussi sur leurs propres systèmes de réalité virtuelle, Google a pris de vitesse ses concurrents, en proposant un casque low cost, à fabriquer pour 50 euros : le Cardboard. Il s’agit en fait d’une armature en carton, qui se pose sur un smartphone Android, et le transforme en casque de réalité virtuelle. Grâce à une panoplie d’applications, il permet de visiter le château de Versailles, de parcourir le monde avec Google Earth, de faire un tour de montagne russe, de regarder des films “comme au cinéma”, ou de jouer à des jeux vidéos plus vrais que nature.

Samsung s’est aussi engouffré dans la brèche des casques-smartphones. Depuis début décembre, il vend le Gear VR. Compatible avec le Galaxy Note 4 uniquement, il fonctionne comme le Cardboard… sauf qu’il coûte 200 euros. En revanche, Archos propose un casque pour iPhone, Android et Windows Phone, qui coûte 30 euros : le VR Glasses.

Optimistes contre sceptiques

Au delà des jeux vidéos, les casques de réalité virtuelle pourraient, prédisent les experts, être utilisés dans le domaine de la chirurgie (pour réaliser des opérations à distance), du tourisme, de l’architecture, ou encore du cinéma. Ainsi, la startup américaine Jaunt a conçu un prototype de caméra, qui permet de filmer à 360 degrés, afin de plonger le spectateur dans un film en réalité virtuelle. 

Le monde de l’immobilier semble attendre impatiemment le développement de ces casques : ainsi, le site d’annonces immobilières Explorimmo a développé une application permettant de visiter des maisons en 3D, sans bouger de chez soi, grâce à l’Oculus Rift. Pour Facebook, ce casque est en outre l’occasion, confie Marc Zuckerberg, de permettre à l’utilisateur de “faire des achats dans des boutiques virtuelles”, et de lui proposer de la publicité ciblée.

Mais certains restent sceptiques, comme Ed Fries, créateur de la console Xbox, qui parle d’effet de mode : “au regard du faible succès des télévisions 3D avec lunettes, je reste sceptique quant à l’adoption massive d’un tel appareil de réalité virtuelle dans un avenir proche », note-t-il.

“Ce nouveau buzz suffira-t-il à installer durablement la réalité virtuelle dans les pratiques ? En marketing, on a coutume de dire qu’on n’invente pas un besoin mais qu’on le révèle. Or, tout n’est pas gagné d’avance si on fait le parallèle avec la télévision 3D, autre technologie liée à la qualité de l’expérience, dont le boom promis n’eut pas lieu malgré une baisse spectaculaire du prix de l’équipement”, soutient également Lionel Chaze, directeur pédagogique du groupe Bellecour Ecoles d’Art, dans le Huffington Post.

Ce scepticisme n’empêche pas la société Sophic Capital de jouer les prophètes… et d’estimer que la réalité virtuelle représentera, d’ici à 2018, un marché de 6 milliards d’euros. Dans la même période, selon le cabinet Gartner, il devrait se vendre plus de 25 millions de casques.

Par Fabien Soyez

Vêtements connectés : bientôt une seconde peau high tech ?

Dans le sillage des télévisions intelligentes ou des Google Glass, les montres et les bracelets connectées ont la côte. Qu’il s’agisse des bracelets Fitbit ou Jawbone, ou de l’Apple Watch, ces gadgets permettent le “quantified self”, ou auto-mesure de données concernant sa santé.

Les “wearable devices” (les technologies qui se portent) permettent de surveiller votre sommeil, vos nombre de pas effectués par jour, votre rythme cardiaque, votre tension, ou vos calories brûlées. En 2018, le marché de ces objets connectés devrait peser 30 milliards de dollars. 

Dans la logique de joujous high tech se miniaturisant sans cesse davantage, sont apparus les vêtements connectés. 2015 devrait ainsi être l’année des “smart clothes”, ou textiles intelligents. Encore plus simples que les bracelets ou les montres, puisqu’ils se “portent” littérallement, devenant partie intégrante de votre corps. D’après le cabinet d’études Gartner, 10 millions de vêtements intelligents devraient être vendus durant l’année qui vient, et 26 millions en 2016.

Bienvenue dans l’ère du “smart sensing”. Désormais, vos vêtements vous permettront de surveiller votre état de santé. En 2012, déjà, un designer anglais avait conçu des chaussures GPS, qui vous indiquent le chemin de la maison.

T-Shirt et body pour bébé connectés

Aujourd’hui, les T-Shirts connectés d’OM Signal, dont la technologie se retrouve aussi dans le “Polo Tech” de Ralph Lauren, permettent de mesurer la respiration et le pouls, puis de transmettre ces informations à un smartphone via le Bluetooth. Ils vous permettront, si vous êtes un sportif, d’enregistrer des informations sur vos courses, ou sur votre rythme cardiaque, comme le  T-shirt Gymi (encore à l’état de prototype).

Si vous êtes jeune parent, sachez qu’il existe aussi un… body connecté (pour l’instant réservé au marché US), le Mimo, qui permet de surveiller votre bébé quand il dort.

Pas de miracle : pour collecter toutes ces données, ces vêtements “intelligents” sont munis de capteurs. Bien sûr, une question se pose : celle de l’utilisation des données par l’entreprise à l’origine du vêtement porté. Comme l’indique la CNIL dans son dernier livret (Cahiers IP n°2), intitulé “le corps, nouvel objet connecté”, les informations collectées, si elles sont croisées, peuvent révéler l’état de santé de l’utilisateur, violant ainsi sa vie privée.

Sachant que les leaders du “quantified self”, Withings, Fitbit, Runkeeper, Jawbone, ou Nike+, tentent de “monétiser” les données personnelles, en les revendant aux publicitaires – et pourquoi pas, un jour, aux assureurs ou à votre patron ? Et que dire des risques de piratage, sachant que des hackers ont déjà réussi à percer la sécurité de pacemakers connectés, et de bien d’autres objets connectés ?

Effet de mode ou révolution ?

Au delà de ces questions, et s’il ne s’agissait que d’un effet de mode, d’un soufflet qui risque de se dégonfler après un succès bref, à l’image des Google Glass, qui ne semblent désormais plus intéresser que le monde de l’entreprise ? 

Pour certains, la force des vêtements connectés, serait justement leur nature de vêtements : “la convergence avec la mode sera bientôt déterminante. A l’avenir, vous vous rendrez dans un magasin pour acheter une chemise ou un soutien-gorge, et vous n’aurez même pas à vous poser la question, ils seront connectés”, prophétise Stéphane Marceau, président d’OMsignal.

Une prédiction optimiste, sachant que nous n’en sommes encore qu’à la Préhistoire des “wearable devices”. Il serait peut être un peu trop tôt pour analyser ce qui n’est pour l’heure que l’ombre d’une tendance, les vêtements intelligents n’étant que les derniers venus dans la famille des objets connectés à porter sur soi – et ne représentant en 2015, prédit l’Observatoire des textiles techniques, que 1,5 milliards d’euros, c’est-à-dire pas grand chose encore. « Le marché des wearables est à l’âge de pierre pour l’instant. Il doit y avoir de grosses améliorations pour améliorer leur attrait », indique Marina Koytcheva, du cabinet CCS Insight, à ZDNet.com.

En avril dernier, Nike a abandonné son bracelet intelligent, “FuelBand”, et licencié 55 personnes. Révélateur ? Selon Gartner, les vêtements connectés sont pour l’instant vendus trop chers – 200 euros pour les T-Shirts d’OMsignal, ou 350 euros pour le D-Shirt par exemple -, pour intéressant le grand public. Il s’agit dont, pour le moment, d’objets réservés à une poignée d’utilisateurs, soit geeks, soit fortunés, soit fans du quantified self – et sportifs, pour la plupart.

D’après le cabinet, la démocratisation devrait survenir dans les 5 prochaines années. Angela McIntyre, analyste chez Gatner, explique au Guardian : “les consommateurs auront davantage de choix en 2015, en matière de bracelets et montres connectés. Mais l’expansion du quantified self va attirer de nouvelles personnes, qui n’ont pas envie d’avoir des écrans au poignet ou de porter une seconde montre en plus de leur modèle traditionnel”. En d’autres termes, plutôt que de s’encombrer avec toute une panoplie d’objets, le consommateur finira probablement par préferer n’en porter qu’un seul – un objet épousant son corps, sorte de seconde peau high tech.

Fermons les yeux, et rêvons  un jour, peut être, n’aurons-nous même pas besoin de T-Shirt connectés, les capteurs se trouvant… sous notre peau. Un peu science-fictionnesque. Mais certains y croient : selon une étude de Forrester Research, 8% des Américains sont séduits à l’idée de se faire tatouer des capteurs connectés. Et pour cause, puisque depuis l’été dernier, VivaLnk commercialise un tatouage NFC, permettant de déverrouiller son smartphone avec le bras.

Par Fabien Soyez

Impression 3D : un boom à prévoir en 2015 ?

L’impression 3D serait, selon Barack Obama lui-même, une “nouvelle révolution industrielle”. Née dans les années 1980, mais popularisée ces dix dernières années par le mouvement des “makers”, ces afficionados du “Do It Yourself” (DIY – le bricolage) et de l’auto-suffisance, l’imprimante 3D permet de dupliquer ou de créer l’objet de son choix, chez soi, à la maison – une tasse, un porte-clé, mais aussi le bras d’un robot, un crâne artificiel ou des vaisseaux sanguins

L’imprimante 3D permet de passer du mode “virtuel”, d’un objet modélisé (que l’on aura conçu soi-même grâce à un logiciel, ou que l’on aura téléchargé, gratuitement, sur un site tel que Thingeverse) sur l’écran d’un ordinateur, à un objet réel, grâce à la superposition de couches de matières (plastique, cire, plâtre, bobines de filament, etc.).

Trop complexe pour le grand public

Permettra-t-elle à tout un chacun de créer, en un clin d’oeil, le boulon qui vous manque, ou une nouvelle paire de chaussures ? Permettra-t-elle aussi aux entreprises d’optimiser le processus de production ? Encore jeune, l’impression 3D se démocratise, mais il reste encore du chemin à parcourir.

Du moins, du côté des particuliers. Selon Terry Wohlers de Wohlers Associates, entre 2007 et 2012, à peine 68 000 “imprimantes personnelles” ont été vendues. Principaux freins : les prix des imprimantes 3D, et leur complexité. Certes, les machines les plus performantes sont aussi les plus chères – la MakerBot Replicator 2 et l’Ultimaker coûtent 2000 euros. Mais il existe désormais des appareils “low cost”, qui coûtent entre 350 et 800 euros. Ainsi, la FreeSculpt « EX1-Basic de Pearl coûte 800 euros, quand la Solidoodle coûte 400 euros, et quand la Micro 3D de Bethesda ne coûte que 200 euros.

Malgré cela, selon une étude du cabinet Wolhers Associates, le grand public continue à trainer un peu les pieds… peut-être à cause de la difficulté, pour le débutant, d’imprimer en 3D à partir des machines d’entrée de gamme. “À ma décharge, l’impression 3D est étonnamment difficile – chose que ses partisans ne crient pas sur les toits. Il y a tant de choses qui peuvent mal se passer : le bec se bouche, la machine surchauffe, le support d’impression penche trop d’un côté…”, décrit ainsi un journaliste du New-York Times.

L’impression 3D reste donc pour l’instant, à défaut d’une prise en main future plus simple, le domaine d’une poignée de “makers”, de passionnés du DIY, plutôt que de s’infiltrer dans chaque maison. Elle se démocratise, mais principalement dans les Fab Lab, et dans le monde de l’industrie.

Impression 3D mode industriel

Selon le cabinet McKinsey, d’ici à 2025, l’impression 3D devrait avoir un impact global compris entre 230 et 550 milliards de dollars. Et en 2015, selon Gartner, son marché devrait doubler – avec 217 000 pièces vendues. À l’horizon 2018, les ventes pourraient atteindre 2,3 millions d’imprimantes 3D. Le secteur des matérieux d’impression 3D (plastiques, photo-polymères, ABS, PLA, mais aussi métaux, céramiques, cire et filaments Lay Wood) devrait également connaître un vrai boom, atteignant plus de 6,9 milliards de dollars en 2019.

D’après Gartner, dans les années qui viennent, les entreprises devraient représenter 90% des ventes d’imprimantes 3D.

L’impression 3D devrait d’abord se démocratiser dans le secteur médical – avec la conception d’appareils auditifs et de prothèses adaptées à chaque personne. Elle devrait aussi être largement utilisée par les créateurs et l’industrie de pointe, pour le prototypage, l’innovation et le développement de produits – bijoux, pièces d’avion, vêtements, meubles, composants électroniques, etc. L’impression 3D intéresse aussi les ingénieurs automobiles, une voiture, la Strati, ayant déjà été entièrement imprimée via cette machine.

Selon Gartner, les coûts d’acquisition des machines professionnelles (entre 300 000 et 1 million d’euros), freinent encore les investissements des entreprises. Mais d’ores et déjà, pour celles qui ont passé le pas, l’impression 3D leur a permis de réduire les coûts de production de 4% – en plus du gain de temps et d’un processus de fabrication simplifié, notamment pour la réalisation de pièces complexes. Ce qui devrait permettre, à terme, espère le Nouvel Economiste, de relocaliser les usines.

Pour Mathilde Berchon, auteur du livre L’impression 3D, la “révolution industrielle” tant promise par certains experts, est encore loin devant nous : “certains secteurs comme le biomédical, l’aéronautique, le spatial et certains domaines de niche vont connaître des transformations importantes en relocalisant les usines. Il s’agit de tous les domaines où la réalisation de pièces uniques a une importance majeure, comme les implants dentaires ou les prothèses auditives. Mais ce n’est pas du tout la révolution globale annoncée en fanfare par certains.”

Par Fabien Soyez

Comment donner une conscience à un ordinateur ?

Pourquoi c’est important :

Les scientifiques ne tombent pas d’accord sur ce qu’est la conscience.

Un ver de terre est-il conscient ? Un bourdon ? Est-ce qu’un ordinateur qui peut jouer aux échecs ressent quelque chose ?

Pour Christof Koch, directeur scientifique du Allen Institute for Brain Science [Institut Allen pour la science du cerveau] à Seattle, la réponse à ces questions pourrait se trouver dans la trame constitutive de l’univers. La conscience, pense-t-il, est une propriété intrinsèque de la matière, tout comme la masse ou l’énergie. Organisez la matière de la bonne façon, comme dans le cerveau mammifère, et tada ! on peut ressentir.

M. Koch, aujourd’hui 57 ans, a passé presqu’un quart de siècle à essayer d’expliquer pourquoi, par exemple, le soleil nous fait chaud sur le visage. Mais après avoir écrit trois livres sur la conscience, M. Koch dit que les chercheurs sont encore loin de savoir pourquoi la conscience survient, ou même de tomber d’accord sur ce que c’est. C’est un problème difficile. C’est l’une des raisons pour lesquelles M. Koch a quitté son poste à Caltech [California Institute of Technology] en 2011 pour rejoindre un projet à 500 millions de dollars lancé par le milliardaire Paul Allen, co-fondateur de Microsoft.

Le but de l’Institut Allen est de construire un atlas détaillé de chaque neurone et chaque synapse du cerveau mammifère. Cela fournirait aux neurosciences un geyser* de données similaire à ce qu’a accompli le Projet Génome Humain.

Mais M. Koch n’a pas abandonné sa recherche d’une grande théorie qui pourrait tout expliquer. En fait, il pense que la conscience pourrait être expliquée par ce qu’on appelle la théorie de l’information intégrée, laquelle affirme que la conscience est un produit des structures, comme le cerveau, qui ont à la fois la capacité d’emmagasiner une grande quantité d’informations, et une densité critique d’interconnexions entre leurs parties constitutives.

Pour M. Koch, cette théorie fournit un moyen d’évaluer des degrés de conscience chez les personnes ayant subi des dommages au cerveau, chez les espèces du règne animal, et même, dit-il, chez les machines. Nous avons interrogé M. Koch sur la conscience des ordinateurs pendant la conférence EmTech de MIT Technology Review.

La découverte du fondement biologique de la conscience sera-t-elle déshumanisante en aucune façon ? Et si ce n’était qu’une illusion ?

Je trouve ridicule cette vision de certaines personnes que la conscience est une illusion. Si c’est une illusion, alors c’est l’illusion la plus puissante que nous ayons. Et la plus célèbre déduction de la philosophie occidentale, c’était quoi déjà ? « Je pense. Donc je suis ». Le fait que nous possédions l’expérience consciente est la seule certitude indéniable que nous ayons.

Si les scientifiques découvrent le fondement de la conscience, quels genres de technologies pourraient en résulter ?

On pourrait avoir un test pour déterminer qui a une conscience et qui n’en a pas. Nous avons des débats passionnés dans ce pays sur l’avortement. J’aimerais avoir un moyen objectif de tester à quel moment un fœtus commence véritablement à avoir des sensations conscientes. Ou bien si un patient [dans le coma] est conscient ou non. Souvent, on ne sait pas, en fait. Ce sont des questions que les gens se posent depuis la nuit des temps, mais une fois qu’on aura une théorie, et une théorie acceptée par le plus grand nombre, on pourra aussi y répondre. Et puis, si je voulais construire une machine qui soit consciente, ça me donnerait un plan directeur.

Donc vous pensez qu’un ordinateur peut être conscient ?

J’ai fait récemment un cours magistral au MIT sur la théorie de l’information intégrée, développée par Giulio Tononi à l’Université du Wisconsin. C’est une théorie qui fait une prédiction très claire : elle dit que la conscience est une propriété des systèmes complexes qui possèdent un répertoire « cause-effet » particulier. Ils ont une façon particulière d’interagir avec le monde, comme le fait le cerveau, ou en principe, comme pourrait le faire un ordinateur. Si vous arriviez à construire un ordinateur qui a les mêmes circuits et branchements que le cerveau, cet ordinateur serait aussi doué de conscience. Il pourrait ressentir et ça lui ferait quelque chose d’être cet ordinateur-là. Cependant, il n’en est pas de même des simulations digitales.

Si je construisais un modèle logiciel parfait du cerveau, il ne serait jamais conscient, mais une machine spécialement conçue qui imite le cerveau le serait ?

Exact. Cette théorie dit clairement qu’une simulation digitale ne serait pas consciente, ce qui est radicalement différent de la croyance fonctionnaliste de 99 % des gens du MIT ou des philosophes comme Daniel Dennett. Ils disent tous qu’une fois qu’on arrivera à tout simuler, il n’y aura besoin de rien d’autre, et ce sera conscient.

Je pense que la conscience, comme la masse, est une propriété fondamentale de l’univers. L’analogie, et elle est très bonne, est qu’on peut faire de très bonnes prédictions météo de nos jours. On peut prédire l’intérieur d’une tempête. Mais ce n’est jamais mouillé à l’intérieur de l’ordinateur. On peut simuler un trou noir par ordinateur, mais l’espace-temps n’y sera jamais déformé. La simulation n’est pas vraie.

C’est la même chose avec la conscience. Dans 100 ans, on pourra peut-être simuler la conscience sur un ordinateur. Mais l’ordinateur ne vivra, ne sentira rien. Nada. Ce sera tout noir dedans. Il ne pourra pas avoir de ressenti en tout état de cause, même s’il peut avoir notre intelligence et notre capacité de parler.

Je ne suis pas en train de dire que la conscience est une âme magique. Non. C’est quelque chose de physique. La conscience survient toujours sur du physique. Mais il faut un type de matériel informatique particulier pour l’instancier. [Ndlt : instancier = en programmation informatique, créer un élément à partir d’un modèle et d’un jeu de valeurs initiales de paramètres.] Un ordinateur fait de transistors, qui déplacent des charges à travers des portes électroniques, avec chacune de ces portes connectée à quelques autres portes, est une structure cause-effet très différente de celle que nous avons dans le cerveau, où on a un neurone connecté à 10.000 neurones afférents et projetant vers 10.000 autres neurones. Mais si vous construisiez l’ordinateur de façon appropriée, comme un ordinateur neuromorphique, il pourrait être conscient.

Si je vous enfermais dans une pièce avec un ordinateur du futur, seriez-vous capable de déterminer s’il est conscient ?

Je ne pourrais pas de l’extérieur. Il faudrait que j’examine la mécanique.

Et avec le test de Turing ?

La question posée par le test de Turing est : « les machines peuvent-elles penser ? ». Mais finalement, c’est un test opérationnel pour l’intelligence, et non pour la conscience. Si vous avez une conversation intelligente avec un type dans une autre pièce, et qu’après une demi-heure vous ne pouvez pas décider s’il s’agit d’un ordinateur ou d’un humain, ben, là vous dites que l’ordi est aussi intelligent qu’un humain. Mais le test de Turing ne me dirait pas si l’ordinateur a ressenti quoi que ce soit. Je pourrais lui demander « Es-tu conscient ? » et la machine pourrait me répondre : « Mais oui, je suis pleinement conscient. Et pourquoi affirmez-vous que je ne le suis pas ? Je suis offensé ! » Mais je ne pourrais pas vraiment savoir. Je serais obligé de dire : « Désolé, il va falloir que je te démonte pour savoir comment tu es fait et comment tu fais pour générer ces états physiques différents ».

N’y a-t-il pas une question-piège à poser, à laquelle seul un être conscient pourrait répondre ?

Très bonne question. Chez les humains, nous avons des tests pratiques pour évaluer la conscience. S’il vous arrive un accident grave et que vous atterrissez aux urgences, ils vous demanderont : « Pouvez-vous bouger les yeux ? Pouvez-vous bouger vos membres ? Pouvez-vous parler ? Si vous pouvez parler, savez-vous en quelle année nous sommes ? Savez-vous qui est le président ? »

Mais comment puis-je vraiment savoir que vous êtes conscient ? C’est le problème du solipsisme. Dans l’analyse précédente, je ne sais pas. Mais je sais que votre cerveau est très similaire au mien. J’ai passé plein de gens au scanner, et je sais qu’ils ont tous un cerveau, et que leur cerveau se comporte similairement au mien. Donc je peux faire la déduction parfaitement raisonnable que vous aussi, vous êtes conscient.

Mais plus ces systèmes différent de moi, plus il est difficile de faire cette démarche par déduction. Par exemple, prenez une abeille. Est-ce qu’elle ressent quelque chose du fait d’être une abeille et de voler dans les rayons dorés du soleil et de boire du nectar ? Je trouve qu’il est très difficile de savoir si une abeille est consciente ou non. Et un ordinateur est encore plus radicalement différent. Il n’existe aucun comportement duquel je puisse le rapprocher par analogie. Je serais obligé d’examiner la mécanique sous-jacente.

Pensez-vous qu’on construira un jour des machines conscientes ?

Je ne suis pas sûr de savoir pourquoi on voudrait faire ça. Mais il n’y a aucun doute dans mon esprit qu’on construira des machines intelligentes capables de passer le test de Turing bien avant de comprendre le fondement biologique de l’intelligence humaine. Et je pense qu’il y a des dangers qui vont avec ça, que la plupart des gens, en optimistes insouciants, ignorent complètement.

Quels dangers ?

Vous ne regardez pas les films de science-fiction ? « L’intelligence artificielle hors de contrôle », bien sûr. Pensez aux marchés financiers, à toutes ces machines d’échanges boursiers, tous ces flash-crashes. Les gens vont abuser de l’intelligence des ordinateurs, la maximiser aveuglément pour un quelconque but. Ca mènera à une concentration de plus en plus grande du pouvoir entre des mains de moins en moins nombreuses. On le voit déjà, ça va conduire à du chômage en masse. Et peut-être dans 30 ou 40 ans, je pense qu’il y a vraiment un risque existentialiste pour l’espèce, de l’ampleur des armes nucléaires ou d’une chute de météorite.

Et tout ça sans que les machines soyent conscientes ? Dans les films, c’est précisément au moment où l’IA devient folle qu’elle gagne la conscience d’elle-même.

Ca, c’est parce que les gens veulent faire une histoire captivante. Si l’ennemi ne ressentait rien, s’il n’y avait rien en face, ça ne ferait pas un bon adversaire.

* ndlt : geyser de données, ou data firehose en anglais = lorsqu’un fournisseur de données sociales dynamiques (de type Twitter, par exemple) se met d’accord avec un utilisateur final pour lui envoyer la totalité des données dynamiques d’un secteur défini en temps réel, la puissance colossale du flux de données reçues par l’utilisateur final en temps réel peut être comparée par analogie à la puissance d’un geyser. 

Source :

  • Antonio Regalado, MIT Technology Review, 2 octobre 2014
  • Traduit par Alexandra Béliaeff

Des émanations de méthane sur Mars de source inconnue

Ces résultats de ces observation publiés dans la revue américaine Science qui paraîtra jeudi, ont fait l’objet d’une présentation à la conférence annuelle de l’American Geophysical Union réunie à San Francisco cette semaine.

A partir d’informations collectées pendant plus de vingt mois, ces chercheurs ont constaté que les émissions régulières de méthane dans le cratère de Gale où le robot explorateur s’est posé en août 2012, étaient moitié moins importantes que ce qu’ils pensaient trouver.

Il s’agit d’émanation constante de méthane provenant de la décomposition de la poussière du sol sous l’effet de la lumière du soleil et des matériaux organiques transportés par les météorites.

Mais ils ont aussi découvert que les niveaux de méthane dans le cratère près de l’endroit où se trouvait Curiosity « connaissait des pics dix fois plus élevés parfois en l’espace de seulement 60 jours martiens ce qui est surprenant étant donné que ce gaz a une durée de vie d’environ 300 ans », expliquent les auteurs de cette recherche dont Christ Webster, du Jet Propulsion Laboratory de la Nasa.

« Ces résultats suggèrent que le méthane est produit occasionnellement ou s’échappe du sol près du cratère de Gale et qu’il se disperse rapidement une fois que ces sources se tarissent », poursuivent ces chercheurs.

Le robot Curiosity ne dispose pas d’instrument permettant d’établir l’existence de la vie sur la planète rouge. L’objectif de cette mission était s’établir si Mars dans un passé lointain réunissait les conditions nécessaires à l’existence de la vie microbienne ce qui a été fait. Le robot a ainsi démontré que l’eau coulait à une certaine époque sur la planète et que d’autres éléments-clé à l’existence de la vie étaient présents.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Certificats d’économies d’énergie: les nouvelles règles fixées pour le 1er janvier

« Deux décrets et deux arrêtés doivent être publiés, et nous sommes confiants sur le fait que cela sera bien fait pour le 1er janvier », a indiqué Loïc Buffard, un des responsables du dossier à la Direction générale de l’énergie et du climat, administration dépendant du ministère de l’Ecologie et de l’Energie, à l’occasion d’un débat organisé par le BIP/Enerpresse.

La phase actuelle du dispositif des CEE doit en effet s’achever le 31 décembre, la troisième couvrant la période 2015-2017.

Créé en 2006, le mécanisme des CEE oblige les fournisseurs d’énergie (EDF, GDF Suez, Total, etc.) à mettre en place et financer des actions d’économie d’énergie (rénovation thermique des bâtiments, changement de chaudières, énergies renouvelables, etc.), sous peine de fortes pénalités.

Depuis plusieurs semaines, les acteurs de ce dispositif, notamment les sociétés collectives qui gèrent pour le compte des fournisseurs d’énergie leurs obligations, s’inquiétaient de voir les fournisseurs arrêter de financer des opérations d’économie d’énergie en raison du flou réglementaire.

« Après des rebondissements législatifs, les sociétés collectives sont rassurées », a commenté Frédéric Utzmann, PDG de Certinergy, l’une de la trentaine de ces sociétés qui existent en France.

Le principal décret attendu doit notamment fixer le futur quota d’économies d’énergie à atteindre au niveau national.

Début octobre, le ministère de l’Ecologie et de l’Energie avait indiqué qu’il serait porté à 700 térawattheures-cumac (TWhc), qui correspond à la quantité d’énergie qui doit être économisée grâce aux actions mises en place, au lieu des 660 Twhc initialement prévus.

Une décision saluée par les acteurs du dispositif.

L’autre texte très attendu est l’arrêté qui révise les types d’actions qui peuvent donner droit à des CEE. Elles concernent par exemple les travaux d’isolation, l’installation de chauffages plus performants, la rénovation de l’éclairage extérieur.

Par rapport à la période précédente, le cadre réglementaire prévoit également de simplifier la procédure de validation des CEE par l’administration ou encore l’élargissement des sanctions en cas de non respect des objectifs qui sont aujourd’hui exclusivement pécunières.

mhc/mpa/fka/bg

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Pourquoi le méthane océanique n’est-il pas relâché dans l’atmosphère ?

Le méthane est l’un des principaux gaz à effet de serre naturel. Il est présent en quantités importantes dans les planchers océaniques sous forme d’hydrate de méthane, appelé plus familièrement « glace qui brûle ». Ce composé est stable à partir d’une certaine pression et à basse température. A cause du changement climatique et du réchauffement des océans, on craint un dégel des hydrates de méthane océanique, qui provoquerait un dégagement massif de ce gaz à effet de serre et donc un emballement du réchauffement planétaire. Les scientifiques pensent d’ailleurs qu’un pareil dégel a joué un grand rôle dans l’extinction permienne il y a 250 millions d’années, qui a vu la disparition de 90% des espèces marines et 70% des espèces terrestres.

Heureusement, l’oxydation anaérobique (oxygène ne venant pas de l’air) du méthane couplée à sa réduction sulfate empêche près de 90% du méthane produit en environnement marin d’être relâché dans l’atmosphère. Toutefois, ce mécanisme est longtemps resté énigmatique.

Le mécanisme de consommation du méthane océanique enfin compris

Une équipe internationale de chercheurs de l’Université Ben-Gourion du Néguev, de l’Université de Cambridge et du California Institute of Technology viennent de publier dans la prestigieuse revue Proceedings of the National Academy of Sciences (PNAS) une nouvelle description de ce mécanisme. Les chercheurs ont mis en évidence le rôle-clé des oxydes de fer dans la stimulation de la réaction. En plus de son rôle de nutriment, le fer sous sa forme oxydée en forte concentration accélère les réactions d’oxydation et de réduction sulfure anaérobiques du méthane dans des proportions beaucoup plus importantes qu’estimées précédemment.

Les chercheurs basent leurs conclusions sur des expériences faites en laboratoire sur des échantillons de sédiments océaniques au sein desquels la mesure des rapport isotopiques de sulfure, oxygène et carbone a permis de remonter la chaîne des réactions chimiques impliquées.

Ces résultats seront très utiles à l’affinage de la modélisation des cycles de gaz à effet de serre utilisés pour comprendre la dynamique du climat à l’échelle de la planète.

Source : bulletins électroniques

Charbon: la demande mondiale va continuer à croître mais moins vite d’ici 2019

Après avoir atteint 3,3% par an entre 2010 et 2013, la croissance de la demande mondiale de charbon sera de 2,1% en moyenne par an d’ici à 2019, prévoit l’AIE dans son rapport annuel sur le marché du charbon publié lundi.

L’an dernier, l’AIE avait envisagé une croissance annuelle de 2,3% entre 2014 et 2018.

« Malgré son image d’une industrie déclinante, le charbon est toujours la colonne vertébrale de la production d’électricité dans le monde », a commenté Maria van der Hoeven, la directrice exécutive de l’AIE.

Les politiques mises en place pour lutter contre le changement climatique, auquel le charbon est un des principaux contributeurs, « échoueront pour la plupart à stopper la croissance de la demande de charbon » d’ici 2019, a-t-elle ajouté.

Malgré une diversification de ses sources d’énergies, la Chine, principal producteur, consommateur et importateur de charbon dans le monde, représentera encore les trois cinquièmes de la hausse de la demande d’ici à 2019, avec une prévision de croissance de la demande de 2,6% par an.

Le pays n’aura pas donc encore atteint son pic de consommation à cette date, estime l’agence basée à Paris.

La demande de charbon sera par ailleurs tirée par d’autres pays comme l’Inde et les pays d’Asie du Sud-Est, mais aussi le Japon et la Corée du Sud, qui compensera le recul de la consommation de l’Europe et des Etats-Unis.

Il atteindra par exemple 1,7% par an aux Etats-Unis, le développement des gaz de schiste ayant conduit à fermer des centrales à charbon.

En Europe, la croissance de la demande ces dernières années « n’était qu’une hausse temporaire, largement due aux prix bas du charbon et du CO2, aux prix élevés du gaz et à la fermeture partielle des centrales nucléaires en Allemagne », explique l’AIE.

Depuis 2012, le contexte économique morose, l’amélioration de l’efficacité énergétique et le développement des énergies renouvelables a inversé la tendance.

L’AIE estime aussi que de nombreuses incertitudes pèsent sur ses prévisions, comme les politiques qui pourraient être mises en place contre le charbon et surtout le niveau de ses prix, qui ont encore beaucoup baissé sur un an.

Pendant des années, de nouvelles capacités ont été mises en services, tirées par la demande, mais depuis 2011, le marché se trouve dans une situation de surproduction, qui pousse les prix vers le bas.

Mais selon Maria van der Hoeven, « la consommation de charbon sous sa forme actuelle est simplement insoutenable », nécessitant « d’accélérer rapidement » le déploiement de la capture et de la séquestration du carbone et d’augmenter les investissements dans des centrales électriques à base de charbon plus efficaces, notamment dans les pays émergents.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #72 : les vidéos les plus étonnantes de décembre 2014 (2/3)

Cette semaine dans la revue du Web :

  • Trier et rassembler des piles pour un robot ? Un jeu d’enfant ;
  • Une robe imprimée en 3D fait son entrée au MoMA ;
  • Un « petit train » magnétique d’une grande simplicité, et à peu de frais ;
  • Joli timelapse d’une comète qui explose dans l’atmosphère ;
  • Le gadget (inutile?) de la semaine : des montagnes russes pour vendre une maison ;
  • Et en bonus : petit florilège de machines à pseudo-mouvement perpétuel.

Trier et rassembler des piles pour un robot ? Un jeu d’enfant !

Alors que la lobotomie infinie d’un travail répétitif n’a rien de séduisant pour le commun des mortels, c’est pourtant le sel de la vie des deux robots qui viennent ouvrir notre soixante-douzième Revue du Web. Présentés lors de l’édition 2014 du Pack Expo, ayant eu lieu le mois dernier à Chicago, les robots du géant japonais FANUC (abréviation de Factory Automation NUmerical Control) impressionnent toujours autant.

Pour la démonstration, une ligne d’emballage de piles 9 volts a été installée sur le stand de la FANUC America, pour laisser les deux robots stars exprimer tous leurs talents. Une caméra repère la position des piles sur le tapis principal de la chaîne d’emballage. Un premier bras robotique ultra nerveux vient rassembler une par une les piles en une ligne de quatre piles, qu’un second bras robotique vient collecter et placer sur un second tapis, qui va en direction opposée. Leur travail coordonné, absolument hypnotique, explique peut-être pourquoi le fabricant japonais est le premier producteur de robots industriels au monde.

Une robe imprimée en 3D fait son entrée au MoMA :

Puisque les bonnes idées sont rarement orphelines, les robes imprimées en 3D sont depuis peu légion – presque autant que les imprimantes 3D elles-mêmes, disent même les mauvaises langues. La robe dont il est ici question se démarque néanmoins de ses consœurs : la pièce, entièrement imprimée en 3D, l’a été d’une seule traite, et n’est pas constituée de plusieurs petits bouts assemblés les uns aux autres. C’est essentiellement pour cette raison que cette robe, créée par le studio new-yorkais Nervous System et imprimée par Shapeways, vient de faire une entrée remarquée dans la collection permanente du Museum of Modern Art de New-York (MoMA).

Le projet de départ – un bracelet imprimé en 3D – a vite glissé vers quelque chose d’infiniment plus complexe et de plus grande échelle, cette superbe et aérienne robe cinématique. Les 3316 charnières de l’ensemble rendent les 2279 pièces triangulaires individuellement mobiles, une petite prouesse rendue possible par les meilleures techniques de modélisation actuelles. On réalise ensuite une simulation virtuelle de la robe « en boule », pliée, une technique couramment utilisée pour imprimer d’un seul tirant des pièces trop imposantes pour une imprimante 3D. Le résultat est bluffant !

Copyright illustrations :Nervous System

Un « petit train » magnétique d’une grande simplicité, et à peu de frais :

Nostalgiques des petits trains électriques de votre enfance ? Un internaute particulièrement dégourdi a imaginé un dispositif ultra simple rappelant plus ou moins l’un de ces fameux jouets miniatures, nécessitant trois fois rien et à peu de frais. Avant tout, armez-vous d’un long ressort en cuivre, d’une petite pile classique (LR6) et de quelques puissants aimants d’un alliage de néodyme fer bore (structure cristalline tétragonale de formule Nd2Fe14B). Pour construire ce qui fera office de train, il suffit de placer un ou plusieurs de ces aimants aux pôles négatifs et positifs de la pile. Le ressort en cuivre fera lui office de « circuit » de fortune, sans qu’il n’y ait rien à modifier. Une fois le train dans le circuit, la magie opère : la petite locomotive se met en mouvement.

C’est l’interaction électromagnétique, par le biais de la force de Lorentz, qui permet au « petit train » de se mettre en branle. Si l’on referme le circuit, tel un serpent qui se mange la queue, le petit véhicule semble ne plus jamais vouloir s’arrêter. Le principe est inchangé pour deux petites piles-véhicules, qui rentrent alors dans une course effrénée.

Une comète explose dans l’atmosphère

Le photographe américain Wes Eisenhauer a eu droit à une petite surprise alors qu’il préparait une vidéo en timelapse dans sa belle nature du Dakota du Sud. L’extrait vidéo, extrêmement court, nous permet tout de même d’admirer une comète exploser au moment de son entrée dans notre atmosphère. Les images ne laissent pas de place au doute : la pulvérisation du petit corps céleste a bien eu lieu.

Le gadget (inutile?) de la semaine : des montagnes russes pour vendre une maison

Vendre un bien immobilier n’est pas toujours une mince affaire, surtout lorsque le bien en question n’a rien d’exceptionnel. Le gadget (inutile?) de la semaine vient mettre en valeur une petite maison sans prétention de la commune néerlandaise d’Ermelo, au centre des Pays-Bas, et ce d’une manière pour le moins originale. L’agence immobilière Huizen Promoter, en charge de la vente de la maison, s’est mise en tête d’attirer l’attention d’acheteurs potentiels – et des médias – en construisant un petit circuit de montagnes russes… passant à travers la maison.

De la cuisine à la salle à manger en passant par les escaliers, la visite de la maison se transforme alors en une joyeuse traversée au pas de charge, idéale pour passer à côté de tous les défauts du bien convoité, mais laissant invariablement l’acheteur potentiel ravi. Le slogan de l’agence immobilière ? « Get more attention for your house ». Mission accomplie.

La vidéo du making-of (pensez à activer les sous-titres) :

Bonus : petit florilège de machines à pseudo-mouvement perpétuel

Si l’on est quelque peu familier des principes qui régissent la thermodynamique, l’idée d’une machine à mouvement perpétuel semble être une hérésie. Nombreux sont les grands esprits qui se sont penchés sur la question, du touche-à-tout Léonard de Vinci à l’horloger allemand Johann Bessler, rivalisant d’ingéniosité à chacune de leurs tentatives. Les exemples les plus aboutis donnent pourtant l’impression d’un mouvement perpétuel – c’était, le plus souvent, sans compter sur les forces de frottements.

Les deux vidéos qui viennent conclure cette soixante-douzième Revue du Web présentent un agréable petit florilège de machines à pseudo-mouvement perpétuel, dont certaines sont des reconstitutions de pièces historiques.

Par Moonzur Rahman

Un des satellites Galileo placé sur une mauvaise orbite pourrait être réhabilité

En août dernier, le programme de GPS européen Galileo commandité par l’ESA dévoilait publiquement l’échec de sa mission consistant à envoyer Sat-5 et Sat-6 dans la constellation européenne. Les deux satellites censés tourner sur une orbite circulaire à 23 000 kilomètres d’altitude inclinée à 55 degrés avaient en fait été placés sur une orbite elliptique basse autour de 17 000 kilomètres, inclinée à 49,8 degrés les rendant de fait caducs avant même d’avoir pu servir. Par la suite, l’ESA ouvrait une enquête pour déterminer les causes de cette bévue afin d’en tirer les conclusions qui conviennent. Il s’est avéré que le problème provenait d’une défaillance de tuyaux d’alimentation, ce qui aurait occasionné un gel de carburant dans le lanceur.

Passé cette constatation, les ingénieurs ont ensuite mis en place une suite de 11 manipulations effectuées sur 17 jours pour redresser au mieux la trajectoire orbitale de Sat-5. Et si elle n’est toujours pas idéale, elle est désormais dans un périmètre « sécurisé » comme l’affirme Didier Faivre, directeur de l’ESA. Un signe très encourageant selon lui : « Nous sommes maintenant dans un endroit sûr, nous pouvons travailler, au moins pour la phase de tests en orbite, et nous avons encore l’espoir que ce satellite pourrait être utilisé pour la navigation ».

La commission européenne statuera sur son éventuelle utilisation après observation des résultats des tests mais il n’est pas impensable que ce soit le cas un jour. Les réponses sont prévues pour le début de l’année prochaine. Quoi qu’il en soit, Didier Faivre se montre optimiste sur la situation actuelle. Quant à Sat-6, le deuxième satellite, il devrait connaître le même sort que son homologue et jouir de manoeuvres semblables afin de le mettre dans une orbite sécurisée et plus conforme à sa mission.

Par Sébastien Tribot

Toyota commercialise au Japon sa voiture à pile à combustible, le succès au rendez-vous

La Mirai (« futur » en japonais), qui peut parcourir 650 km avec un seul plein effectué en trois minutes, fonctionne sur le principe de l’électrolyse inversée: de l’électricité est générée en faisant passer dans un circuit des électrons extirpés d’atomes d’hydrogène. Ces derniers se combinent ensuite avec l’oxygène de l’air pour former de l’eau, seule substance rejetée par le véhicule.

Toyota n’a pas souhaité confirmer l’information du Nikkei sur un millier de commandes, indiquant simplement que « le nombre de commandes dépassait le chiffre de 400 ». Autrement dit, le groupe a déjà atteint l’objectif de ventes, modeste, qu’il s’était fixé d’ici à fin 2015.

Compte tenu des vertus écologiques de cette voiture (qui ne rejette pas de dioxyde de carbone – CO2) et de son prix très élevé de 7,23 millions de yens (près de 50.000 euros, taxe comprise), ce sont surtout des entreprises et des administrations qui ont manifesté leur intérêt pour la Mirai.

Mais elles vont devoir patienter faute de capacités de production suffisantes, actuellement de l’ordre de 700 véhicules par an. Face à ce succès, Toyota songe à tripler la cadence, un objectif qui devrait entraîner un investissement de 20 milliards de yens (135 millions d’euros), avait rapporté début décembre le Nikkei.

Après le Japon, Toyota prévoit de commercialiser cette Mirai en septembre 2015 aux Etats-Unis (où il espère en écouler plus de 3.000 d’ici fin 2017) et en Europe (où il vise la vente de 50 à 100 unités annuellement via le Royaume-Uni, l’Allemagne et le Danemark dans un premier temps).

Honda travaille sur un projet similaire attendu d’ici début 2016.

Pour accompagner le lancement de ce type de véhicules, le gouvernement japonais a prévu de faciliter l’installation de stations à hydrogène en assouplissant la réglementation et en apportant des aides.

L’objectif: atteindre 100 bornes de ravitaillement d’ici à mars 2016, contre une quarantaine actuellement, et diviser leur coût par deux avant 2020. Il faut aujourd’hui débourser 400 à 500 millions de yens (2,7 à 3,4 millions d’euros) pour construire une telle station, selon le Nikkei.

Les autorités envisagent d' »autoriser les opérateurs à utiliser un taux de compression plus élevé », ce qui permettrait d’éliminer un plafond limitant la capacité de stockage d’une station à sept pleins.

Parallèlement au lancement de la Mirai, première berline de ce type vendue à grande échelle dans le monde, Fujitsu a annoncé lundi le lancement d’un service permettant aux automobilistes de consulter en temps réel la localisation et les heures d’ouverture des stations à hydrogène.

anb/kap/ggy/lma

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

400 kg de cuivre les plus froids du monde

La machine n’a pas encore démarré qu’elle pulvérise déjà un record. Celui d’avoir refroidi 400 kg de cuivre à la température extrême de 6 mK, soit -273,144°C. Jamais une telle quantité de matière n’avait été portée à un froid aussi proche du zéro absolu. De quoi se féliciter du bon déroulement du projet avec une machine manifestement très efficace.

Et remercier le plongeur qui a découvert un navire sous 28 mètres de profondeur avec à son bord 1000 lingots de plomb immédiatement convoités par les physiciens de l’Istituto nazionale di fisica nucleare. En effet, ce plomb vieux de 2000 ans présente le gros avantage d’avoir une radioactivité quasi-nulle, l’idéal pour abaisser le bruit de fond des expériences consistant à mesurer des taux de radioactivité.

CUORE (Cryogenic Underground Observatory for Rare Events) est un détecteur actuellement en construction en Italie. Ses équipes l’utiliseront pour déterminer si les neutrinos sont leur propre antiparticule ou non, auquel cas ils seraient des fermions de Majorana. Pour en avoir le cœur net, CUORE s’intéresse à la double désintégration bêta mais sans émission de neutrino, une désintégration jusqu’ici jamais observée. Logique puisque d’après la théorie, celle-ci ne peut  survenir que dans le cas d’une particule de Majorana, à l’existence encore sujette à débat.

Une double désintégration sans émission de neutrino ne répond pas aux critères de la physique standard qui considère que lors d’une transformation, rien ne se perd rien ne se crée. Si une double désintégration bêta était effectivement observée, cela signifierait l’existence d’une autre physique. Une perspective terriblement existante.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Détectez les rayons cosmiques avec votre smartphone

Comment quantifier précisément le rayonnement cosmique qui atteint la Terre ? En créant un réseau de détecteurs ponctuels bien sûr ! L’idée repose sur le fait que le rayonnement cosmique produit des photons à haute énergie lorsqu’il pénètre dans l’atmosphère terrestre. Ces photons sont parfaitement détectables par les caméras équipant les smartphones. Il ne reste plus qu’à trouver une façon de réaliser les mesures et de collecter les données. 

Les scientifiques de l’Université de Californie ont donc réalisé l’application CRAYFIS (Cosmic Rays Found In Smartphones). Grâce à elle, n’importe quel smartphone se transforme en détecteur de photons à haute énergie, preuve de la présence du rayonnement cosmique. Les mesures couplées à la position du téléphone sont transmises aux chercheurs  qui n’ont plus qu’à cartographier le rayonnement cosmique à la surface de la planète.

D’après eux, il suffirait de 1000 smartphones répartis sur un kilomètre carré pour établir une carte représentative de la quasi-totalité du rayonnement cosmique réel. D’autant que les mesures ne nécessitent aucune action du propriétaire du smartphone. Après avoir installé Crayfis, la détection s’active automatiquement lorsque le téléphone est en charge et non utilisé.

Cette nouvelle approche de détection vient s’ajouter aux techniques déjà existantes, notamment l’ensemble de détecteurs géants situés à l’Observatoire Pierre Auger en Argentine dédié à l’analyse du rayonnement cosmique.

L’origine des rayons cosmiques reste incertaine et ce nouvel outil terrestre d’étude de ces particules nous venant directement du cosmos  permettra peut-être d’en savoir plus sur leur origine.

Par Audrey Loubens

Toucher une image virtuelle grâce aux ultrasons

Toucher l’intouchable, c’est désormais possible grâce aux ultrasons. Ultrahaptics, une société britannique, s’est inspirée des travaux de chercheurs de l’Université de Bristol. Ces derniers ont développé un algorithme pour contrôler l’émission d’ondes à une fréquence voulue en un point de l’espace donné.  Braquées sur la main d’un utilisateur, ces ondes acoustiques viennent alors stimuler un point de la peau et provoquer une sensation de contact.

La technique est suffisamment fine pour faire ressentir les notions de textures.  Combiné à un écran en 2D, le système permet d’interagir avec la surface sans la toucher. Le système UltraHaptics appliqué à un écran fonctionne à l’horizontal aussi bien qu’à la verticale et peut provoquer une pression de 20 Pa sur une cible située à 30 cm de distance.

UltraHaptics a passé la vitesse supérieure en s’attaquant à un système capable de fonctionner en 3 dimensions. Les scientifiques anglais ont réussi à coupler la version 2D avec un capteur de mouvement. Grâce à lui, la position de la main est connue et le système d’émission des ultrasons peut déterminer le moment où la main touche virtuellement une image virtuelle. Les ultrasons stimulent alors la peau et créent une sensation de toucher malgré l’absence de matière.  Pour l’instant, le système fonctionne avec des formes géométriques simples de type ronds, carrés et triangles.

Le caractère ludique du système est évident mais à quoi cela pourrait-il bien servir ? Les gamers pourraient ressentir le vent sur leur visage ou les balles virtuelles qui les atteignent pendant une partie de FPS. Ultrahaptics pourraient développer des applications pour non-voyants, ou pour des tables interactives de musées par exemple. En avril, Chris Harrison, expert en interaction homme-machine a déclaré après un test: « C’est vraiment bizarre, mais le système possède un énorme potentiel ».

Découvrez le système UltraHaptics :

Par Audrey Loubens, journaliste scientifique

30 ans après, le site de Bhopal n’est toujours pas décontaminé

C’était la nuit du 2 au 3 décembre 1984. L’usine chimique d’Union Carbide  explose, libérant dans l’atmosphère un nuage toxique de quarante-deux tonnes d’isocyanate de méthyle (MIC). Ce composé organique à base de phosgène, plus connu sous le nom de gaz moutarde,  survole la ville du nord de l’Inde et tue plus de 3500 personnes quasi-instantanément. L’usine construite dans la capitale de l’Etat du Madhya Pradesh produisait 5000 tonnes de pesticides par an, mais était surtout fournisseuse d’emplois. Une véritable manne pour les indiens qui  ont afflué dès 1978, faisant émerger autour de l’usine une véritable ville. Aucun ne se doutait que le rêve deviendrait cauchemar.

Comment une telle catastrophe a-t-elle pu se produire ? Bhopal est la conséquence terrible d’une succession d’incidents sous-estimés et non résolus. Tout commence par un dysfonctionnement. Une vanne restée ouverte alors qu’elle aurait dû être fermée provoque l’inondation d’un réservoir de MIC. La pression augmente, mais personne n’en tient compte. 3 heures plus tard, le couvercle en béton se fissure et la valve de sécurité explose, libérant le gaz hautement toxique sur une surface de 25 km².

Le drame de Bhopal est l’accident industriel le plus meurtrier. Au-delà des milliers de morts directement liés à l’intoxication au nuage de gaz, les terres et les eaux du secteur contaminées continuent à empoisonner les habitants. Les négligences dans la gestion de la sécurité de l’usine chimique ont conduit à des agissements contestables, comme l’enfouissement de déchets sous terre, qui ont pollué et polluent toujours les nappes phréatiques. L’explosion n’était en fait que le point d’orgue de plusieurs années de défaillances.

Derrière le drame de l’accident se révèle l’incapacité de nettoyer et de décontaminer. En effet, suite à la libération du nuage de MIC, le site n’a été fermé qu’au bout de 3 jours et n’est toujours pas décontaminé ! Il faut dire que le chantier est colossal et fait face à deux problématiques : le traitement des déchets du site et la décontamination des sols. Or, l’Inde ne dispose pas des compétences techniques pour incinérer les déchets. Il faut donc trouver un partenaire pour s’en charger. Début 2014, l’Allemagne était d’accord pour récupérer et acheminer sur son sol trois cent quarante sept tonnes des déchets indiens, avant de se rétracter. A ce jour, aucune solution n’est avancée pour le traitement des déchets, sachant que les trois cent quarante sept tonnes n’étaient qu’un début. On estime que plusieurs milliers de tonnes jonchent encore les sols. Malheureusement, si des indemnisations ont été versées aux familles ayant pu prouver qu’elles ont été touchées, rien n’a été entrepris au cours des trente dernières années pour assainir le territoire. Actuellement aux mains de Dow Chemical, l’usine d’Union Carbide reste abandonnée à son sort, et avec elle les populations locales.

Par Audrey Loubens, journaliste scientifique

La cigarette électronique en pleine tempête médiatique

« La cigarette électronique est, elle aussi, cancérigène », « Dangers de la cigarette électronique : une étude japonaise confirme la présence de substances cancérigènes », « La cigarette électronique serait plus cancérigène que le tabac » titraient respectivement Les Échos, Le Huffington Post et Europe 1. A l’origine de ces articles, un rapport d’experts de l’Institut national de la santé publique japonais qui révèle que certaines marques de e-cig contiennent du formaldéhyde, de l’acroléine, du glyoxal et du méthylglyoxal. Ces 4 substances chimiques sont toxiques, le formaldéhyde étant identifié comme cancérigène. Nous avons-nous-même relayé l’information ici

Mais très vite, des articles prenant le contre-pied ont déferlé, dénonçant une soi-disant désinformation et un traitement médiatique sensationnaliste : « Une vague de désinformation en provenance du Japon arrive sur nos côtes » pour www.ma-cigarette.fr,  ou encore « Journalisme : tourner 7 fois sa souris dans sa main avant de faire un copié-collé d’une dépêche AFP » paru sur le blog de Jacques Le Houezec, tabacologue militant en faveur de la cigarette électronique comme une aide à l’arrêt du tabac. 

Cette annonce serait-elle une fausse alerte ? Non, les cigarettes électroniques contiennent bien des substances toxiques et personne ne le conteste. En revanche, les pro-cigarettes électroniques s’agacent qu’une étude révélant la présence d’un seul cancérigène soit montée en épingle pour accuser la e-cig d’être cancérigène. Car l’étude ne conclue pas que la cigarette électronique est cancérigène, elle indique « seulement » que certaines d’entre elles peuvent contenir des concentrations élevées de composés carbonylés, à savoir des aldéhydes.

Ces affrontements médiatiques témoignent de la sensibilité du sujet mettant en jeu le puissant lobby du tabac face à ceux qui sont convaincus que la cigarette électronique peut libérer les fumeurs de leur tabagisme. Nul doute que l’affrontement  entre fumeurs, vapoteurs, industrie du tabac, organisation de santé et gouvernements ne fait que commencer. 

Par Audrey Loubens

Des robots simulent le quotidien d’une famille moyenne pour évaluer les dépenses énergétiques

L’Oak Ridge National Library (ORNL), un Institut américain de recherche sur l’électricité, est à l’origine de ce projet d’étude concernant les meilleurs matériaux à utiliser pour construire la maison la plus économe qui soit. Durant 6 années, l’expérience a simulé la vie au sein de trois maisons-tests aux termes desquelles l’ORNL a enfin pu déterminer la configuration optimale.

La première maison étudiée répond aux normes standards. Elle est représentative des habitations classiques,  c’est la maison témoin. La deuxième maison intègre des technologies d’économie d’énergie tandis que la troisième est alimentée par des panneaux solaires de 2.5kW. Chaque maison a été soumise au même protocole, la simulation étant strictement identique. Chaque jour la lumière s’allumait, le frigo s’ouvrait et se refermait à plusieurs reprises, la baignoire se remplissait et la télévision s’allumait. Chaque soir, la lumière s’éteignait. Plusieurs fois par semaine, la machine à laver et le sèche-linge fonctionnaient. En tout, ce sont pas moins de 100 points de mesures qui furent analysés dans ces maisons-robot. Tout ceci représentant les habitudes d’une famille. Pourtant, aucun humain n’a jamais activé ni TV ni lave-linge. Tout était robotisé, jusqu’à ce système de réservoir simulant la production de chaleur et d’humidité des corps humains.

Bilan : la maison la moins énergivore est celle avec les panneaux solaires. On s’y attendait un peu mais grâce à cette expérience unique, on connait l’économie réalisée. Ainsi, la deuxième maison permet d’économiser 37% d’énergie, et la troisième consomme 57% d’énergie en moins qu’une habitation classique, grâce à l’énergie produite de façon autonome via les panneaux solaires. Finalement, d’après cette expérience, le plus efficace pour abaisser les coûts reste de s’assurer de l’efficacité des fermetures (portes, fenêtres), qu’il n’y a pas de fuite et utiliser des lampes basse consommation. La facture énergétique de la maison avec panneaux solaires est de seulement 35$ mensuels, soit une économie annuelle de 317$ (254€) par rapport à une maison standard.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le chantier des éoliennes en mer prend forme à Saint-Nazaire

Dans ses deux usines du port de Saint-Nazaire, Alstom produira les alternateurs et les nacelles des 80 éoliennes du futur parc en mer du banc de Guérande de Saint-Nazaire. En sortiront aussi, les alternateurs et nacelles qui équiperont les champs éoliens de Courseulles-sur-Mer et du Fécamp, remportés par les consortiums menés par EDF Energies Nouvelles. Les mâts et les pales de ces éoliennes proviendront quant à eux des deux usines Alstom de Cherbourg.

La production démarrera en février 2015. La première livraison de 5 éoliennes de présérie sera destinée à la ferme de Block Island aux Etats-Unis. A terme, 100 machines devraient être produites chaque année dans ces usines.

Un hub logistique en construction

Sur le site portuaire de Saint-Nazaire la construction d’un hub logistique destiné aux deux consortiums ayant remporté les appels d’offres pour l’installation des deux parcs éoliens en mer régionaux, commencera en mars 2015. Les premiers travaux débuteront  par la démolition d’une vingtaine de Blockhaus et l’extraction et la mise en décharge des sols pollués d’une ancienne station de déballastage.

Des travaux de renforcement du port sont aussi prévus, vu qu’une nacelle, par exemple, pèse environ 400 tonnes, soit le poids d’une rame TGV. « Une partie du quai va faire l’objet de renforcements à 15 tonnes au mètre carré, deux fois plus robuste qu’un quai classique, car les nacelles et les pâles font plusieurs centaines de tonnes sur de petites emprises« , précise  Philippe Léon, chef de projet du hub logistique.

Livré fin 2016, ce hub occupera une quinzaine d’hectares dont 11 hectares pour la plate-forme bord à quai proprement dite. « Le choix de Saint Nazaire est bien évidemment lié à la proximité du parc, mais aussi à la qualité des infrastructures proposées, au tissu économique et au tissu d’entreprises qui existent sur le bassin de Saint-Nazaire et qui maîtrisent déjà ces compétences de logistiques portuaires, de chargement de colis lourds« , vante Gaetan Duchene, chef de projet du parc éolien de Saint-Nazaire pour EDF Energies Nouvelles. Pour Nantes Saint-Nazaire Port, cet équipement représente un investissement de 10 millions d’euros.

Un hub pour deux parcs éoliens

142 éoliennes seront préparées sur le hub de Saint-Nazaire. Le premier utilisateur sera Eolien Maritime France (EMF), consortium européen regroupant EDF Energies Nouvelles et le danois Dong Energy Power, avec des éoliennes fournies par Alstom, pour le futur parc de Saint-Nazaire.

Ce parc sera installé entre 2018 et 2020 en mer du banc de Guérande de Saint-Nazaire, à 12 km des côtes, entre Le Croisic et Le Pouliguen. Il s’agit d’un parc de 80 éoliennes (Haliade 150-6MW) pour une puissance totale de 480 MW.  Il pourra alimenter en électricité et chauffage environ 720 000 habitants.

Dans un deuxième temps, GDF Suez, associé à Areva, EDP renewables et Neoen marine, retenus pour mener l’exploitation du champ des Deux îles, prendront possession du hub. 62 éoliennes, pour un total de 500 MW, seront installées entre 2021 et 2023, au large des îles d’Yeu et de Noirmoutier.

Et après? Quand les deux parcs éoliens seront construits, le hub pourra servir aux autres industriels présents sur le port. »L’idée est d’avoir une certaine cohérence industrielle pour que les sous-stations électriques ou les fondations métalliques qui sortiront de l’usine STX puissent bénéficier aussi des installations et des infrastructures du port sur le long-terme« , prévient Philippe Léon.

Comment va se passer l’assemblage des éoliennes en mer ?

L’utilisation de ce hub commencera pendant la phase de construction du parc éolien de Saint-Nazaire, prévue entre 2018 et 2020. Une fois pré-assemblées, les éoliennes seront chargées sur des navires spécifiques, dits « jack-up ». Ces bateaux ont la particularité de se pouvoir se relever en se posant sur le fond sur des pieux métalliques. Ils sont « auto-élévateur ». Une fois posés sur leurs pieux métallique, ils se « transforment » en plate-forme.

« C’est ici que vont converger toutes les pièces et composants essentiels. Les navires jack-up chargeront les pièces – nacelles, pâles, tronçons d’éoliennes – et partiront en mer pour les installer« , résume Gaetan Duchene. L’installation des éoliennes s’échelonnera sur 2 ans, mais elles entreront en production au fur et à mesure de leur assemblage.

« Le banc de Guérande est un plateau rocheux dont la profondeur se situe entre 12 et 23 mètres« , explique Gaetan Duchene. « Les fondations retenues pour ce projet seront des mono-pieux : il faut imaginer un cylindre métallique creux de 7 mètres de diamètre qui va être fiché dans le sol, sur lequel on va venir installer l’éolienne« , poursuit-il. Enfin, « le pieux est installé par batage. S’il ne descend plus par batage, on procèdera par forage« .

Suite au débat public qui a permis d’échanger avec le territoire, les demandes d’autorisation pour le parc éolien de Saint-Nazaire ont été déposées le 23 octobre, accompagnées de l’étude d’impact environnementale. « Ces autorisations seront instruites au cours de l’année prochaine par les services de l’état avec notamment une enquête publique« , prévient Gaetan Duchene.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Les carburants sont au plus bas depuis plus de quatre ans en France

Carburant privilégié des Français avec plus de 80% des ventes, le gazole a baissé de 3,44 centimes en une semaine pour s’établir à 1,1792 euro le litre vendredi dernier, montrent les chiffres hebdomadaires du ministère de l’Ecologie et de l’Energie.

C’est près de 16 centimes de moins depuis le début de l’année, et le niveau le plus bas observé depuis le 12 novembre 2010, quand le litre de gazole valait 1,1773 euro. Pour un plein de 50 litres, cela représente une économie d’environ 8 euros.

Les prix de l’essence sans plomb ont également poursuivi leur repli.

Deuxième carburant le plus vendu dans l’Hexagone, l’essence sans plomb 95 s’affichait à 1,3733 euro le litre, ce qui représente une baisse de 3,34 centimes d’une semaine sur l’autre. C’est un niveau plancher depuis le 26 novembre 2010.

Le litre de SP 98 a lui abandonné 3,04 centimes à 1,4395 euro, le niveau le plus faible depuis le 3 décembre 2010.

« Ces mouvements reflètent le fait que le brut a continué de baisser, combiné à une dépréciation de l’euro », a expliqué à l’AFP le président de l’Union française des industries pétrolières (Ufip), Jean-Louis Schilansky.

Les cours du pétrole restaient pénalisés lundi par la surabondance de l’offre, les perspectives moroses de demande et un dollar fort. A Londres, le baril de Brent a même atteint vers 09H45 GMT son niveau le plus bas depuis octobre 2009, à 67,35 dollars.

Selon M. Schilansky, les prix des carburants devraient se stabiliser autour de leur niveau actuel, à moins d’un nouvel accès de faiblesse des prix du brut.

« Dans tous les cas, on ne voit pas de facteur qui conduirait à la hausse dans les mois qui viennent », a-t-il dit.

L’Elysée a estimé que la baisse de l’or noir était correctement répercutée dans les prix des carburants à la pompe, à l’issue d’une rencontre lundi avec des professionnels du secteur. A cette occasion, l’objectif gouvernemental de revenir sur l’avantage donné au gazole a été réaffirmé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

De l’ADN a survécu à un voyage dans l’espace

L’expérience remonte à 2011. Dans le cadre de la mission européenne Texus, des scientifiques ont déposé en certains endroits de la fusée Texus-49 des plasmides, des molécules d’ADN circulaires présentes dans les bactéries, avant de l’envoyer faire un tour dans l’espace. Les molécules attachées ont donc dû endurer les conditions extrêmes que peuvent subir des objets à l’entrée et à la sortie de l’atmosphère. Pendant un court laps de temps, elles ont été chauffé à 1000°C mais elles ont survécu et sont restées accrochées à la capsule. Chose inouïe, si le code génétique qu’elles contiennent n’est peut-être pas resté tout à fait intact, il est en tout cas resté déchiffrable et a pu être transmis à des cellules de bactérie et de tissus conjonctifs (TC). Signe de leur robustesse.

 

Toutefois, les molécules d’ADN n’ont pas toutes réagi de la même façon. En fonction de l’endroit où elles ont été placées, elles ont plus ou moins bien résisté.

Ainsi, celles qui étaient incurvées dans les rainures des têtes de vis ont un taux de survie plus important que les autres (53%). 

 

Cela a inévitablement engendré un questionnement chez nombre de scientifiques concernant l’origine de la vie. Certains se demandant si elle ne serait pas venue de l’espace comme le décrit le principe de la panspermie; cette théorie scientifique selon laquelle la vie aurait été apportée d’autres planètes, véhiculée par des matériaux extraterrestres comme les comètes, météorites et autres corps rocheux. Sachant qu’une centaine de tonnes atterrit chaque jour sur Terre, pourquoi pas me direz-vous. En tout cas, la résistance de l’ADN à ces conditions extrêmes peut conforter cette théorie.

 

Cette constatation va forcer les scientifiques à prendre davantage de précautions à l’avenir car si les molécules d’ADN survivent dans l’espace et restent agrippées à l’enveloppe d’une fusée, elles peuvent aussi se répandre et contaminer de leur présence certaines régions de l’espace, comme Mars. Ce que redoute Oliver Ullrich, professeur de l’Institut d’anatomie de l’Université de Zurich et co-signataire de l’étude parue sur la revue scientifique américaine PLOS ONE : « nous devons éviter une telle contamination dans notre recherche pour une vie extraterrestre ».

 
Par Sébastien Tribot

Négociations climat: « le sentiment d’urgence fait défaut » (Union européenne)

« Le sentiment d’urgence fait défaut, les questions fondamentales en jeu font retomber les parties dans leurs positions habituelles », a-t-il déploré lors d’une conférence de presse en marge de la Conférence de l’Onu sur le climat qui se déroule du 1er au 12 décembre dans la capitale péruvienne.

« Dans les jours prochains, nous devons redoubler d’efforts pour écouter les préoccupations des uns et des autres », a-t-il insisté, appelant les parties à « s’écouter » et non à « se donner des leçons ».

Depuis une semaine, les délégations des 195 pays membres de la convention de l’Onu sur le climat ont repris leurs négociations en vue de conclure un accord mondial sur les réductions de gaz à effet de serre dans un an à Paris.

Les positions des pays industrialisés, des pays les moins avancés et des grands émergents sont très éloignées sur de nombreux sujets tels que la prise en compte, ou pas, de la responsabilité historique des pays riches dans le réchauffement, l’aide financière aux pays du Sud ou encore le contenu des engagements qu’auront à produire les divers pays fin 2015, appelées « contributions nationales ».

« Nous pensons que les contributions nationales doivent se limiter aux efforts de réduction des émissions » de gaz à effet de serre, a affirmé M. Canete.

Les pays en voie de développement veulent y voir inclus leurs efforts d’adaptation au changement climatique et les moyens notamment financiers que les pays riches pourraient mettre en oeuvre pour les aider.

« Nous devons prendre en compte l’adaptation (dans le futur accord), mais pas dans les contributions nationales », estime Miguel Canete.

La question du périmètre des contributions doit faire l’objet d’une décision approuvée par tous d’ici la fin de la semaine.

Sur l’épineuse question de la « différentiation » entre les pays, « nous ne sommes pas d’accord avec une interprétation rigide  » de la convention de l’Onu qui a créé deux catégories (Annexes 1 et 2), l’une pour les pays développés et une pour les pays en voie de développement, a affirmé Miguel Canete.

Les grands émergents insistent pour ne pas être traités à la même enseigne que les pays industrialisés, au nom de leur droit au développement et de la responsabilité historique des pays du Nord dans le changement climatique.

« Le monde de 2015 n’est pas le monde de 1992 », date de signature de la convention de l’Onu sur le climat, a fait valoir le commissaire européen, en référence à l’essor de la Chine et de l’Inde qui sont entre temps devenues respectivement 1er et 4ème émetteur de GES au monde.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Reach/CLP : toute l’actualité de décembre (1/2)

Le Ministère publie un mode d’emploi pour la demande d’autorisation

Le ministère de l’Ecologie a mis en ligne le 2 octobre une brochure présentant les conditions de la demande d’autorisation ainsi que les étapes de cette procédure dans le cadre du règlement Reach. Elle s’adresse aux entreprises qui mettent sur le marché ou utilisent des substances chimiques préoccupantes, « susceptibles de provoquer des effets irréversibles graves sur la santé ou sur l’environnement ».

Le règlement PIC modifié

15/10/2014

Un règlement n° 1078/2014 de la Commission européenne du 7 août 2014, publié le 15 octobre, modifie une nouvelle fois le règlement relatif aux exportations et importations de produits chimiques dangereux, dit « règlement PIC ». Il n’est toutefois applicable qu’au 1er décembre 2014 afin de laisser suffisamment de temps aux industriels et aux Etats membres pour adopter les mesures nécessaires à son respect.

Plusieurs substances ont été ajoutées à la liste des produits chimiques figurant à l’annexe I du règlement, parties 1 et 2, c’est-à-dire soumis à notification d’exportation et répondant aux critères requis pour être soumis à la procédure de notification PIC.

La newsletter d’octobre est en ligne

16/10/2014

Nouvelle consultation pour éviter les tests sur les animaux

16/10/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 33 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 1er décembre 2014.

Rectificatif à la décision 2014/313/UE relatif aux biocides afin de tenir compte de l’évolution de la classification des substances

18/10/2014

La décision n°2014/313/UE de la Commission du 28 mai 2014 relative aux produits biocides a été rectifiée suite à l’évolution de la classification de certaines substances.

Nouvelle proposition de classification et d’étiquetage harmonisé

21/10/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de trois nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 5 décembre 2014.

Nouvelle proposition de classification et d’étiquetage harmonisé

28/10/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 12 décembre 2014.

Plus d’informations sur :

http://echa.europa.eu/harmonised-classification-and-labelling-consultation

Proposition visant à actualiser le CoRAP

30/10/2014

L’ECHA a préparé une proposition visant à actualiser le plan d’action continu communautaire (CoRAP). Le projet de plan contient 134 substances qui sont proposées pour être évalués en 2015-2017 par les États membres en vertu du règlement REACH, 65 substances nouvellement sélectionnés et 69 substances du plan adopté et publié le 26 Mars 2014.

Nouvelles directives pour les titres des scénarios d’exposition

05/11/2014

Dans le cadre de la feuille de route sur le rapport sur la sécurité chimique et le scénario d’exposition (CSR/SE Roadmap), l’ECHA, le CEFIC et DUCC ont développé une approche visant à harmoniser les titres des scénarios d’exposition d’une manière plus cohérente et structurée.

Demande d’autorisation

12/11/2014

L’ECHA a publié les demandes d’autorisation couvrant 17 usages du trichloroéthylène. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 7 janvier 2015.

Nouvelle proposition de classification et d’étiquetage harmonisé

13/11/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 2 janvier 2015.

Nouvelle consultation pour éviter les tests sur les animaux

18/11/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 7 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 2 janvier 2015.

Rectificatif au règlement (CE) no 552/2009 de la Commission du 22 juin 2009 modifiant le règlement REACH

18/11/2014

Un rectificatif au règlement européen n° 552/2009 de la Commission du 22 juin 2009 modifiant le règlement européen n° 1907/2006 (règlement REACH), est paru au journal officiel le 18/11/2014. Ce texte modifie l’annexe XVII et concerne les phtalates dans les jouets et les articles de puériculture.

Règlementation Transport de marchandises dangereuses

22/11/2014

La directive européenne n°2014/103/UE vient modifier la directive du 24 septembre 2008 qui réglemente le transport des marchandises dangereuses au sein de l’Union européenne. Le texte renvoie à la version 2015 des accords internationaux relatifs au transport de marchandises dangereuses par route (ADR), par rail (RID) et par voie navigable (ADN).

Ces accords sont mis à jour tous les deux ans. La dernière version s’applique à compter du 1er janvier 2015, avec un période transitoire courant jusqu’au 30 juin 2015, période durant laquelle les anciennes versions peuvent continuer à être appliquées.

Publication d’une vidéo sensibilisant au règlement CLP

A partir du 1er Juin 2015, le règlement relatif à la classification, l’étiquetage et l’emballage (CLP) sera la seule règlementation pour classifier et l’étiqueter des substances et des mélanges avant mise sur le marché. L’ECHA a publié une vidéo de sensibilisation à l’importance du CLP.

Cette vidéo est disponible en 23 langues avec plus d’informations pour le grand public sur la page web dédié au CLP 2015.

Nouvelle FAQ sur les exemptions à l’autorisation

La nouvelle FAQ précise comment certaines utilisations spécifiques sont exemptes de l’autorisation. Celles-ci concernent des utilisations dans des médicaments, de la nourriture ou des aliments pour animaux, les produits phytopharmaceutiques, les produits biocides, des carburants, des produits cosmétiques et des matériaux au contact des aliments. Elles concernent également des utilisations comme combustibles dans des systèmes fermés, des utilisations dans les appareils médicaux, dans la recherche scientifique et le développement.

Nouvelle version de R4BP 3 (registre sur les produits biocides)

03/12/2014

La dernière version du R4PB pour les produits biocides est maintenant en ligne. Cette version est plus facile d’utilisation et présente 27 fonctionnalités en plus. Plus d’informations sur :

http://echa.europa.eu/support/dossier-submission-tools/r4bp

http://echa.europa.eu/view-article/-/journal_content/title/new-improved-version-of-r4bp-3-now-available

Le RAC et le SEAC d’accord sur des propositions

04/12/2014

Les comités sur les risques chimiques (RAC) et sur les analyses socio-économiques (SEAC) se sont entendus sur des propositions de restriction (2 propositions) et des demandes d’autorisation. Cet accord porte sur 43 projets d’avis pour des utilisations individuelles.

Modification du règlement CLP

05/12/2014

Le règlement européen n° 1297/2014 de la Commission du 5 décembre 2014 modifie, aux fins de son adaptation au progrès technique et scientifique, le règlement européen n° 1272/2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges. Ce règlement s’applique à compter du 1er juin 2015.

Par Céline Garobiaud

 

Et aussi dans les
ressources documentaires :

L’Agence spatiale européenne confie à Airbus une nouvelle mission d’observation de la Terre

« Cette mission a pour vocation de fournir des mesures de haute précision sur la topographie de la surface des océans » dans le cadre du programme d’observation de la Terre Copernicus, a indiqué Airbus D and S dans un communiqué vendredi.

« Le lancement (du satellite) Jason-CS/Sentinel-6 est prévu en 2020, a précisé le groupe.

Ce satellite effectuera des mesures « indispensables pour modéliser les océans et anticiper les augmentations du niveau des mers », indique le groupe.

Ainsi, il mesurera la distance qui le sépare de la surface de l’océan avec une précision de quelques centimètres et utilisera les données recueillies pour cartographier l’ensemble de la topographie de l’océan.

« Un tel degré de précision dans l’observation des variations de hauteur de la surface des océans permet de fournir des informations sur le niveau des mers, la vitesse et la direction des courants et le stockage de chaleur dans l’océan », selon Airbus D and S.

Le site d’Airbus D and S à Friedrichshafen (Allemagne) va assurer la maîtrise d’oeuvre du segment spatial et diriger le consortium industriel pour le compte de l’ESA.

Thales Alenia Space France construira l’instrument principal, un radar altimètre, tandis que d’autres instruments seront produits par la NASA ou fournis par l’Administration océanique et atmosphérique nationale des États-Unis (NOAA).

dlm/fpo/bpi/mr

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »