L’Agence spatiale européenne confie à Airbus une nouvelle mission d’observation de la Terre

« Cette mission a pour vocation de fournir des mesures de haute précision sur la topographie de la surface des océans » dans le cadre du programme d’observation de la Terre Copernicus, a indiqué Airbus D and S dans un communiqué vendredi.

« Le lancement (du satellite) Jason-CS/Sentinel-6 est prévu en 2020, a précisé le groupe.

Ce satellite effectuera des mesures « indispensables pour modéliser les océans et anticiper les augmentations du niveau des mers », indique le groupe.

Ainsi, il mesurera la distance qui le sépare de la surface de l’océan avec une précision de quelques centimètres et utilisera les données recueillies pour cartographier l’ensemble de la topographie de l’océan.

« Un tel degré de précision dans l’observation des variations de hauteur de la surface des océans permet de fournir des informations sur le niveau des mers, la vitesse et la direction des courants et le stockage de chaleur dans l’océan », selon Airbus D and S.

Le site d’Airbus D and S à Friedrichshafen (Allemagne) va assurer la maîtrise d’oeuvre du segment spatial et diriger le consortium industriel pour le compte de l’ESA.

Thales Alenia Space France construira l’instrument principal, un radar altimètre, tandis que d’autres instruments seront produits par la NASA ou fournis par l’Administration océanique et atmosphérique nationale des États-Unis (NOAA).

dlm/fpo/bpi/mr

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les sèche-mains à air pulsé sont moins hygiéniques que du papier

Cette fois, le progrès n’a pas que du bon. Les sèche-mains à air pulsé qui ont envahi les toilettes de nombreux espaces publiques et privés sont en fait des nids à microbes et surtout une source de bactéries envoyées directement sur l’utilisateur lors de son fonctionnement. Les scientifiques britanniques qui se sont penchés sur la question du séchage des mains ont découvert que des sanitaires équipés de sèche-mains à air pulsé contenaient 27 fois plus de bactéries dans l’air que des toilettes avec des rouleaux de serviettes en papier.

Les universitaires de Leeds ont contaminé les mains de cobayes avec des bactéries de type Lactobacille. Ces bactéries lactiques sont non pathogènes et leur environnement de prédilection est un substrat glucidique, ce qui n’est pas du tout le cas des toilettes. Les personnes contaminées se sont ensuite lavé les mains avec chacun des trois systèmes étudiés : le sèche-mains à air pulsé, le sèche-mains électrique et la serviette en papier jetable.  

Immédiatement après ces lavages de mains, les chercheurs ont mesuré la quantité de bactéries dans l’air. Ils ont renouvelé la mesure un quart d’heure plus tard. Les résultats sont édifiants puisque pour 3 bactéries laissées par l’utilisation d’une serviette en papier, le sèche-mains électrique en laisse 16 tandis que celui à air pulsé en rejette 71 ! Une différence qui persiste dans le temps puisque 15 minutes après pour 1 bactérie retrouvée dans le cas du papier, il en reste 4 pour le sèche-mains électrique et 14 avec le sèche-main à air pulsée. Le problème du sèche-mains à air pulsé est qu’il expulse les bactéries, les projetant vers le visage en même temps que dans l’air, d’où la contamination de l’environnement.

Il est clair que si l’on souhaite éviter la propagation des bactéries, les sèche-mains à air pulsés sont donc à proscrire. Ce problème d’hygiène est pourtant connu depuis longtemps. En 2007, Frédéric Saldmann, médecin et auteur du livre On s’en lave les mains, alertait déjà contre le danger sanitaire de ces nouveaux sèche-mains. Ceci n’a pas freiné l’essor des sèche-mains à air pulsé, qui ont l’avantage de coûter moins chers à l’usage que les rouleaux de papier.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Votre vélo devient électrique et roule grâce au soleil

Le composant principal de ce kit DDS est une roue équipée d’un moteur de 250 watts et d’une batterie lithium-polymère de 36 volts, tous deux situées dans son moyeu. Ce dernier comprend aussi une série de panneaux solaires, qui sont protégés par un revêtement en plastique transparent.

Pour être paré d’un nouveau vélo électrique disposant d’une autonomie d’environ 10 km lorsque les batteries sont pleines, il faudra placer cette roue à la place de la roue arrière de votre vélo habituel. Selon Daymak, l’installation serait des plus simples et prendrait moins de 5 minutes. 

Dès que votre vélo est garé ou qu’il roule sous la lumière du jour, les panneaux solaires rechargent en continu  la batterie. Mais ce n’est pas tout. Une commande placée sur le guidon permet de régler le niveau d’assistance du moteur en fonction de vos envies. Il communique sans fil avec le moteur, et dispose de ses propres panneaux solaires pour charger sa batterie. Il est également possible d’opérer grâce à une application sur Smartphone communiquant en Bluetooth.

A en croire le constructeur, chaque exposition d’une heure au soleil recharge la batterie pour rouler un kilomètre en mode « tout électrique ». Néanmoins, si le soleil n’est pas au rendez-vous il est toujours possible de recharger la batterie du moteur et du contrôleur sur secteur, grâce au chargeur fourni. 

Ce kit DDS devrait être disponible début 2015 pour des roues de 26 et 28 pouces. Le prix public conseillé est de 699 dollars, soit autour de 550 euros

  • Découvrir le kit DDS de Daymak en vidéo

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’UE et les États-Unis encouragent les alternatives à South Stream

Des représentants de l’UE et des États-Unis se sont rencontrés à Bruxelles lors d’un Conseil de l’énergie le 3 décembre, deux jours après que Vladimir Poutine, le président russe, a annoncé l’abandon du projet de gazoduc South Stream, qui aurait transporté du gaz naturel sous la mer Noire vers la Bulgarie, la Serbie, la Hongrie, la Slovénie et l’Autriche.

La Haute-représentante aux affaires étrangères, Federica Mogherini, et le secrétaire d’État américain, John Kerry, étaient présents lors de cette réunion, parfaite démonstration d’unité contre l’utilisation des ressources énergétiques comme instrument politique par la Russie.

Après la réunion, des représentants de l’UE et des États-Unis ont déclaré que le gazoduc aurait renforcé la mainmise de la Russie sur le marché du gaz, alors qu’il est aujourd’hui nécessaire de diversifier les sources et les itinéraires d’approvisionnement.

« South Stream ne diversifiait rien, il s’agissait juste d’une autre route », a ainsi souligné un représentant de l’UE. « Le gaz ne serait pas passé par l’Ukraine, mais ce serait le même gaz ». Et pour les États-Unis, « South Stream n’était pas un projet de diversification pour la région ».

Des exemples de projets alternatifs

Les représentants des États-Unis ont salué des projets alternatifs nés dans les pays baltes, comme le terminal flottant « Freedom » permettant d’acheminer du gaz naturel liquéfié (GNL) en Lituanie, un nouvel accord d’interconnexion entre la Finlande et l’Estonie, ou encore des terminaux de GNL à Helsinki et Tallinn. Ce genre de projets doit servir d’exemple au reste de l’UE.

Le GNL n’est pas transporté dans des gazoducs, ce qui en fait une alternative possible au gaz naturel. L’utilisation de GNL permettrait également de diversifier les fournisseurs d’énergie et donc de réduire la dépendance de l’UE à la Russie.

Le gazoduc South Stream aurait permis à la Russie de livrer du gaz à l’Europe sans passer par l’Ukraine. La plupart des importations de gaz russe à l’heure actuelle, qui représentent 30 % des besoins annuels européens, transitent actuellement par l’Ukraine. En 2009, la Russie avait fermé les robinets de gaz suite à une dispute avec Kiev, ce qui avait engendré des pénuries dans l’UE.

La sécurité énergétique est devenue l’une des préoccupations essentielles des décideurs politiques depuis que la crise ukrainienne s’est aggravée cette année, soulignant encore la dépendance de l’UE vis-à-vis de la Russie.

Vladimir Poutine considère l’UE responsable de l’échec du projet de South Stream, abandonné suite à une décision de la Bulgarie. La Commission européenne avait incité le pays à mettre un terme au projet. Selon l’exécutif européen, celui-ci enfreignait certaines lois européennes.

« Nous avons été très clairs quant à la stratégie du secteur européen de l’énergie face au projet South Stream. Nous voulions que le projet soit suspendu et la dimension de la sécurité énergétique a conforté notre position », assure un représentant de l’UE.

Certains pays, comme la Bulgarie et la Serbie, ont exigé des compensations suite à la suspension du projet. L’exécutif européen a cependant coupé court à ces réclamations, soulignant qu’il s’agissait d’une affaire interne à l’UE, qui ne devait pas être discutée avec les représentants des États-Unis.

Le choix de la Turquie s’impose

L’abandon de South Stream devrait faire de la Turquie une plateforme gazière d’envergure. Moscou et Ankara ont en effet conclu un accord préliminaire sur le début de travaux liés à un gazoduc alternatif passant par la Turquie et qui se terminerait par une plateforme de distribution près de la frontière grecque.

Lors d’une conférence de presse, Vladimir Poutine a déclaré que cette plateforme pourrait alimenter l’UE, si ses membres le souhaitaient. 60 % environ du gaz naturel utilisé en Turquie vient de Russie.

« Nous allons sans aucun doute continuer à coopérer étroitement avec la Turquie », assure par ailleurs un représentant européen. « La Turquie peut permettre aux marchés européens de diversifier ses fournisseurs de gaz et les routes que celui-ci emprunte, ce qui est nécessaire au moyen et long terme. »

Le gaz et le pétrole provenant de la Méditerranée, de la mer Caspienne et d’Irak pourraient également transiter par la Turquie. « En ce qui concerne l’acheminement, la Turquie est un acteur essentiel », souligne un représentant européen, qui ajoute qu’une stratégie pour l’énergie intégrant la Turquie sera élaborée dans le courant du mois de décembre.

L’union énergétique

Plus tôt dans la semaine, l’Agence internationale de l’énergie a publié un rapport sur la politique énergétique de l’UE. Selon ce rapport, l’Europe restera dépendant du gaz russe pendant encore un certain temps.

Cette analyse est jugée intéressante par l’exécutif européen, qui souligne néanmoins que la responsabilité d’élaborer de nouvelles politiques et mesures lui revenait.

« Il existe incontestablement une volonté politique d’agir en ce qui concerne la sécurité énergétique à la Commission européenne et à l’UE. La sécurité énergétique sera probablement la première priorité de l’union énergétique, étant donné qu’il s’agit d’une sorte de précondition », rappelle un représentant de l’exécutif.

Des mesures ad hoc devraient également permettre à l’Union d’accélérer certains processus, comme dans le cadre de l’inversion des flux en Slovaquie, qui a permis à l’UE de vendre du gaz russe à l’Ukraine.

« L’Europe restera dépendante, si vous voulez utiliser ce terme, du gaz russe tant qu’il est l’option la moins chère. Ça n’est pas un problème. Ce qui est important, c’est de s’assurer que ça ne soit plus le cas le jour où il se pourrait que ce gaz ne soit plus livré. Nous devrons alors pouvoir nous fournir ailleurs », conclut le représentant.

EurActiv.com

Moteurs de recherche scientifiques : les alternatives à Google Scholar

Il existe aussi plusieurs moteurs de recherche spécialisés dans l’information scientifique, de bonne facture et très performants. Les moteurs de recherche scientifique permettent non seulement d’accéder aux métadonnées d’une revue, mais souvent à tous les articles de ses numéros, en liaison avec diverse bases de données de littérature scientifique. 

Ressources en libre accès

Les outils les plus efficaces sont sans doute ceux qui vous permettent d’effectuer des recherches, en plein texte, dans des ressources en libre accès. Le métamoteur d’origine allemande Base (Bielefeld Academic Search Engine) “moissonne” ainsi plus de 65 millions de documents scientifiques, issus de 3213 ressources libres. Plutôt impressionnant, et diablement efficace. 

Utilisant, comme Base, le protocole de partage de métadonnées de l’Open Archives Initiative (OAI), projet qui vise à faciliter l’échange d’archives numériques, le moteur américain OAIster propose de fouiller dans une large gamme d’archives open source (images, articles de journaux, textes, livres, vidéos, sons – 25 millions de notices en tout), de niveau universitaire, en provenance de plus de 500 institutions académiques. 

Biologie, médecine et chimie

Concernant la biologie, BioTechSearchEngine vous donnera accès à plus de 300 revues en libre accès. BioMedCentral vous permettra d’accéder aussi à 200 revues en biologie et en médecine, toujours en libre accès. Il existe aussi des moteurs de recherche destinés aux chimistes, très efficaces, comme PubChem, ou ProfusionChimie

Sciences de l’ingénieur, informatique, mathématiques

Pour les sciences de l’ingénieur, l’informatique et les mathématiques, il existe des moteurs plus spécifiques, comme celui de l’IEEE (Institut des ingénieurs électriciens et électroniciens), ou comme le très pointu CiteSeerX, à la fois bibliothèque numérique et moteur de recherche de documents en sciences de l’information et en informatique. Gratuit, TechXtra vous permettra aussi de rechercher des articles, des livres, des articles de journaux, des rapports techniques, des thèses, des mémoires, ou des ressources éducatives libres (OER). 

Le portail WorldWideScience s’avèrera aussi un moteur utile dans vos recherches. Il vous permettra d’accéder à une vaste base de brevets et de textes (de toutes disciplines) produits par les sociétés savantes du monde entier, de l’INIST (Institut de l’information scientifique et technique) à Science.gov, en passant par NARCIS (base développée par l’académie royale néerlandaise pour les arts et les sciences), le Canada Institute for Scientific and Technical Information, ou l’agrégateur de revues japonais, Journal@rchive.

Sciences humaines et sociales

Enfin, si vous effectuez des recherches dans le domaine des sciences humaines et sociales (SHS), vous pourrez vous tourner vers Isidore et Jurn

Le premier est une plateforme de recherche, ouverte aux étudiants, aux doctorants, aux enseignants et aux chercheurs. Conçu par le CNRS, Isidore moissonne une large base de données, menant vers des archives ouvertes, des bibliothèques numériques, des revues en ligne, d’actes de colloques, ou de catalogues tels que ceux du SUDOC, de la BnF, de la Bibliothèque du Congrès US, et de l’IRHT (Institut de recherche et d’histoire des textes). Au total, 3 millions de documents, en provenance de plus de 2000 sources. 

De son côté, Jurn permet de se plonger dans plus de 1000 revues électroniques, en accès libre, en art et sciences humaines.

Par Fabien Soyez

Découvrez le nouvel espace de lecture du site des Techniques de l’Ingénieur

Ce séminaire en ligne (INSCRIPTIONS ICI) sera l’occasion de découvrir le nouvel espace de lecture optimisé et notamment :

  • Une barre d’outils latérale, à gauche, qui regroupe toutes les fonctionnalités pratiques

Pour les articles de référence ou les fiches pratiques, découvrez le confort de lecture d’un affichage en plein écran.

Et toujours, pour une expérience de lecture personnalisée : annotez ou posez des mots clés (tags) sur vos articles, exportez la référence ou le permalien, jouez sur la taille des polices, partagez…

  • Sur la droite vous trouvez tous les compléments d’information

Sommaire, auteurs,  » en savoir plus », boîte à outils, articles liés, mots clés…

  • Un espace de lecture optimisé pour tous les navigateurs, les tablettes et smartphones. Pour chacune de ces versions, accédez facilement à l’ensemble des contenus et fonctionnalités

La notice d’utilisation est disponible en permanence dans votre espace « mon compte » (rubrique documentation du menu de gauche), nous vous proposons également de la télécharger ici.

Publié par P.T

L’intelligence artificielle « pourrait mettre fin à la race humaine », avertit Stephen Hawking

Dans un entretien avec la BBC, le scientifique a déclaré que ce type de technologie pouvait évoluer rapidement et dépasser l’humanité, un scénario comparable à celui des films « Terminator ».

« Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine », a affirmé le professeur dans cet entretien.

« Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite », a-t-il déclaré.

« Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés », a poursuivi M. Hawking, considéré comme un des plus brillants scientifiques vivants.

Atteint de la maladie de Charcot, autrement appelée sclérose latérale amyotrophique ou SLA, Stephen Hawking se déplace en fauteuil roulant et parle à l’aide d’un ordinateur.

Il reste en faveur des nouvelles technologies de communication et a déclaré avoir été un des premiers à être « connecté » aux débuts d’internet.

M. Hawking a déclaré qu’internet avait apporté à la fois des dangers et des bénéfices, citant un avertissement du nouveau chef de l’agence d’espionnage électronique britannique GCHQ, selon lequel internet était devenu un centre de commandement pour criminels et terroristes.

« Les entreprises d’internet doivent faire plus pour contrer la menace, mais la difficulté est de le faire sans sacrifier la liberté et la vie privée », a soutenu l’astrophysicien âgé de 72 ans.

Stephen Hawking a annoncé mardi que son système de communication, amélioré par le groupe américain Intel, serait accessible gratuitement à la communauté scientifique en janvier 2015.

Tout en saluant les progrès, le scientifique a affirmé ne pas vouloir changer sa voix robotique, qui provient d’un synthétiseur conçu initialement pour un service d’annuaire téléphonique.

« Cette voix était très claire bien qu’un peu robotique. Elle est devenue mon signe distinctif et je ne la changerais pas pour une voix plus naturelle avec un accent britannique », a-t-il dit à la BBC. « Apparemment les enfants qui ont besoin d’une voix synthétique en veulent une comme la mienne ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Selon une étude japonaise, certaines e-cigarettes contiendraient des substances cancérigènes

Voilà de quoi relancer le débat entre fumeurs et vapoteurs. Alors que les cigarettes électroniques ont envahi la France, les doutes sur leur éventuelle nocivité semblent bien levés. Jeudi 27 novembre, des chercheurs de l’Institut national de la santé publique japonais ont remis leur rapport sur les vapeurs des cigarettes électroniques au ministère de la santé. D’après eux, les cigarettes électroniques sont loin d’être irréprochables.

Pour étudier la quantité de substances chimiques émises par une e-cig, l’équipe a utilisé une machine simulant l’inhalation d’un vapoteur. Dans chaque cas, le système a réalisé 15 bouffées, dix fois de suite. Parmi les différentes cartouches testées, certaines ont montré un taux élevé de produits cancérigènes.  Plus particulièrement, 4 substances toxiques sont très présentes. Il s’agit du formaldéhyde, de l’acroléine, du glyoxal et du méthylglyoxal. Le premier est classé comme un « cancérigène certain », impliqué dans les cancers touchant les fosses nasales, le deuxième est un irritant de la peau hautement lacrymogène, les deux derniers sont des aldéhydes génotoxique  et cytotoxique. Dans un premier temps, les tests ont ainsi révélé la présence de ces substances chimiques à la toxicité avérée, pour ensuite constater un taux parfois très élevé selon les marques étudiées. Pour l’une d’entre elles, le rapport précise que le taux de formaldéhyde est 10 fois supérieur à celui contenu dans une cigarette traditionnelle ! Toutefois, les chercheurs restent prudents et n’accusent pas ouvertement les e-cigarettes d’être cancérigènes. Une prudence liée principalement à la très grande variété de liquides qui empêche une conclusion globale. De plus, le fonctionnement de la cigarette électronique a aussi un impact car le taux de produits toxiques augmente lorsque le fil résistif surchauffe.

Ce qui est sûr, c’est que les e-cig sont loin d’être des dispositifs sans danger. Cet été déjà, l’Organisation mondiale de la santé (OMS) alertaient sur les dangers, déconseillant ces cigarettes aux femmes enceintes et préconisant de les interdire dans les espaces publics fermés. Si l’OMS reconnait que les cigarettes électroniques sont probablement moins nocives que les cigarettes normales, elle insiste sur le fait que les données restent insuffisantes pour conclure.  Autant de tergiversations qui n’émeuvent pas les fumeurs. Le marché des cigarettes électroniques  en France était de 4 millions d’euros en 2010 et est estimé à 275 millions en 2014. Un phénomène mondial puisque selon l’OMS, les ventes de produits liés aux cigarettes électroniques pourraient être multipliées par dix-sept dans les quinze prochaines années.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

S’inspirer de l’effet lotus pour créer un revêtement super-hydrophobe

Une fois n’est pas coutume, la science vient s’inspirer du vivant pour répondre à certaines problématiques. Laissons les poncifs de côté, qui sont légion lorsqu’une équipe de chercheurs a le bon goût de venir piocher dans la quantité inépuisable d’astuces développées par les animaux ou les végétaux au cours de leur évolution, pour nous recentrer sur quelques unes de ces études parmi les moins médiatisées. Rappelons-nous par exemple les qualités auto-nettoyantes des pattes des rainettes qui ont permis de dessiner quelques pistes pour améliorer les surfaces collantes et les rendre elles-aussi auto-nettoyantes. Autre exemple, l’observation des fabuleuses qualités de navigation des chauves-souris pourrait nous amener à repenser complètement nos couloirs aériens.

« Effet lotus »
Ici, deux scientifiques de l’Institut Polytechnique et Université d’État de Virginie – plus connue sous le nom de Virginia Tech – se sont intéressés à ce que l’on appelle couramment « l’effet lotus », un phénomène de super-hydrophobie causé par une rugosité nanométrique et inspiré des feuilles de la plante aquatique du même nom, phénomène qui accorde à une surface des capacités auto-nettoyantes. Pour en être capable, la feuille de lotus s’appuie sur une double structure constituée d’un épiderme formant des papilles de quelques microns sur lesquelles repose une couche de cire hydrophobe, réduisant drastiquement les points de contact entre la surface et l’eau, qui ne peut alors plus atteindre les interstices de la surface de la feuille. L’eau n’a d’autre choix que de s’écouler en emportant avec elle les particules et poussières diverses se trouvant à la surface de celle-ci .

Hydrophobie et super-hydrophobie
L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. À titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°.

Polyvalence du cuivre
Piqués au vif par ce phénomène, Ranga Pitchumani, professeur d’ingénierie mécanique à Virginia Tech, et Atieh Haghdoost, jeune doctorant du laboratoire de Pitchumani, se sont attelés à la création d’un revêtement qui aurait tout aussi peu d’affinités avec les molécules d’eau – avec succès semble-t-il. Les chercheurs auraient réussi à définir une approche simple et bon marché permettant de protéger les surfaces métalliques à l’aide d’une fine pellicule de cuivre, à la fois super-hydrophobe, durable et ayant une bonne conductivité électrique. Enfin, c’est un matériau de premier choix ayant de nombreuses applications mécaniques, électriques et thermiques.
Cette polyvalence du cuivre est primordiale pour nos deux chercheurs, dont l’un des buts à atteindre était de rendre une surface super-hydrophobe sans en altérer ni les propriétés ni la texture, contrairement à la méthode du spray, de loin la plus répandue. Utiliser et traiter du cuivre pour protéger des surfaces en cuivre, ou plus généralement des surfaces métalliques leur a donc semblé tout naturel, bien qu’ils souhaitent développer leur procédé à d’autres matériaux.

Galvanoplastie ou électrodéposition
Le procédé, en deux étapes, s’appuie une technique assez commune appelée galvanoplastie, ou de manière plus descriptive « électrodéposition », qui permet d’appliquer sur une surface un dépôt métallique à l’aide d’un courant électrique continu, métal initialement présent sous forme de cations en solution dans un solvant. Les deux scientifiques se distinguent néanmoins en n’utilisant aucune matrice (procédé qu’ils ont fait breveté), ce qui ouvre la voie à la création d’un revêtement super-hydrophobe constitué du même matériau que celui de la surface à protéger, préservant ainsi ces propriétés thermiques et électriques.
La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités d’imperméabilisation, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également très efficace pour lutter contre la corrosion, l’accumulation de crasse et le « fouling », la colonisation d’un substrat (souvent immergé) par certains organismes.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Une impulsion lumineuse suffit à effacer un souvenir

Contrôler les neurones à l’aide de la lumière et maîtriser les souvenirs d’une simple impulsion lumineuse, voilà de quoi la science est désormais capable. Une équipe californienne vient de franchir une nouvelle étape en manipulant le cerveau de souris de façon à effacer un souvenir précis. Pour y parvenir, les hommes du Docteur Brian Wiltgen ont implanté un souvenir désagréable dans le cerveau des rongeurs en leur faisant subir une décharge électrique lorsqu’ils sont placés dans une cage.  Après un tel traitement, les souris ressentent la peur dès qu’elles s’approchent de ladite cage. C’est alors que les scientifiques désactivent les neurones associés à ce souvenir grâce à des impulsions lumineuses. La peur est oubliée et les souris pénètrent dans la cage comme si de rien n’était !

Comment les chercheurs font-ils pour désactiver uniquement  les bons neurones ? Pour bien comprendre l’expérience, il faut savoir que les souris utilisées pour l’expérience sont génétiquement modifiées de telle sorte que leurs cellules nerveuses produisent une protéine photosensible. Une fibre optique implantée directement dans le cerveau va alors permettre d’activer cette protéine à une longueur d’onde donnée. Cette dernière va alors fonctionner comme un interrupteur, allumant ou éteignant le neurone ciblé. Cette technique très récente s’appelle l’optogénétique. Les possibilités ouvertes par cette approche mixant optique et génétique lui ont valu d’être élue « Méthode de l’année » par le magazine Nature en 2010.

En  2012, l’équipe de Susumu Tonegawa au MIT parvenait déjà à reproduire un souvenir de peur à volonté. Les scientifiques avaient implanté dans le cerveau de souris génétiquement modifiés une canule de fibre optique qui leur permettait  de stimuler directement des neurones. Ils ont généré de la peur chez ces cobayes via des chocs électriques. Puis, alors que les souris étaient en sécurité, ils ont activé certains neurones grâce à la lumière, provoquant la peur des rongeurs, envahis par le souvenir des impulsions électriques. Ces travaux confirmaient ainsi que les souvenirs étaient stockés directement dans les neurones.

Fin août 2014, ce même groupe enfonce le clou avec une expérience encore plus incroyable. Cette fois, ils ont réussi à transformer un souvenir désagréable en bon souvenir, et réciproquement. Ces travaux parus dans Nature ont consisté à travailler avec deux groupes de rongeurs génétiquement modifiés. Le premier est conditionné par la peur tandis que l’autre l’est au plaisir. Puis, les scientifiques inversent les groupes. Les cobayes du groupe apeuré par les chocs électriques sont placés avec des congénères du sexe opposé, situation très plaisante, tandis que les autres sont à leur tour soumis à des chocs électriques. Suffisant pour qu’un souvenir chasse l’autre. Le premier groupe ayant connu la peur puis le plaisir pénètre à nouveau dans la cage tandis que le groupe préalablement conditionné au plaisir puis effrayé se met à fuir. Les chercheurs ont donc réussi à remplacer une émotion par une autre de nature opposée.

Ces trois expériences démontrent la puissance de l’optogénétique, technique capable de contrôles les neurones grâce à des impulsions lumineuses.

Here come the Men In Black…

Par Audrey Loubens, journaliste scientifique

L’Australie ouvre sa porte au nucléaire

L’Australie est le troisième producteur mondial d’uranium derrière le Kazakhstan et le Canada mais ne se sert pas de l’énergie nucléaire, comptant plutôt sur ses réserves considérables de charbon et de gaz naturel peu coûteux.

Mais Canberra est sous pression pour annoncer ses objectifs en matière de lutte contre le réchauffement climatique au delà de 2020 à l’occasion de la conférence de Paris de 2015. L’Australie est le pays développé émettant le plus de gaz à effet de serre par habitant, selon le centre australien Climate Institute.

Le Premier ministre Tony Abbott s’est dit ouvert au nucléaire. « Sur la question de l’énergie nucléaire, je l’ai dit à plusieurs reprises, je n’ai pas d’objection théologique », a déclaré M. Abbott.

Celui-ci a dit récemment que le charbon était « bon pour l’humanité ». Il avait également estimé en son temps que les études scientifiques sur le changement climatique étaient de la « foutaise absolue ».

Figurant parmi les 20 premiers pays en termes d’émissions de gaz à effet de serre, l’Australie s’est engagée pour l’instant à les réduire de 5% d’ici à 2020 par rapport au niveau de 2000. Les écologistes estiment que la baisse devrait être de 15%.

Lors du dernier sommet du G20 à Brisbane, les pays les plus riches du monde ont passé outre les réserves de l’Australie et se sont finalement accordés pour soutenir une « action forte et efficace » sur le climat.

Quatre jours plus tôt à Pékin, le président Barack Obama et son homologue chinois Xi Jinping avaient annoncé un accord inédit pour lutter contre le réchauffement: la Chine s’est fixé pour objectif un pic de ses émissions de gaz à effet de serre « autour de 2030 »; les États-Unis se sont eux engagés sur une réduction de 26 ou 28% de leurs émissions d’ici à 2025 par rapport à 2005.

Tony Abbott a souligné que l’énergie nucléaire était centrale dans certains pays comme la France et le Japon.

« Si nous devons réduire considérablement nos émissions, nous devons nous rappeler que la façon avérée de le faire est via le nucléaire », a-t-il dit. « Jusqu’à présent, ce n’était pas une solution pour l’Australie car nous ne faisons pas face comme d’autres à des pénuries d’énergie. Nous avons des centaines d’années de réserves de charbon, des centaines d’années de réserves de gaz ».

« Si quelqu’un veut faire une proposition pour produire ici de l’énergie nucléaire, d’accord, mais il ne faut pas s’attendre à des subventions publiques », a-t-il toutefois souligné.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #71 : les vidéos les plus étonnantes de décembre 2014 (1/3)

Cette semaine dans la revue du Web :

  • LBC, un accélérateur de particules en Lego « fonctionnel » ;
  • Imaginer le bijou du futur : Neclumi, le collier de lumière ;
  • Le robot anthropomorphe Atlas, de la Boston Dynamics, s’attaque à Karaté Kid ;
  • Le gadget (inutile?) de la semaine : la bougie récalcitrante ;
  • Et en bonus cette semaine, des folioscopes de toute beauté.

LBC, un accélérateur de particules en Lego « fonctionnel » :

Le CERN et son LHC (pour Large Hadron Collider, ou « Grand Collisionneur de Hadrons » en français) peuvent trembler. Pour débuter cette soixante-et-onzième Revue du Web, voici un sérieux concurrent au fameux accélérateur de particules situé à la frontière franco-suisse, le plus puissant jamais construit. Pourtant, ici, point de positrons, d’électrons ou encore de protons. Le Youtubeur et artiste Jason Allemann n’en a que faire de ces particules ennuyeuses, et nous le prouve avec son LBC (pour Large Brick Collider), un dispositif très malin qui substitue une petite balle de football Lego aux habituelles particules chargées électriquement.

Le jeune Canadien se laissa bien vite dépasser par ce qui n’était au départ qu’une blague de potaches, pour finalement s’orienter vers un projet alternatif, mais bien ancré dans le réel. Grâce à son installation, il peut mettre en mouvement puis accélérer le petit ballon Lego, et ce jusqu’à une vitesse folle de 12,5 kilomètres par heure. En guise d’accélérateur, une paire de roues Lego placées l’une derrière l’autre, l’une en rotation maximale à l’aide d’un moteur « Power Functions M », l’autre en roue libre. Cerise sur le gâteau, la petite mise en scène est mignonne comme tout, faisant de Jason Allemann un parfait ambassadeur pour la marque danoise.

Imaginer le bijou du futur : Neclumi, le collier de lumière

Marre des sempiternels bijoux laissant la part belle aux habituels métaux précieux ? Le collectif artistique panGenerator, basé à Varsovie, se propose de dynamiter le concept physique du bijou avec Neclumi, le tout premier collier interactif utilisant la lumière comme matière première. Loin d’être des magiciens, les quatre Polonais s’appuient sur un picoprojecteur – un vidéoprojecteur miniature – attaché au niveau de la poitrine de l’heureuse propriétaire, le petit appareil étant relié à un smartphone par un câble HDMI, l’ensemble orchestré par une application dédiée.

Quatre modes différents existent : « Airo » s’appuie sur le podomètre du smartphone, et projette un collier sensible à la vitesse de marche ; le mode « Roto » utilise la boussole intégrée au téléphone pour projeter un collier sensible à la rotation du corps ; « Movi » s’appuie sur l’accéléromètre du smartphone pour créer un collier réagissant aux mouvements du corps de l’utilisatrice ; le mode« Sono », enfin, utilise le microphone pour générer un bijou en phase avec l’environnement sonore. Encore au stade de projet, nul doute que cette belle idée ne finisse par faire des émules.

Le robot anthropomorphe Atlas, de la Boston Dynamics, s’attaque à Karaté Kid

Dire que la Boston Dynamics ne chôme pas est un pléonasme… Grande habituée de la Revue du Web, la prolifique société américaine, forte du prestige que lui accordent ses différents poulains (Alpha Dog, Big Dog, Proto PET), ne cesse de nous surprendre par la qualité de son travail, la grande polyvalence de ses robots ainsi que par la cadence infernale à laquelle elle améliore ses petits protégés.

L’un des derniers avortons de cette grande famille, baptisé Atlas, est un robot humanoïde bipède anthropomorphe conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog. Pour son grand retour dans notre Revue du Web, Atlas exécute l’un des mouvements les plus emblématiques du film générationnel Karaté Kid, grand succès et monument du milieu des années 1980.

Atlas marche comme un être humain, en déroulant son pied à partir du talon, laissant ses membres supérieurs libres pour manipuler son environnement. En terrain particulièrement hostile, le robot humanoïde s’adapte et fait preuve d’une grande coordination, allant jusqu’à s’aider de ses mains pour se frayer un passage à travers les obstacles. Articulées, les mains du robot Atlas ont été développées pour pouvoir utiliser des outils initialement conçus pour l’usage des humains. Articulée elle-aussi, la tête d’Atlas embarque de nombreuses caméras et un télémètre laser lui permettant de mesurer les distances (avec un mode de fonctionnement proche du sonar avec les ondes acoustiques).

Atlas – encore au stade de prototype – est développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Le gadget (inutile?) de la semaine : la bougie récalcitrante

Les scientifiques et inventeurs de tout poil peuvent faire preuve, on le sait, d’une imagination débordante lorsqu’il s’agit de créer quelque chose d’absolument inutile. Le gadget (inutile?) de cette semaine en est un parfait exemple, en plus d’être un lointain cousin des boîtiers les plus mal-lunés jamais inventés dont nous vous avions déjà parlé ici.

Équipé d’un microcontrôleur PICAXE 14M2, d’une photorésistance et de deux petits moteurs provenant de quelques vieux lecteurs de disquettes, ce boîtier reste des plus discrets si l’on ne s’aventure pas à essayer d’allumer la bougie « récalcitrante » qui lui trône dessus. Une fois cette dernière allumée, éclate alors au grand jour une mauvaise humeur proverbiale, à vous glacer le sang.

Bonus : des folioscopes de toute beauté

Du haut de ses 150 ans, le folioscope (ou flip book pour les anglophones) est l’un des ancêtres du cinéma, s’appuyant à la fois sur la persistance rétinienne et sur l’effet phi – la sensation visuelle de mouvement par l’apparition d’images successives. Simple d’utilisation, il réclame néanmoins beaucoup d’imagination de la part de son créateur ainsi qu’une grande maîtrise pour que l’ensemble de la séquence animée reste fluide.

Passé maître en la matière, le Japonais Mou Hitotsu No Kenkyujo soigne aussi bien l’illustration que la réalisation, pour un résultat ultra-rythmé à tomber par terre. Place à la poésie !

Par Rahman Moonzur

Le tremplin : la future plateforme de l’innovation sportive à Paris

Des incubateurs, Paris en compte déjà quelques-uns parmi lesquels on peut citer Agoranov, le Cent-Quatre, le Numa, la Ruche et tant d’autres mais un consacré au sport, ça pas encore. C’est même une première mondiale. La maire de Paris, Anne Hidalgo, en avait fait l’un de ses cheval de bataille du temps de sa campagne pour l’investiture de la mairie de Paris. Le Tremplin est désormais confirmé, en partie grâce à l’appui de la Française des jeux (FDJ), et a été présenté à l’Hôtel de Ville mardi 25 novembre.

C’est le stade Jean-Bouin qui a été choisi pour y implanter l’incubateur. Sa disposition privilégiée avec des lieux dynamiques de la vie sportive parisienne en a fait le cadre idéal. Le stade situé dans le 16ème arrondissement de Paris est en effet campé entre Roland Garros, la Parc des Princes et le stade Pierre de Coubertin. Rénové en 2013, celui-ci était jusqu’ici surtout connu du public pour accueillir le club de rugby le Stade Français Paris et sa section tennis assez développé. L’accélérateur va évidemment changer la donne.

L’idée est de créer un lieu propice à la réflexion et à l’expérimentation, un espace de co-working pas seulement attractif pour les petites entreprises mais aussi pour les visiteurs. Le pole sera consacré à la formation ainsi qu’à la veille afin de faire émerger l’innovation et de créer une nouvelle vision de rupture du sport. Les start-ups engagées dans le big data, les technologies connectées, le textile intelligent, les handisports, les cyber-sports et tout ce qui a trait aux médias, réseaux sociaux et événements dans le sport seront les bienvenues. La ville de Paris espère ainsi créer de nouveaux emplois.

Un appel à candidatures a d’ores et déjà été lancé. Ce sont les jeunes start-ups de moins de cinq ans qui sont dans le collimateur de la mairie pour occuper les 2 200 mètres carrés des futurs locaux et les 250 postes de travail. Elles pourront bénéficier d’un accompagnement et d’une aide financière en sollicitant le fonds d’investissements Paris Innovation Amorçage (dispositif de financement des projets innovants en phase d’amorçage). Les premières sélectionnées intégreront un lieu temporaire au coeur d’un site de Paris Région Lab dans le 13ème arrondissement dès mars 2015 avant de s’installer dans le stade Jean-Bouin l’année suivante.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le gaz de schiste ne révolutionnera pas l’énergie en Europe

De meilleures techniques de fracturation hydraulique ont « considérablement réduit l’empreinte écologique de l’extraction du gaz de schiste », annonce une étude du conseil européen de l’académie des sciences (European Academies Science Advisory Council, ou EASAC) parue le 13 novembre.

Parmi ces techniques, on retrouve le remplacement de certains produits chimiques potentiellement nocifs ou encore la communication de tous les additifs utilisés pour la fracturation.

En outre, l’impact de l’extraction sur la santé, la sécurité et l’environnement est limité par un cadre réglementaire déjà en place dans la plupart des pays.

« En Allemagne, par exemple, la fracturation hydraulique n’est autorisée que si l’intégrité technique du forage a été préalablement établie », note l’EASAC. L’étude estime que les règles existantes sont suffisamment strictes en matière de sécurité.

L’EASAC est constituée des académies des sciences des 28 États membres de l’UE, ce qui lui confère une réelle autorité.

Le potentiel en Europe n’est pas certain

Reste que le potentiel d’extraction de gaz de schiste au sein de l’UE est « incertain », à cause des limites des données géologiques permettant d’évaluer l’accessibilité des réserves, ce qui douche les espoirs de certains de voir le gaz de schiste exploité à grande échelle sur le continent.

Les réserves les plus importantes en Europe se situent en France et en Pologne, qui détiendraient respectivement 3,88 et 4,19 mille milliards de mètres cubes, selon l’Agence américaine pour l’information sur l’énergie (EIA). Le territoire des États-Unis renfermerait quant à lui quelque 16 mille milliards de mètres cubes.

La situation géologie est en outre « plus compliquée » en Europe qu’aux États-Unis. Le rapport fait ainsi état de formations rocheuses « plus anciennes » et « plus fracturées », ce qui a des « conséquences sur la faisabilité technique et économique de l’extraction de gaz ».

« Seule une partie » des réserves existantes serait donc récupérable en Pologne, alors que la présence supposée de gaz de schiste dans le bassin parisien a été démentie par les dernières études géologiques.

L’EASAC est également sceptique quant aux déclarations selon lesquelles l’utilisation de gaz de schiste permettrait de ralentir le réchauffement climatique. Cela dépendrait en réalité de la qualité du processus d’extraction et de « l’intégrité des puits ».

Le gaz de schiste constitue bien une alternative séduisante aux importations en provenance de la Russie dans un contexte politique tendu, souligne toutefois l’EASAC, qui estime que le gaz en question pourrait apporter « une contribution non négligeable à la sécurité énergétique » en remplaçant une partie des importations russes.

Alors que des techniques de forage horizontal sont à présent disponibles, l’impact de l’extraction sur le terrain peut également être limité, rendant possible la localisation de puits de forage plus près des zones densément peuplées.

« Techniquement, les puits de forage horizontal pourraient avoir une portée de 12 km, bien que cette solution soit encore très couteuse. Même avec des puits d’un rayon de seulement 3 km, la production de gaz non conventionnel vaudrait la peine dans des régions densément peuplées. Il s’agit là d’un aspect clé de la réduction des conséquences de l’extraction du gaz de schiste en Europe », conclut l’étude.

Cette réduction de la surface de terrain nécessaire au forage limite également le problème de la récupération du sol une fois l’extraction finie, et donc le risque financier de telles entreprises, note l’EASAC.

Transparence et communication

Toute opération de forage à grande échelle requerra par ailleurs la confiance du public, font remarquer les auteurs de l’étude. L’engagement des entreprises auprès des communautés et leur ouverture et transparence sont donc des éléments cruciaux du bon déroulement des opérations, tout particulièrement en ce qui concerne la surveillance d’effets indésirables potentiels.

Il faudra faire preuve de transparence quant aux additifs utilisés lors de la fracturation et quant aux « résultats des analyses menées pour détecter toute contamination de l’eau ou fuite de gaz avant, pendant et après l’extraction » et fournir toutes les informations disponibles à l’exécutif et aux communautés concernées, insiste l’EASAC.

Source : Euractiv

Ocean Spiral, la ville du futur bâtie sous la mer

5000 résidents. 4000m de profondeur. 20 milliards d’euros.

Des chiffres fous pour un projet tout aussi fou d’une  ville construite sous l’eau. A l’origine de cette idée, la société Shimizu assume sa proposition, même si toutes les technologies nécessaires ne sont pas encore au point. Ce spécialiste japonais de la construction estime qu’elles le seront dans une quinzaine d’années, et que sa ville sous-marine sera alors susceptible d’être construite  en moins de 5 ans.

Ingénieurs, architectes, océanographes, spécialiste des énergies alternatives, tous ont contribué à l’élaboration d’Ocean Spiral. L’aboutissement de leurs réflexions est une structure constituée de 3 parties. Au sommet, la zone d’habitations est hébergée dans une sphère flottante de 500m de diamètre appelée Blue Garden. Le quartier résidentiel est donc émergé, des hôtels, commerces et bureaux étant eux-aussi à l’intérieur du Blue garden.

La bulle sera fabriquée à partir de résine et l’ensemble de la partie émergée pourra coulisser le long de l’axe central sous le niveau de la mer si besoin, pour se protéger de tempêtes par exemple.

Sous cette bulle, une longue spirale de 15 km de long descend jusqu’au fond de la mer. C’est là que se tiendra la source d’énergie qui permettra d’alimenter toute la ville. Il s’agit d’une usine dédiée à la production de méthane à partir des micro-organismes méthanogènes,  capables de convertir le CO2 en méthane. Mais cela ne sera pas la seule source d’énergie. Des centrales électriques sont positionnées le long de l’hélice reliant la surface au fond. Ces dernières produiront du courant grâce à l’énergie thermique des mers, c’est-à-dire en exploitant les différences de températures entre les eaux proches de la surface et les eaux profondes.

Shimizu, en partenariat notamment avec l’Université de Tokyo et l’Agence japonaise pour les Sciences et Technologies maritimes a travaillé 2 ans à définir l’Ocean Spiral. Un projet qui reste pour l’instant du domaine de l’imaginaire, mais qui sait, peut-être qu’un jour l’homme vivra vraiment sous l’eau.

Par Audrey Loubens

La première cafetière spatiale est à bord de l’ISS

Un comble ! La première femme italienne s’envole vers la Station spatiale internationale mais la seule chose que l’on retient c’est ce qu’elle apporte avec elle : une cafetière capable de faire un expresso italien dans l’espace. Qu’est-ce-que cette machine a donc de si spécial ? Elle va permettre aux astronautes de profiter d’un vrai café, à la saveur italienne. Si se faire un bon café est anodin à la surface de la Terre, il en est autrement dans un environnement sans gravité.

La célèbre marque de café Lavazza s’est associé à une autre société italienne, Argotec, société d’ingénierie spatiale experte dans la préparation d’aliments consommables dans l’espace pour réussir à fabriquer une cafetière utilisable dans les stations spatiales. En partenariat avec l’agence spatiale italienne, ils ont réussit à concevoir une machine à expresso capable de fonctionner dans l’ISS. 

Le fruit de leurs travaux se présente sous la forme d’une machine carré blanche d’une vingtaine de kilos, fonctionnant avec des capsules. Le tube par lequel transite l’eau est fait d’acier et peut supporter jusqu’à une pression de 400bars. L’ISSpresso fonctionne très simplement. L’astronaute insère la capsule sur le dessus de la cafetière, de l’eau est aspirée et mise sous pression jusqu’à atteindre la bonne température.

L’eau chaude est acheminée jusqu’à la capsule via le tube en acier. Le café n’a plus qu’à s’écouler. Seule différence, le café ne pouvant être bu dans une tasse, il est accumulé dans une poche souple pour être consommé à la paille. Voilà donc le cadeau apporté par Samantha qui aura tout de même le privilège de savourer le premier expresso de l’histoire de la conquête spatiale.

L’arrivée de ce vol Soyouz a dû être particulièrement attendu par les résidents de l’ISS car en plus de la 1ère femme italienne et de la 1ère cafetière à expresso, les soutes contenaient… du caviar ! 

Découvrez les images de la cafetière spatiale ISSpresso :

Par Audrey Loubens

Et les leaders de l’innovation sont…

Ces résultats mis en évidence par l’étude du cabinet international de conseil en stratégie Boston Consulting Group (BCG) n’éclairent pas vraiment d’un regard neuf la situation de l’innovation dans le monde. Ils confirment plutôt la tendance qui se dégage depuis maintenant quelques années : la domination de l’high tech dans ce domaine. Les entreprises classées juste derrière Apple s’appellent Google, Samsung, Microsoft et IBM. Et elles ne sont pas prêtes d’être détrônées.

Si l’on parcourt ce classement paru en fin d’octobre dernier et réalisé grâce à la participation de 1 500 cadres dirigeants, on constate deux trois choses. La première, c’est que le trio de tête ne bouge pas, bien que Google vienne ravir cette année la deuxième place à Samsung. Pour Apple, l’indéboulonnable, la situation est tranquille puisqu’elle arrive en tête depuis neuf ans. En tout, douze entreprises sur vingt se rattachent au secteur de l’high tech.

L’édition 2014 du BCG permet également d’observer un léger déclin du secteur automobile dans la perception que se font les entreprises sur l’innovation. Les chiffres sont parlants : on recense uniquement 4 entreprises dans le top 20 contre 9 en 2013 et 9 dans le top 50 contre 14 l’année précédente. Seul le constructeur automobile de voitures électriques Tesla motors tire son épingle du jeu et fait un net bond en avant, passant de la 34e place à la 7e. En créant la rupture dans son domaine, Tesla a clairement donné un coup de vieux à ses concurrents et changé la perception de ce que doit être l’innovation dans l’automobile.

Il en ressort aussi que les pays émergents talonnent de plus en plus près les pays déjà bien installés. Ils ne sont certes présents qu’à hauteur de 10 % dans ce classement mais ils progressent. En 2013, ils n’occupaient que 4 % du tableau. La raison tient au fait qu’ils investissent en grande pompe dans l’innovation et n’ont que peu de barrières légales comme c’est le cas aux États-Unis par exemple où les lois sont déjà bien établies.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Quels infrastructures et modes de vie en 2030 et 2050 ?

Avec ses scénarios énergétiques et climatiques aux horizons 2030 et 2050 et l’évaluation macro-économique de ces scénarios, l’ADEME se veut optimiste en proposant la vision d’une France où l’économie verte est source de croissance et d’emplois. En 2030, environ 330 000 emplois supplémentaires pourraient être créés ; et entre 690 000 et 875 000 en 2050. Si quelques emplois seront supprimés dans les centrales thermiques, les centrales nucléaires et le secteur automobile, beaucoup d’autres seront créés dans les énergies renouvelables, le tertiaire, les transports collectifs, les biocarburants, et le BTP.

Concrètement, les visions énergétiques pour 2030 et 2050 répondent aux objectifs de diminution par deux de la consommation énergétique à l’horizon 2050 et la division par quatre des émissions de gaz à effet de serre par rapport à 1990. Ainsi, l’ADEME prévoit de passer d’une consommation énergétique française totale de 151 millions de tonnes équivalent pétrole (Mtep) en 2010 à 123 Mtep en 2030 et 82 Mtep en 2050. Pour atteindre le facteur 4, elle prévoit que les émissions passeront de 525 millions de tonnes équivalent CO2 (Mt CO2 eq) en 1990, à 313 Mt CO2 eq en 2030 (-40%) et 131 Mt CO2 eq en 2050 (-75%).

L’ADEME n’a pas fait d’hypothèses concernant des ruptures technologiques fortes afin de montrer que les objectifs pour 2050 sont atteignables en développant les technologies actuelles. Les experts ne parient donc pas sur le stockage du CO2 en sous-sol ou sur l’émergence de biokérosène pour l’aviation, mais plutôt sur le développement des énergies renouvelables matures et le développement des transports alternatifs.

Quels changements dans les infrastructures du quotidien ?

Pour atteindre les objectifs, l’ADEME mise sur les bâtiments à énergie positive ou basse consommation, en neuf comme en rénové. Dès 2020, tous les bâtiments neufs seront en effet à énergie positive. Mais, c’est surtout en parvenant à rénover 500 000 logements par an d’ici 2030, puis en accélérant la dynamique, que l’on parviendra à avoir rénové l’ensemble du parc français, soit les 27 millions de logements, en 2050. Vers 2030, l’agence suppose aussi que les habitants se tourneront davantage vers le petit collectif,en appartement ou dans des maisons partagées, plutôt que vers des logements individuels.

En parallèle, la consommation des ménages diminuera grâce à des appareils toujours plus efficaces en énergie, des équipements de chauffage plus performants (généralisation des pompes à chaleur) et une meilleure efficacité énergétique active par pilotage des équipements. L’agence a estimé qu’en 2030, tous les foyers français auraient les meilleurs équipements mis sur le marché actuellement.

Aujourd’hui, le covoiturage et l’autopartage ne sont plus des signaux faibles. « On a supposé que cela peut prendre une part croissante », indique François Moisan, directeur scientifique à l’ADEME. Les voitures particulières seront donc en partie remplacées par des voitures électriques ou roulant au biométhane. Si le secteur des transports représentait 44 Mtep en 2010, l’ADEME mise sur un secteur ne représentant plus que 35,8 Mtep en 2030 et 15 Mtep en 2050. Pour atteindre cette baisse, elle imagine un parc constitué à 4 % de véhicules électriques ou roulant au biométhane en 2030 et 28 % en 2050. C’est surtout à partir de 2030 que l’autopartage et les véhicules à propulsions alternatives devraient s’imposer.

Au milieu du siècle, les comportements auront bien changé : en ville, 30 % des déplacements se feraient en véhicules partagés, 20 % en véhicules individuels, 25 % en transports collectifs, 15 % en vélo et 10 % en deux roues motorisés. Pour limiter la baisse des émissions de gaz à effet de serre, l’agence estime que les véhicules neufs n’émettront plus que 49 gCO2/km en 2030 et autour de 25 gCO2/km en 2050, contre 130 gCO2/km en 2010. La part des énergies renouvelables dans la consommation énergétique totale (électricité, chauffage et carburant) pourrait quant à elle passer de 12 % en 2010 à 35 % en 2030 et plus de 55 % en 2050.

Comment cela se traduit-il dans nos modes de vie ?

L’ADEME insiste sur le fait que la trajectoire imaginée est compatible avec le confort et le bien-être des citoyens. La sobriété, ce n’est pas un changement radical de nos modes de vie, mais plutôt une évolution vers plus de partage et d’efficacité. En 2030 et 2050, il n’y aura pas un mode de vie généralisé ou imposé, mais une diversité de ces modes en fonction de la localisation de son logement, de ses revenus, de la typologie de son foyer ou encore de son âge. « On a identifié 8 familles type en 2030 et 8 familles en 2050 pour montrer quels seraient leur mode de vie », précise François Moisan. Les experts ont ensuite traduit ces modes de vie en consommations d’énergie annuelles et en émissions de gaz à effet de serre.

En matière de transports, les ménages en zone rurale ou en banlieue isolée dépendront encore de leur voiture personnelle pour leurs déplacements, bien qu’ils favorisent le covoiturage au quotidien et le vélo pour leurs trajets courts, à l’instar de Lucile et Mathias en 2030. L’avion ne disparaitra pas et les citoyens seront évidemment encore libres de voyager. Mais en l’absence de rupture technologique imaginée dans ce scénario, un seul voyage de longue durée, comme celui de Philippine et Abel prévu en 2050, suffira à faire exploser les émissions du couple pour l’année…

L’agence se veut toutefois optimiste. « Aucun de ces ménages n’est « parfait », « exemplaire » sur tous les plans, mais si l’on fait la moyenne de l’ensemble des familles, cette moyenne globale est proche de l’objectif collectif fixé en termes de consommation d’énergie et de bilan d’émissions de gaz à effet de serre », prévoit l’ADEME.

Aller plus loin :

Pour découvrir l’ensemble des 8 familles, voir le rapport Visions énergie climat & Modes de vie (PDF – 5,3 Mo)

Pour en avoir un aperçu, lire la synthèse du rapport (PDF – 2,4 Mo)

Quelques chiffres clés (PDF – 1,3 Mo)

Par Matthieu Combe, journaliste scientifique

La batterie du futur, plus performante et plus sûre, en construction

Le stockage énergétique dans une batterie lithium-ion classique est limité par plusieurs facteurs. Le point faible des batteries lithium-ion réside dans notamment dans l’utilisation d’électrolyte liquide hautement réactifs et potentiellement dangereux, particulièrementt dans le cadre de grandes batteries destinées, par exemple, au stockage de l’électricité issue des énergies renouvelables ou pour les véhicules électriques.

Le projet SIEL (Single-Ion Electrolyte), porté par Renaud Bouchet, Professeur des Universités à l’Institut National Polytechnique de Grenoble (INPG) et son équipe de recherche  vise à développer une batterie moins chère, plus sûre, disposant d’une meilleure durée de vie et d’une meilleure densité énergétique, et avec un moindre impact environnemental. « Notre approche est de proposer un électrolyte polymère solide qui permet de remplacer les électrolytes liquides classiques et permettant ainsi d’améliorer la sécurité. De plus, nous visons une amélioration de la densité d’énergie et une baisse des coûts », explique Renaud Bouchet.

Pour rendre son électrolyte solide, l’équipe grenobloise a notamment développé une nouvelle famille de copolymères à blocs, c’est-à-dire comprenant deux types de polymères réunis dans la même macromolécule par une liaison covalente. « L’idée a donc été de réaliser le design d’un copolymère à blocs multi-fonctionnel grâce à sa structure moléculaire particulière : de façon simplifiée, un bloc ou polymère apporte la conductivité ionique tandis qu’un autre bloc apporte la tenue mécanique. Ces deux polymères ou blocs sont reliés entre eux par une liaison covalente, ce qui évite une macro-séparation de phase (type eau/huile) mais impose une nano-séparation de phase, donnant un matériau dont les propriétés sont une synergie des caractéristiques de chacun des blocs », résume Renaud Bouchet.

Une batterie plus efficace et moins chère

« L’amélioration de la densité énergétique vient à la fois des matériaux d’électrode – tension et quantité de charge que l’on peut stocker par gramme de matériaux – et des gain de masse que l’on peut faire sur l’ensemble des élément de la batterie : électrolyte, emballage, système de sécurité », explique Renaud Bouchet. En utilisant une électrode négative en lithium métallique plutôt qu’en graphite, un électrolyte polymère en couche mince (20-30 micron contre 100micron pour du Li-ion) et aussi grâce à un emballage allégé (technologie « tout solide » donc qui ne nécessite pas de mise en pression et d’emballage), « on peut espérer un gain de 20 à 50% d’énergie », prévoit l’expert. ‘Cependant, aujourd’hui la technologie ne fonctionne qu’au delà de 60°C ce qui consomme un partie de l’énergie de la batterie pour la maintenir en température », prévient-il.

Les coûts seront moindres grâce aux gains dans les matériaux, notamment pour l’électrolyte et l’emballage. « On en utilise moins donc c’est moins cher », résume le chercheur. Les procédés de fabrication sont aussi moins chers, car ils ne nécessitent pas la manipulation d’électrolytes liquides toxiques, volatiles et inflammables, et donc délicats à manipuler. Ces copolymères présentent l’immense avantage de pouvoir être produits selon des procédés de synthèse en phase aqueuse, sans solvants organiques, et conservés à l’air libre. Ils sont mis en forme selon les procédés classiques de plasturgie : extrusion, lamination… Résultat : les systèmes de sécurité sont plus simples, ce qui diminue encore les coûts. Comme il s’agit de polymères, il est possible de leur faire prendre la forme de feuilles souples, très fines, faciles à intégrer à une batterie.

Quels sont les prototypes existant?

Il reste encore des verrous scientifiques et technologiques, mais ce sont des défis que le projet SIEL compte bien relever en réalisant des prototypes industriels. »Nous avons réalisé des prototypes de batterie à l’échelle laboratoire pour montrer la faisabilité et l’intérêt de nos matériaux », commente Renaud Bouchet. « Des petits prototypes industriels de l’ordre de 1Ah [batterie de portable] sont prévus et devront être réalisés d’ici le deuxième semestre 2015 », prévient-il. Les tests de ces prototypes dureront au minimum un an, jusqu’au deuxième semestre 2016.

Pour assurer un développement industriel, plusieurs aspects vont être évalués courant 2015. « Le premier obstacle est le scale-up industriel de la fabrication des polymères (du kg à la tonne). Il faut  trouver un procédé qui soit compatible avec une production de polymère à l’échelle industrielle. Ensuite il y a l’étude des coûts pour définir le prix du matériaux. Le deuxième obstacle est la mise en forme des polymères pour réaliser les composants de la batterie, compatible avec les procédés industriels », conclut Renaud Bouchet.

Par Matthieu Combe, journaliste scientifique

 

Transports connectés : les applis innovantes

L’utilisation de données massives (Big Data) permet de faire des miracles, et de se déplacer sans cartes, sans se soucier de rien, ou presque – grâce aux applications mobiles, bien sûr.

Devenez chauffeur de taxi (privé)

Prenez Uber. Cette application (pour Android et iOS), qui repose sur le collaboratif, la géolocalisation et sur des algorithmes, vous permet, soit de devenir chauffeur de taxi privé, soit de localiser, via votre smartphone, les voitures privées avec chauffeur (VTC) les plus proches, et de les réserver. Vous pourrez avoir une estimation du prix, avant même de commander, puis suivre l’approche de la voiture.

Aidez vous les uns les autres dans les transports

Le collaboratif et le crowdsourcing sont aussi à l’origine de Moovit, qui utilise les données des utilisateurs, afin de les informer en temps réel sur le trafic du métro et des bus. Cette application (toujours pour iOS et Android) combine les données des usagers (en temps réel) à des données provenant des opérateurs de transports, ce qui permet de savoir si un bus est en retard, ou si un métro est bloqué. 

Moovit est utilisé par 350 000 français, à Paris, Bordeaux, Strasbourg et Toulouse. Grâce aux infos partagées par la communauté, Moovit est une application très fiable, qui permet en outre aux usagers de laisser des commentaires sur leur trajet, notamment en ce qui concerne la présence du Wi-Fi dans une station, ou de places pour handicapés à bord. En bref, il s’agit d’une véritable application d’entraide.

Dans la même veine, l’application ZenBus, utilisable actuellement à Issy-les-Moulineaux et à Nantes, permet de visualiser en temps réel où se trouve son bus depuis son smartphone. Pour cela, les conducteurs ont géolocalisé leurs autocars, et partagent les infos avec les utilisateurs.

Prédisez où vous pourrez vous asseoir 

Mais les données permettent d’aller plus loin, en permettant de prédire des choses. Ainsi, la startup française SNIPS, spécialisée dans le Big Data, a créé l’application Tranquilien. Cet outil qui fonctionne sur iOS et Android (encore), permet de localiser le prochain train dans lequel il vous sera possible de vous asseoir. SNIPS utilise des modèles prédictifs, les données de la SNCF (densité de population, heures de pointes, météo) et celles fournies par les utilisateurs, pour connaître le remplissage des trains du réseau Transilien. Les prédictions de l’application sont mises à jour, en temps réel. 

Bien sûr, cette appli n’est pas infaillible, mais elle s’avère relativement efficace dans les lieux où elle fonctionne. Bientôt, SNIPS espère étendre son utilisation aux autres réseaux de la SNCF, et, un jour, quand la 3G et la 4G y seront effectives, aux RER et au métro de la RATP. A terme, l’application devrait même permettre à l’utilisateur de pouvoir prédire quel wagon dispose de places libres, mais il faudra encore patienter un peu (quelques années), le temps que la base de données soit assez conséquente.

L’assistant personnel de vos déplacements

Il existe enfin des applications qui se veulent de vrais “assistants personnels”. Ainsi, Citymapper, utilisée à Londres, à New-York et à Paris, permet de comparer des itinéraires, à travers 5 modes de transports différents. Citymapper va plus loin que Vianavigo, qui ne concerne que les réseaux ferrés et le bus : l’appli intègre à sa base de données (qui comprend déjà le métro, le bus, le tramway et les RER), les trajets à vélo et à pied. Elle localise les arrêts de bus et les stations Vélib, calcule les trajets et les durées de chaque mode de transport, indique quels itinéraires permettent d’éviter la pluie (grâce aux données météo), ainsi que la disponibilité des stations Vélib. Bien sûr (et hélas), cette appli ne concerne que les smartphones Android et iOS…

Mais ce genre d’outil ne concerne pas que Paris. Par exemple, à Strasbourg, il existe l’application StrasMap. Créée par la Ville et la Communauté Urbaine (CUS), elle recoupe des informations concernant tous les modes de déplacement possible (bus, tramways, itinéraires à vélo, à pied, en voiture). Fonctionnant avec iOS et Android (oui, oui, encore), StrasMap permet à l’utilisateur de calculer plusieurs itinéraires (multimodaux), de connaitre les conditions de circulation en temps réel sur les routes, de localiser les arrêts de bus ou de tram, les stations de vélos libre service, mais aussi de connaître la qualité de l’air, les embouteillages ou les accidents éventuels… et même d’être informé, l’hiver, du possible salage des rues.

Bien sûr, ces applications sont très utiles, mais ont aussi une limite : l’accès au réseau mobile, notamment dans le métro. Il faudra donc attendre, en théorie, 2016, pour pouvoir les utiliser pleinement dans le métro parisien… Pour les autres villes de France, il faudra probablement attendre davantage.

Par Fabien Soyez

Internet disponible partout, tout le temps : c’est pour quand ?

A Paris, les couvertures 3G ou 4G des opérateurs demeurent bien inégales, selon que l’on se trouve dans un train express régional, dans un bus, dans un TGV ou dans le métro. Ainsi, si vous habitez dans la banlieue parisienne et que vous vous rendez dans la capitale, votre smartphone passera successivement de la 3G à la 4G, puis de l’inévitable 2G+ (Edge) à l’obsolète 2G (GSM).

Pourtant, la RATP (Régie des transports parisiens) promet que, d’ici fin 2015, l’ensemble du réseau métro et RER de Paris sera couvert – grâce à une infrastructure mutualisée, qui regroupera les réseaux d’opérateurs tels que SFR, Orange, Bouygues Telecom et (peut être) Free.

Une couverture 3G / 4G qui traine des pieds

La ligne 1 du métro et la ligne A du RER figurent parmi les premières à avoir été équipées. En effet, dans les stations concernées, la couverture s’avère plutôt bonne… dans les rames un peu moins, puisque “Edge” continue à s’afficher la moitié du temps, quand la connexion n’est pas coupée purement et simplement. Selon la RATP, dans un an, 170 des 300 stations du réseau, ainsi que 65 gares de RER, devraient accueillir les fréquences 2G, 3G et 4G des principaux opérateurs français.

Reste que surfer sur son smartphone dans le métro lui-même (et non dans les stations) ne semble pas être pour tout de suite, car le déploiement de tels réseaux nécessite de lourds aménagements techniques : ainsi, la RATP le précise elle-même, “les espaces, qui n’ont pas été prévus à cette fin, sont extrêmement contraints. Il n’y a pas de locaux techniques, ni davantage de systèmes de climatisation dédiés pour les équipements radio”. La RATP doit ainsi remettre à niveau un parc de 2500 antennes, réparties sur 321 sites. Cela n’empêche pas la régie, qui reconnait que “les délais sont très ambitieux”, de promettre une couverture du réseau entier (14 lignes, 213 kilomètres de rails) d’ici fin 2016 – quand, à Montréal, nos cousins québecois semblent plus réalistes, et tablent sur 2020 pour installer un réseau mobile identique.

“Nous serons le seul réseau au monde à offrir l’accès à la 4G à bord des trains partout : dans les métros, sur les RER A et B. Par rapport au Wi-Fi, c’est une solution beaucoup plus économe en ondes”, indique encore Pierre Mongin, président de la régie des transports, au Parisien.

Un supermétro bien équipé

Le futur réseau de métro parisien, le “Grand Paris Express”, porté par la Société du Grand Paris (SGP), a la même ambition : permettre aux usagers de surfer non stop dans le métro. Mais contrairement au métro actuel, où le déploiement de la 3G, de la 4G et du Wi-Fi traine des pieds, ces futures lignes automatiques, prévues pour 2020, devraient reposer sur un réseau 4G / Wi-Fi préalablement mis en place.

La SGP prévoit ainsi de créer, en amont, une infrastructure mutualisée couvrant 72 gares et 200 kilomètres de tunnels, mais aussi de pré-installer des fibres optiques et des locaux techniques opérateurs le long des tracés.

Reste un problème, celui de la saturation des réseaux – comme le constate Francetv Info : “le réseau internet mobile fonctionne comme celui des transports : plus il y a d’utilisateurs, plus il est saturé. La RATP transportant chaque année près de 1,4 milliard de voyageurs, le réseau parisien a toutes les chances d’être de plus en plus encombré.”

Bien sûr, surfer dans les transports en commun ne concerne pas que Paris. Ailleurs en France, des réseaux de transport misent sur le Wi-Fi et la 4G, comme Lyon, qui promet de les installer dans les stations… et non dans les rames.

Wi-Fi gratuit dans les bus

Qu’en est-il des autre moyens de transport ? Demain, le Wi-Fi pourrait peut être se généraliser dans les bus. Cela semble en tout cas être le pari de la RATP, qui teste actuellement un système de Wi-Fi gratuit, dans les autocars assurant la liaison entre Paris et l’aéroport de Roissy.

Concernant le TGV, où l’utilisation de la 3G comme de la 4G est impossible (à cause de la structure métallique du train, qui fait office de cage de faraday), le déploiement du Wi-Fi semble plus compliqué. Ainsi, si proposer un accès Wi-Fi dans les gares ne pose pas de problème, en proposer à l’intérieur des trains représenterait un coût bien trop conséquent pour la SNCF (350 000 euros par rame, alors que le parc TGV en compte 450).

Dans l’attente d’une “solution technique” salvatrice, vous ne pourrez hélas utiliser le Wi-Fi que dans les TGV de la LGV Est européenne (qui relie Paris à Strasbourg), où une expérimentation est en cours.

 

Par Fabien Soyez

Un tramway qui chevauche les routes et les embouteillages

Pour les voitures qui passent en dessous, il apparaît comme un tunnel éclairé. Mais pas question pour les poids lourds ou les véhicules de plus de 2 mètres de haut de s’y aventurer : ils devront le contourner ou attendre qu’il change de direction.

Ce tramway futuriste permettrait ainsi d’exploiter les derniers espaces vides de Pékin, situés au-dessus des routes. L’accès des passagers se ferait via le haut du bus lorsqu’il est à l’arrêt dans des stations surplombant la route.Ses dimensions importantes (4,6 mètres de hauteur sur plus de 7 mètres de large) lui permettrait d’accueillir entre 1200 et 1400 passagers. Silencieux, il fonctionnerait à l’électricité, alimentée par des panneaux solaires. Il pourrait rouler jusqu’à 60 km/h en vitesse de pointe, et 40 km/h de moyenne en ville.

Son coût était initialement estimé à 56 millions d’euros, pour 40 km de rails.  Mais l’optimisme du début a laissé place au sceptisisme. Pour l’instant, ce projet ne s’est pas concrétisé et son avenir demeure un mystère. Les autorités du district attendraient un prototype réussi, l’infrastructure serait trop compliquée, la sécurité insuffisante… Voici quelques hypothèses avancées par les observateurs pour expliquer ces retards. Mais compte tenu des niveaux de pollution et des problèmes de circulations de la ville de Pékin, on peut supposer que ce projet est toujours sur les rails ! La dernière information publique remonte à 2012, lorsque l’entreprise de transports China TBS limited a diffusé une nouvelle vidéo présentant certains aspects techniques du projet.

Par Matthieu Combe

Le skyTran : se déplacer en ville à 100 km/h ?

En pratique, ce sont des cabines pouvant accueillir entre 2 et 4 personnes suspendues à un rail au niveau de leur toit. ll s’agit donc plus d’un moyen de transport individuel, que d’un tramway volant. Il se déplacera  très rapidement, jusqu’à 100 km/h.

Un avantage capital est à noter par rapport aux transports en commun habituels : les utilisateurs peuvent réserver à l’avance un véhicule qui les attendra dans la station de leur choix. Il n’auront alors plus qu’à indiquer la destination désirée et le voyage commencera, sans arrêt, jusqu’à leur destination.

L’expérimentation de skyTran sur le campus de Tel-Aviv a été actée en juin 2014 en collaboration avec l’organisme spatial israélien (IAI). Il pourrait ainsi être mis en service fin 2016. Les coût estimés sont faibles par rapport à d’autres moyens classiques : 15 millions de dollars par kilomètre, soit 10 fois moins qu’une ligne de tramway classique. Le coût de construction total à Tel-Aviv est estimé à 58 millions d’ euros. Les billets individuels seront vendus à environ 5 dollars.

D’autres voies skyTran pourraient voir le jour à Toulouse, entre les aéroports parisiens et le centre de la ville, à Kerala (Inde) et dans la région de la baie de San Francisco.

Rappelons qu’en 2014 seules trois lignes fonctionnent par lévitation magnétique dans le monde : le Transrapid de Shanghaï (30 km), le Linimo à Aichi au Japon (9 km) et  le parc des expositions de Daejeon, en Corée du Sud (1 km). Si skyTran venait à se développer, cela serait donc une bonne nouvelle pour les acteurs de cette technologie.

Par Matthieu Combe

Shweeb : des vélos volant à 50 km/h ?

Au niveau d’une station de Shweeb, un départ de capsules toutes les 3 secondes est envisagé, permettant un trafic de près de 1 200 personnes par heure. Ce mode de transport pourrait être utilisé en milieu urbain pour des trajets courts ou moyens. Ces vélos suspendus auraient leur place le long des rues, à l’intérieur de campus, ou pour traverser des obstacles. Il s’agirait d’un bon moyen pour lutter contre l’obésité et serait un moyen de transport très économe en énergie.

Pour les montées, un système d’entraînement avec une chaîne externe à griffes peut être prévu en remplacement de la propulsion humaine. Un tel système pourrait aussi être envisagé pour les arrivées sur des stations installées en hauteur par rapport à la voie. La position d’une station en hauteur permettrait à une nacelle de se mettre en vitesse rapidement en descendant la branche de connexion afin de s’intégrer aisément dans le flux de la circulation.

Un démonstrateur a été réalisé en Nouvelle-Zélande, dans le parc d’attraction Agroventures. Sur un circuit de 200 m, les visiteurs font la course : les vitesses atteignent couramment 50 km/h. En 2010, Google a investi 1 million de dollars pour tester et étendre ce projet de déplacement urbain. Mais pour le moment, aucun déploiement ne s’est encore fait en ville. Ne semble-t-il pas assez futuriste et technologique pour convaincre les élus?

Par Matthieu Combe

Quels matériaux pour les routes du futur ?

Les innovations sont importantes. Demain, la route sera sûrement composée de matériaux innovants lui permettant de s’auto-réparer et d’être autonome en énergie. La chaussée sera chauffante ou refroidissante en fonction des conditions météorologiques. Elle fera également la part belle aux matériaux bio-sourcés pour remplacer les matériaux d’origine pétrolière.

Vers une route de l’auto-diagnotic

Bientôt, la route pourra auto-diagnostiquer une déformation de la chaussée ou envoyer des informations sur le trafic. Pour ce faire, elle renfermera des capteurs de déformation interconnectés, des fibres optiques ou des nanomatériaux.

Incorporée  au niveau de la bande de roulement, la fibre optique peut mesurer les déformations. Les changements de fréquence de la lumière à l’intérieur de la fibre témoignent en effet de déformations précoces et permettent d’agir pour éviter des dégradations plus importantes. L’auto-diagnostic pourrait aussi se faire grâce à des nanocomposites présentant des propriétés piézoélectriques. L’idée est alors de déposer une couche d’un nanocomposite à base d’argile, de graphite et de nanotubes de carbone dans la couche de roulement. Ainsi,  dès qu’une pression s’excerce sur la chaussée, le nanocomposite génère un courant électrique entre deux électrodes en aluminium. Une fois les signaux traités, cela permet d’avoir une image de l’état de la route ou du trafic.

La route sera-t-elle solaire ?

Demain, les routes seront peut-être transparentes ou semi-transparentes, enfermant des capteurs photovoltaïques sous la surface de chaussée. Le projet Solar roadways aux Etats-Unis et Solar road aux Pays-Bas sont les plus avancés. Les Pays-Bas viennent d’ailleurs d’inaugurer une piste cyclable solaire renfermant des panneaux photovoltaïques et une surface de chaussée en verre.

L’Iffstar travaille également sur ce sujet depuis 2012. « On travaille sur des revêtements en verre pilé qui ressemblent à du béton bitumineux classique, avec un aspect semi-transparent. Le liant entre le verre pilé est soit végétal soit une résine classique », confie Nicolas Hautière, Directeur de projet R5G à l’Ifsttar. L’électricité produite pourra être injectée dans le réseau électrique public, alimenter les éclairages de la route ou recharger les batteries des véhicules électriques en roulant.

La chaussée chauffante ou refroidissante

Pour refroidir une route en été ou la dégivrer en hiver, l’Iffstar envisage de faire circuler sous la chaussée un fluide caloporteur. « On vient transformer la route en pompe à chaleur », présente Nicolas Hautière. « On vient faire un échangeur de chaleur entre la couche de chaussée et le sous-sol : en été, le fluide chauffe au contact du soleil et transporte la chaleur au sous-sol. L’hiver, c’est l’inverse, on fait monter la chaleur pour réchauffer la chaussée », résume Nicolas Hautière.L’Ifsttar mène actuellement un test sur ce procédé à Aigleton, sur le site de l’Ecole d’Application aux métiers des Travaux Publics (EATP).

Pour une meilleure adaptation au changement climatique, les chercheurs revisitent également le concept de « chaussée-réservoir » ou « chaussée-poreuse », technologie datant des années 1980. Ces chaussées permettent de stocker les eaux pluviales dans le corps de chaussée. Cela permet de réguler l’écoulement des eaux, afin de ne pas saturer le réseau d’eaux pluviales et éviter ainsi les risques d’inondations en cas de fortes pluies.

Des matériaux de plus en plus bio-sourcés

Rappelons-le, le béton est un mélange de granulés (gravillons, sables…) et d’un liant permettant de les agglomérer. Ce liant est souvent du bitume, un mélange très visqueux d’hydrocarbures.

Le matériau de la route du future se doit donc d’être plus écologique. L’Ifsttar travaille sur des matériaux comprenant des liants bio-sourcés, notamment à base de micro-algues, pour préparer l’ère post-pétrole. « Si la filière micro-algues se met en place pour produire des biocarburants, nous pourrons utiliser les déchets de production pour faire des liants pour les routes », assure Nicolas Hautière. « Cela permettra de remplacer les liants bitumineux issus du bas de la chaîne de raffinage du pétrole, par un liant naturel d’origine micro-algale », précise-t-il. Cet enjeu a été exploré dans le cadre du projet Algoroute.

C’est pour quand et à quel prix ?

« Les technologies vont se déployer petit à petit », prévoit Nicolas Hautière. La rapidité de diffusion des innovations dépendra des industriels, des financements, des politiques et de l’acceptabilité de la société. »Si l’on veut passer à grande échelle sur des démonstrateurs sur des routes circulées, l’obstacle n’est plus le financement, mais le politique », défend-il.

Ces démonstrateurs devront intégrer plusieurs sous-ensembles de ces innovations. Il faudra évaluer la synergie entre les solutions techniques, mais également identifier les éventuels problèmes de mises en œuvre simultanées. Les premiers transferts industriels à grande échelle sont prévus d’ici 2020.

Quels en seront les coûts et comment les travaux seront-ils financés? C’est la grande inconnue pour le moment. Malheureusement, la mise au ban de l’écotaxe n’est pas actuellement une bonne nouvelle pour le financement de ces infrastructures. Il faudra donc rapidement concevoir de nouveaux outils de politiques publiques pour financer le déploiement des différentes combinaisons innovantes de la R5G à l’ensemble du territoire. Une chose est néanmoins sûre : « Si l’on arrive à faire des choses plus intégrées, préfabriquées et diffusées à grandes échelles, cela coûtera moins cher que d’avoir des technologies indépendantes les unes des autres qui se développent une à une », affirme Nicolas Hautière.

Plusieurs autres questions demeurent : Quelle sera la durée de vie de ces technologies par rapport à l’infrastructure? Comment traiter les données (big data) lorsque ces routes seront généralisées ? Faut-il privilégier le réseau autoroutier, les routes nationales ou les routes urbaines ? Comment prioriser les zones à installer ? Tout autant de défis à relever. Alors, la route de demain comprendra-t-elle une chaussée transparente, sous laquelle se trouveront des panneaux solaires, un fluide caloporteur, des capteurs et des matériaux bio-sourcés? Réponse prochainement !

La route de 5e génération permettra aussi de mieux gérer le trafic en faisant communiquer les véhicules entre eux et avec les infrastructures. Mais ceci est un autre défi que nous vous avons déjà raconté.

Par Matthieu Combe

Accord Russie-Ukraine sur le gaz : une trêve temporaire ?

Plus fondamental, l’acceptation à contrecœur de cet accord n’a pas signé la fin imminente d’une dispute politique plus profonde sur l’est de l’Ukraine. Cette impasse a entraîné la Russie et l’Occident dans leur conflit le plus dangereux depuis la Guerre Froide et a engendré la violence la plus sanglante en Europe depuis les conflits balkaniques des années 1990.

L’accord a été conclu après que l’Europe a négocié le payement de plus de 3 milliards de dollars d’arriérés de factures à Gazprom, le géant de l’énergie contrôlé par le Kremlin – et après que les deux côtés se sont inclinés devant les réalités financières.

« Ce que j’entends, c’est : ‘OK, si c’est pour amener du gaz a Kiev, nous sommes prêts à certains arrangements temporaires’ et le mot-clef des deux côtés semble être ‘temporaire’ » a dit Thane Gustafson, professeur en Science politique à l’université de Georgetown, dans une interview recueillie le 31 octobre à l’université d’Ottawa où il était venu assister à une importante conférence académique sur l’Ukraine.

La Russie fait présentement face à quantité de problèmes économiques, provenant du double pétrin financier des prix abaissés du pétrole et des sanctions économiques de l’Ouest. L’Ukraine, en dépit d’efforts frénétiques, n’est pas parvenue à rassembler suffisamment d’approvisionnements alternatifs pour couvrir ses besoins en gaz pour l’hiver. 

Il semble en outre que chaque côté ait été poussé de force vers un accord temporaire par l’Union européenne, laquelle avait pris ses propres mesures de précaution au cas ou la dispute se serait aggravée et ou l’approvisionnement russe aurait été coupé. La Russie avait en effet fermé les vannes au cours de disputes précédentes en 2006 et 2009, laissant certains foyers d’Europe dans le froid et forçant le rationnement des entreprises.

Après que la Russie a coupé son approvisionnement vers l’Ukraine en juin et exigé un pré-payement pour toute livraison future, les dirigeants européens ont constitué des réserves de gaz.

La réaction à Kiev et Moscou a renforcé le sentiment que cet accord ne revient finalement qu’à un répit dans la guerre du gaz, laquelle ne s’achèvera pas tant que les deux pays ne trouveront pas un arrangement politique au sujet de l’Ukraine de l’est.

Dans une interview 26 octobre, avant la conclusion de l’accord, le premier ministre de l’Ukraine, Arseni P. Iatseniouk, loin d’être un ami du Kremlin, a déclaré qu’il s’attendait à ce que les Russes pour finir coupent ou réduisent leurs livraisons de gaz après avoir eu leur argent.

« Mon sentiment est que la Russie répétera encore le même scenario de toujours, pour obtenir du liquide de l’Ukraine, et ensuite dira ‘vous savez, quelque chose a changé, et nous ne sommes pas prêts à fournir du gaz’ », a dit Iatseniouk.

Dans une déclaration après l’accord du 23 octobre, il a accusé la Russie de tentative de chantage sur l’Europe pour la faire abandonner un plan prévoyant que le gaz russe pourrait être acheminé en sens inverse, de la Slovaquie vers l’Ukraine, en cas de coupure.

Soulignant l’acrimonie de la situation politique globale, des officiels russes ont déclaré que non seulement on ne pouvait pas faire confiance a l’Ukraine pour payer ses dettes, mais qu’en fait, on pouvait s’attendre à ce que l’Ukraine vole une partie de l’approvisionnement russe vers l’Europe.

« C’est une énorme concession et une intention, d’abord et avant tout, de parvenir à un accord avec l’Union européenne et en partie de ne pas la laisser geler complètement » a déclaré à l’agence de presse RIA Novosti, Ivan Grachyov, président du comité énergie de la chambre basse du parlement russe. « Je pense que la Russie et l’UE ont compris que l’Ukraine siphonnerait le gaz illégalement de toute façon. Quoi qu’ils en disent, quand l’hiver les mettra aux abois, ils démarreront le siphonage sans autorisation. Cela, bien sûr, soulève des problèmes entre la Russie et l’Europe. »

Alexeï Miller, le directeur général de Gazprom, a dit que l’arrivée de l’hiver avait apparemment forcé le côté ukrainien à conclure l’accord du 23 octobre. Dans des interviews à la télévision russe, il a également noté que Gazprom n’avait pas donné son accord pour octroyer des crédits supplémentaires ou pour prendre de nouveaux risques par rapport à la situation financière de l’Ukraine, qui va en se dégradant.

« Le fait que l’accord a été signé maintenant, à la fin du mois d’octobre, au début de la saison automnale et hivernale, n’est pas une coïncidence », a dit Miller.

« Évidemment, cela a été influencé par le fait qu’il fait froid en Ukraine, qu’on a besoin de chauffage dans les maisons, la consommation de gaz est croissante ». L’accord requiert que l’Ukraine procède au payement d’un montant total de 3,1 milliards de dollars d’arriérés de factures de gaz avant la fin de cette année, en utilisant pour cela l’argent qu’elle a emprunté au Fond monétaire international. Elle sera ensuite en mesure d’acheter pour 1,5 milliards de dollars de plus à des prix négociés pour le restant de l’hiver, usant aussi largement de crédits de l’Ouest.

Cet accord a mis l’Union européenne dans une position inhabituelle de soutien vis-à-vis des efforts ukrainiens pour payer des milliards de dollars de dettes à Gazprom, et ce a peine quelques semaines après avoir imposé des sanctions économiques afin de faire pression sur la Russie pour qu’elle amende sa politique en Ukraine, y compris concernant son annexion de la Crimée en mars dernier.

Traduction : Alexandra Béliaeff

Produisez de l’eau potable pendant que vous pédalez !

Fontus, du nom romain du dieu des sources et des courants, est un projet développé par un designer industriel autrichien visant à collecter l’eau contenue dans l’air.

Le système imaginé consiste en un étui dissimulant des mini panneaux électriques. L’air ambiant pénètre dans Fontus à l’intérieur duquel il est refroidi, ce qui permet ensuite d’en prélever les particules d’eau. Les gouttelettes s’écoulent alors jusqu’au goulot d’une bouteille fixée en amont. Accroché sur un vélo, le système permettrait de produire 0.5L d’eau en 1 heure, dans des conditions optimales d’utilisation. D’après son concepteur, le prototype peut stocker 1 goutte d’eau par minute pour un air ambiant avec un taux d’humidité de 50% et une température supérieure à 20°C. Un filtre à l’entrée du système bloque les impuretés et autres poussières. En revanche, pour l’instant rien ne vient filtrer les polluants atmosphériques.

Fontus est initialement prévu pour être utilisé sur un vélo, la captation de l’eau se faisant pendant que l’utilisateur pédale. Mais un tel système pourrait avoir d’autres débouchés, humanitaires notamment. Ce système de captation de l’eau coûte entre 20 et 30€ mais son inventeur travaille à le faire baisser.

Le système de récupération de l’eau contenue dans l’atmosphère est connu depuis longtemps. Toutefois, son faible rendement n’a pas permis à ce procédé de se développer. Cela n’empêche pas certains projets concrets d’émerger depuis quelques années. Récemment nous vous présentions la Namib Beetle Desert, cette bouteille capable elle aussi de capter l’eau de l’air avec une production allant de 0.5L à 3L par heure, mieux que le Fontus. Mais comme lui, la NBD Nano n’est pas commercialisé et reste à l’état de projet. Pourtant, l’essor de ces solutions pourrait aider à pallier le manque d’eau potable dont souffrent certaines populations.

Par Audrey Loubens

Best of des IG Nobels… de médecine

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de médecine !

  • 1992 : le prix vint récompenser les chercheurs japonais F. Kanda, E. Yagi, M. Fukuda, K. Nakajima, T. Ohta et O. Nakata pour leur étude absolument indispensable sur l’ « élucidation des composés chimiques responsables des pieds malodorants ». Les travaux auraient été très remarqués, notamment pour leur conclusion, limpide : « les personnes qui pensent sentir des pieds sentiraient effectivement des pieds, alors que celles qui pensent ne pas sentir des pieds ne sentiraient pas des pieds »…

 

  • 1993 : l’Ig Nobel de médecine a été décerné à James F. Nolan, Thomas J. Stillwell, et John P. Sands, Jr., tous trois médecins, pour leur mémoire de recherche intitulé « Gestion correcte d’un pénis coincé dans une fermeture Éclair ».

 

  • 1996 : la récompense de cette année est quelque peu particulière, puisqu’elle vient faire écho aux auditions très médiatiques de quelques cadors de l’industrie du tabac (James Johnston de RJ Reynolds Tobacco Company, Joseph Taddeo de US Tobacco, Andrew Tisch de Lorillard, William Campbell de Philipp Morris, Edward A. Horrigan de Liggett Group, Donald S. Johnston de American Tobacco Company et Thomas E. Sandefur, Jr., président de Brown et Williamson Tobacco Company) à Washington, en 1994. Le prix leur revient de plein droit pour avoir soutenu sans sourciller devant le Congrès des États-Unis que la nicotine ne crée pas de dépendance.

 

  • 1999 : l’Ig Nobel de l’hygiène a été remis aux Américains George et Charlotte Blonsky, de New York et San Jose, Californie, pour avoir conçu un étonnant système permettant selon eux d’assister les femmes dans l’accouchement. Le principe est simple : on ligote une femme enceinte sur une table circulaire, que l’on fait tourner à grande vitesse. Cet objet de torture a été breveté par ses inventeurs dans les années 1960, mais il reste peu probable qu’il ait pu être utilisé.

Images tirées du brevet, copyright George et Charlotte Blonsky

 

  • 2002 : c’est au tour du Britannique Chris McManus de recevoir l’Ig Nobel de médecine, pour son étude de « l’asymétrie du scrotum chez l’homme dans les statues anciennes ». En observant l’asymétrie scrotale sur pas moins de 107 statues antiques ou datant de la Renaissance, Chris McManus a pu établir que la tendance visant à placer le testicule droit plus haut que le gauche était correcte (comme l’attestait déjà le fondateur de l’histoire de l’art, Johann Joachim Winckelmann), mais que les artistes avaient tort de matérialiser un testicule gauche plus gros.

De son côté, l’Espagnol Eduardo Segura a reçu l’Ig Nobel de l’hygiène, cette même année, pour avoir inventé « Lavakan de Aste », une machine à laver destinée aux chiens et aux chats. Animaux extrêmement apeurés au rendez-vous.

 

  • 2004 : les Américains Steven Stack et James Gundlach ont reçu l’Ig Nobel pour avoir publier un rapport détaillé sur « L’effet de la musique country sur le suicide », établissant notamment un lien fort entre la musique country et le taux de suicides chez les hommes blancs vivant dans des métropoles.

 

  • 2005 : le prix parodique fur décerné à Gregg A. Miller, originaire d’Oak Grove, dans le Missouri, pour avoir conçu des prothèses de testicules pour nos pauvres animaux domestiques castrés. D’abord pensées pour les chiens, les « Neuticles » devraient pouvoir redonner un peu de fierté à n’importe quel animal blessé au plus profond de sa virilité. Ces substituts de puissance sont disponibles en trois tailles, avec également trois niveaux différents de fermeté – ce qui ne gâche rien.

Crédit Photo : Gregg A. Miller/Neuticles.com

 

  • 2006 : l’Ig Nobel de médecine vint récompenser Francis M. Fesmire, de l’université du Tennessee, pour son rapport d’étude clinique sur le soulagement du hoquet récalcitrant grâce à un délicat massage rectal digital. Également distingués par l’Ig Nobel, Majed Odeh, Harry Bassan et Arie Oliven, du centre médical Bnai Zion, à Haïfa, Israël, pour avoir traité exactement le même sujet… un an et demi plus tard.

 

  • 2008 : le prix fut décerné à Dan Ariely, chercheur à l’université Duke, à Rebecca Waber du MIT, à Baba Shiv de l’université Stanford, ainsi qu’à Ziv Carmon de l’INSEAD de Singapour, pour avoir démontré l’incidence du prix d’un placebo sur son efficacité. Selon les résultats de leurs travaux, plus un placebo est cher, plus il serait efficace.

 

  • 2011 : Mirjam Tuk, Debra Trampe et Luk Warlop, ainsi que Matthew Lewis, Peter Snyder, Robert Feldman, Robert Pietrzak, David Darby et Paul Maruff remportent le prix en 2011 pour avoir réussi à démontrer que l’on peut prendre, dans certains cas, de meilleures décisions lorsqu’on a un besoin urgent d’uriner, mais que l’on peut tout de même prendre de moins bonnes décisions dans d’autres cas.

 

  • 2012 : le prix a été remis cette année aux Français Emmanuel Ben-Soussan et Michel Antonietti, pour avoir expliqué de manière didactique au corps médical comment minimiser le risque d’explosion d’un patient suite à une coloscopie, notamment en procédant à un nettoyage et à une préparation adéquats de l’intestin, afin d’éviter l’accumulation de gaz jusqu’à une concentration explosive.

Diagramme des 20 cas d’explosions de colon. Copyright Ben Soussan/Antonietti

 

  • A venir : le best of des IG Nobels… de chimie

Par Rahman Moonzur

Grenoble, bientôt libérée de la publicité ?

Des arbres en lieu et place de pub ? Un vent de renouveau flotte dans l’air grenoblois depuis l’annonce choc de son maire Eric Piolle. Son souhait de bouter la publicité hors de Grenoble a fait tousser bon nombre de publicitaires, encore étourdis du culot de l’écologiste. Tandis que les citoyens grenoblois imaginent déjà un monde sans pub, aux allées bordées de verdure et non de slogans. Mais qu’en est-il vraiment ? Une ville du gabarit de Grenoble, où vivent plus de 150 000 habitants peut-elle sérieusement se passer de publicité  et des rentrées d’argent qui vont avec ? Sans compter le financement de certains équipements comme les abribus. Mais on n’en est pas encore là. 

La décision de l’équipe municipale profite en fait de l’arrivée à son terme d’un contrat passé avec JCDecaux, géant du monde de la publicité.  Le maire y voit l’occasion de lutter contre la pollution visuelle et les panneaux publicitaires de grande taille jugés trop agressifs.  « La municipalité fait le choix de libérer l’espace public grenoblois de la publicité en développant les espaces d’expression publique et ne lance pas de nouvel appel d’offre pour de l’affichage publicitaire. » indique le communiqué de presse publié par la mairie. Eric Piolle avait fait cette promesse lors de sa campagne. Adieu donc à 227 panneaux appelés « sucettes », ceux qui font moins de 2 mètre de hauteur, 20 colonnes et surtout 64 grands panneaux de 8m². Ce sont donc 326 panneaux d’affichages en tout qui vont être retirés d’ici mai 2015, et non la totalité des espaces publicitaires. D’ailleurs, les publicités dans les transports publics restent en place ainsi que les abribus,  le contrat les concernant se terminant en 2019. 

Toutefois, cette démarche est une grande première et servira de test. Les espaces libérés correspondent  à 2051 m² de surface publicitaires qui rapportaient chaque année 600 000€ à la ville. Une perte de recettes minimisée par l’équipe en place qui estime ne renoncer en fait qu’à 150 000€ : « En raison de l’effondrement des recettes publicitaires traditionnelles, avec la concurrence notamment d’Internet, la redevance à laquelle on pouvait s’attendre, en cas de nouveau contrat, n’était que de 150 000 euros et non plus de 600 000 euros comme c’était le cas entre 2004 et 2014. » précise le dossier de presse.

A la place des panneaux publicitaires, la ville a décidé de planter des arbres dont une cinquantaine avant le printemps prochain. Certains espaces libérés seront quand à eux utilisés pour de l’affichage de plus petite taille, principalement à destination des piétons, pour relayer des informations de la vie publique comme les évènements organisés par les écoles, associations… de la pub pour la ville en somme !

Par Audrey Loubens