L’Australie ouvre sa porte au nucléaire

L’Australie est le troisième producteur mondial d’uranium derrière le Kazakhstan et le Canada mais ne se sert pas de l’énergie nucléaire, comptant plutôt sur ses réserves considérables de charbon et de gaz naturel peu coûteux.

Mais Canberra est sous pression pour annoncer ses objectifs en matière de lutte contre le réchauffement climatique au delà de 2020 à l’occasion de la conférence de Paris de 2015. L’Australie est le pays développé émettant le plus de gaz à effet de serre par habitant, selon le centre australien Climate Institute.

Le Premier ministre Tony Abbott s’est dit ouvert au nucléaire. « Sur la question de l’énergie nucléaire, je l’ai dit à plusieurs reprises, je n’ai pas d’objection théologique », a déclaré M. Abbott.

Celui-ci a dit récemment que le charbon était « bon pour l’humanité ». Il avait également estimé en son temps que les études scientifiques sur le changement climatique étaient de la « foutaise absolue ».

Figurant parmi les 20 premiers pays en termes d’émissions de gaz à effet de serre, l’Australie s’est engagée pour l’instant à les réduire de 5% d’ici à 2020 par rapport au niveau de 2000. Les écologistes estiment que la baisse devrait être de 15%.

Lors du dernier sommet du G20 à Brisbane, les pays les plus riches du monde ont passé outre les réserves de l’Australie et se sont finalement accordés pour soutenir une « action forte et efficace » sur le climat.

Quatre jours plus tôt à Pékin, le président Barack Obama et son homologue chinois Xi Jinping avaient annoncé un accord inédit pour lutter contre le réchauffement: la Chine s’est fixé pour objectif un pic de ses émissions de gaz à effet de serre « autour de 2030 »; les États-Unis se sont eux engagés sur une réduction de 26 ou 28% de leurs émissions d’ici à 2025 par rapport à 2005.

Tony Abbott a souligné que l’énergie nucléaire était centrale dans certains pays comme la France et le Japon.

« Si nous devons réduire considérablement nos émissions, nous devons nous rappeler que la façon avérée de le faire est via le nucléaire », a-t-il dit. « Jusqu’à présent, ce n’était pas une solution pour l’Australie car nous ne faisons pas face comme d’autres à des pénuries d’énergie. Nous avons des centaines d’années de réserves de charbon, des centaines d’années de réserves de gaz ».

« Si quelqu’un veut faire une proposition pour produire ici de l’énergie nucléaire, d’accord, mais il ne faut pas s’attendre à des subventions publiques », a-t-il toutefois souligné.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #71 : les vidéos les plus étonnantes de décembre 2014 (1/3)

Cette semaine dans la revue du Web :

  • LBC, un accélérateur de particules en Lego « fonctionnel » ;
  • Imaginer le bijou du futur : Neclumi, le collier de lumière ;
  • Le robot anthropomorphe Atlas, de la Boston Dynamics, s’attaque à Karaté Kid ;
  • Le gadget (inutile?) de la semaine : la bougie récalcitrante ;
  • Et en bonus cette semaine, des folioscopes de toute beauté.

LBC, un accélérateur de particules en Lego « fonctionnel » :

Le CERN et son LHC (pour Large Hadron Collider, ou « Grand Collisionneur de Hadrons » en français) peuvent trembler. Pour débuter cette soixante-et-onzième Revue du Web, voici un sérieux concurrent au fameux accélérateur de particules situé à la frontière franco-suisse, le plus puissant jamais construit. Pourtant, ici, point de positrons, d’électrons ou encore de protons. Le Youtubeur et artiste Jason Allemann n’en a que faire de ces particules ennuyeuses, et nous le prouve avec son LBC (pour Large Brick Collider), un dispositif très malin qui substitue une petite balle de football Lego aux habituelles particules chargées électriquement.

Le jeune Canadien se laissa bien vite dépasser par ce qui n’était au départ qu’une blague de potaches, pour finalement s’orienter vers un projet alternatif, mais bien ancré dans le réel. Grâce à son installation, il peut mettre en mouvement puis accélérer le petit ballon Lego, et ce jusqu’à une vitesse folle de 12,5 kilomètres par heure. En guise d’accélérateur, une paire de roues Lego placées l’une derrière l’autre, l’une en rotation maximale à l’aide d’un moteur « Power Functions M », l’autre en roue libre. Cerise sur le gâteau, la petite mise en scène est mignonne comme tout, faisant de Jason Allemann un parfait ambassadeur pour la marque danoise.

Imaginer le bijou du futur : Neclumi, le collier de lumière

Marre des sempiternels bijoux laissant la part belle aux habituels métaux précieux ? Le collectif artistique panGenerator, basé à Varsovie, se propose de dynamiter le concept physique du bijou avec Neclumi, le tout premier collier interactif utilisant la lumière comme matière première. Loin d’être des magiciens, les quatre Polonais s’appuient sur un picoprojecteur – un vidéoprojecteur miniature – attaché au niveau de la poitrine de l’heureuse propriétaire, le petit appareil étant relié à un smartphone par un câble HDMI, l’ensemble orchestré par une application dédiée.

Quatre modes différents existent : « Airo » s’appuie sur le podomètre du smartphone, et projette un collier sensible à la vitesse de marche ; le mode « Roto » utilise la boussole intégrée au téléphone pour projeter un collier sensible à la rotation du corps ; « Movi » s’appuie sur l’accéléromètre du smartphone pour créer un collier réagissant aux mouvements du corps de l’utilisatrice ; le mode« Sono », enfin, utilise le microphone pour générer un bijou en phase avec l’environnement sonore. Encore au stade de projet, nul doute que cette belle idée ne finisse par faire des émules.

Le robot anthropomorphe Atlas, de la Boston Dynamics, s’attaque à Karaté Kid

Dire que la Boston Dynamics ne chôme pas est un pléonasme… Grande habituée de la Revue du Web, la prolifique société américaine, forte du prestige que lui accordent ses différents poulains (Alpha Dog, Big Dog, Proto PET), ne cesse de nous surprendre par la qualité de son travail, la grande polyvalence de ses robots ainsi que par la cadence infernale à laquelle elle améliore ses petits protégés.

L’un des derniers avortons de cette grande famille, baptisé Atlas, est un robot humanoïde bipède anthropomorphe conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog. Pour son grand retour dans notre Revue du Web, Atlas exécute l’un des mouvements les plus emblématiques du film générationnel Karaté Kid, grand succès et monument du milieu des années 1980.

Atlas marche comme un être humain, en déroulant son pied à partir du talon, laissant ses membres supérieurs libres pour manipuler son environnement. En terrain particulièrement hostile, le robot humanoïde s’adapte et fait preuve d’une grande coordination, allant jusqu’à s’aider de ses mains pour se frayer un passage à travers les obstacles. Articulées, les mains du robot Atlas ont été développées pour pouvoir utiliser des outils initialement conçus pour l’usage des humains. Articulée elle-aussi, la tête d’Atlas embarque de nombreuses caméras et un télémètre laser lui permettant de mesurer les distances (avec un mode de fonctionnement proche du sonar avec les ondes acoustiques).

Atlas – encore au stade de prototype – est développé par la Boston Dynamics en collaboration avec le fabricant de robots à usage militaire Foster-Miller, le Jet Propulsion Laboratory (coanimé par la NASA), Trelleborg Sealing Solutions (qui fournit les joints compacts haute performance, la Harvard University Concord Field Station et financé par la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.

Le gadget (inutile?) de la semaine : la bougie récalcitrante

Les scientifiques et inventeurs de tout poil peuvent faire preuve, on le sait, d’une imagination débordante lorsqu’il s’agit de créer quelque chose d’absolument inutile. Le gadget (inutile?) de cette semaine en est un parfait exemple, en plus d’être un lointain cousin des boîtiers les plus mal-lunés jamais inventés dont nous vous avions déjà parlé ici.

Équipé d’un microcontrôleur PICAXE 14M2, d’une photorésistance et de deux petits moteurs provenant de quelques vieux lecteurs de disquettes, ce boîtier reste des plus discrets si l’on ne s’aventure pas à essayer d’allumer la bougie « récalcitrante » qui lui trône dessus. Une fois cette dernière allumée, éclate alors au grand jour une mauvaise humeur proverbiale, à vous glacer le sang.

Bonus : des folioscopes de toute beauté

Du haut de ses 150 ans, le folioscope (ou flip book pour les anglophones) est l’un des ancêtres du cinéma, s’appuyant à la fois sur la persistance rétinienne et sur l’effet phi – la sensation visuelle de mouvement par l’apparition d’images successives. Simple d’utilisation, il réclame néanmoins beaucoup d’imagination de la part de son créateur ainsi qu’une grande maîtrise pour que l’ensemble de la séquence animée reste fluide.

Passé maître en la matière, le Japonais Mou Hitotsu No Kenkyujo soigne aussi bien l’illustration que la réalisation, pour un résultat ultra-rythmé à tomber par terre. Place à la poésie !

Par Rahman Moonzur

Le tremplin : la future plateforme de l’innovation sportive à Paris

Des incubateurs, Paris en compte déjà quelques-uns parmi lesquels on peut citer Agoranov, le Cent-Quatre, le Numa, la Ruche et tant d’autres mais un consacré au sport, ça pas encore. C’est même une première mondiale. La maire de Paris, Anne Hidalgo, en avait fait l’un de ses cheval de bataille du temps de sa campagne pour l’investiture de la mairie de Paris. Le Tremplin est désormais confirmé, en partie grâce à l’appui de la Française des jeux (FDJ), et a été présenté à l’Hôtel de Ville mardi 25 novembre.

C’est le stade Jean-Bouin qui a été choisi pour y implanter l’incubateur. Sa disposition privilégiée avec des lieux dynamiques de la vie sportive parisienne en a fait le cadre idéal. Le stade situé dans le 16ème arrondissement de Paris est en effet campé entre Roland Garros, la Parc des Princes et le stade Pierre de Coubertin. Rénové en 2013, celui-ci était jusqu’ici surtout connu du public pour accueillir le club de rugby le Stade Français Paris et sa section tennis assez développé. L’accélérateur va évidemment changer la donne.

L’idée est de créer un lieu propice à la réflexion et à l’expérimentation, un espace de co-working pas seulement attractif pour les petites entreprises mais aussi pour les visiteurs. Le pole sera consacré à la formation ainsi qu’à la veille afin de faire émerger l’innovation et de créer une nouvelle vision de rupture du sport. Les start-ups engagées dans le big data, les technologies connectées, le textile intelligent, les handisports, les cyber-sports et tout ce qui a trait aux médias, réseaux sociaux et événements dans le sport seront les bienvenues. La ville de Paris espère ainsi créer de nouveaux emplois.

Un appel à candidatures a d’ores et déjà été lancé. Ce sont les jeunes start-ups de moins de cinq ans qui sont dans le collimateur de la mairie pour occuper les 2 200 mètres carrés des futurs locaux et les 250 postes de travail. Elles pourront bénéficier d’un accompagnement et d’une aide financière en sollicitant le fonds d’investissements Paris Innovation Amorçage (dispositif de financement des projets innovants en phase d’amorçage). Les premières sélectionnées intégreront un lieu temporaire au coeur d’un site de Paris Région Lab dans le 13ème arrondissement dès mars 2015 avant de s’installer dans le stade Jean-Bouin l’année suivante.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le gaz de schiste ne révolutionnera pas l’énergie en Europe

De meilleures techniques de fracturation hydraulique ont « considérablement réduit l’empreinte écologique de l’extraction du gaz de schiste », annonce une étude du conseil européen de l’académie des sciences (European Academies Science Advisory Council, ou EASAC) parue le 13 novembre.

Parmi ces techniques, on retrouve le remplacement de certains produits chimiques potentiellement nocifs ou encore la communication de tous les additifs utilisés pour la fracturation.

En outre, l’impact de l’extraction sur la santé, la sécurité et l’environnement est limité par un cadre réglementaire déjà en place dans la plupart des pays.

« En Allemagne, par exemple, la fracturation hydraulique n’est autorisée que si l’intégrité technique du forage a été préalablement établie », note l’EASAC. L’étude estime que les règles existantes sont suffisamment strictes en matière de sécurité.

L’EASAC est constituée des académies des sciences des 28 États membres de l’UE, ce qui lui confère une réelle autorité.

Le potentiel en Europe n’est pas certain

Reste que le potentiel d’extraction de gaz de schiste au sein de l’UE est « incertain », à cause des limites des données géologiques permettant d’évaluer l’accessibilité des réserves, ce qui douche les espoirs de certains de voir le gaz de schiste exploité à grande échelle sur le continent.

Les réserves les plus importantes en Europe se situent en France et en Pologne, qui détiendraient respectivement 3,88 et 4,19 mille milliards de mètres cubes, selon l’Agence américaine pour l’information sur l’énergie (EIA). Le territoire des États-Unis renfermerait quant à lui quelque 16 mille milliards de mètres cubes.

La situation géologie est en outre « plus compliquée » en Europe qu’aux États-Unis. Le rapport fait ainsi état de formations rocheuses « plus anciennes » et « plus fracturées », ce qui a des « conséquences sur la faisabilité technique et économique de l’extraction de gaz ».

« Seule une partie » des réserves existantes serait donc récupérable en Pologne, alors que la présence supposée de gaz de schiste dans le bassin parisien a été démentie par les dernières études géologiques.

L’EASAC est également sceptique quant aux déclarations selon lesquelles l’utilisation de gaz de schiste permettrait de ralentir le réchauffement climatique. Cela dépendrait en réalité de la qualité du processus d’extraction et de « l’intégrité des puits ».

Le gaz de schiste constitue bien une alternative séduisante aux importations en provenance de la Russie dans un contexte politique tendu, souligne toutefois l’EASAC, qui estime que le gaz en question pourrait apporter « une contribution non négligeable à la sécurité énergétique » en remplaçant une partie des importations russes.

Alors que des techniques de forage horizontal sont à présent disponibles, l’impact de l’extraction sur le terrain peut également être limité, rendant possible la localisation de puits de forage plus près des zones densément peuplées.

« Techniquement, les puits de forage horizontal pourraient avoir une portée de 12 km, bien que cette solution soit encore très couteuse. Même avec des puits d’un rayon de seulement 3 km, la production de gaz non conventionnel vaudrait la peine dans des régions densément peuplées. Il s’agit là d’un aspect clé de la réduction des conséquences de l’extraction du gaz de schiste en Europe », conclut l’étude.

Cette réduction de la surface de terrain nécessaire au forage limite également le problème de la récupération du sol une fois l’extraction finie, et donc le risque financier de telles entreprises, note l’EASAC.

Transparence et communication

Toute opération de forage à grande échelle requerra par ailleurs la confiance du public, font remarquer les auteurs de l’étude. L’engagement des entreprises auprès des communautés et leur ouverture et transparence sont donc des éléments cruciaux du bon déroulement des opérations, tout particulièrement en ce qui concerne la surveillance d’effets indésirables potentiels.

Il faudra faire preuve de transparence quant aux additifs utilisés lors de la fracturation et quant aux « résultats des analyses menées pour détecter toute contamination de l’eau ou fuite de gaz avant, pendant et après l’extraction » et fournir toutes les informations disponibles à l’exécutif et aux communautés concernées, insiste l’EASAC.

Source : Euractiv

Ocean Spiral, la ville du futur bâtie sous la mer

5000 résidents. 4000m de profondeur. 20 milliards d’euros.

Des chiffres fous pour un projet tout aussi fou d’une  ville construite sous l’eau. A l’origine de cette idée, la société Shimizu assume sa proposition, même si toutes les technologies nécessaires ne sont pas encore au point. Ce spécialiste japonais de la construction estime qu’elles le seront dans une quinzaine d’années, et que sa ville sous-marine sera alors susceptible d’être construite  en moins de 5 ans.

Ingénieurs, architectes, océanographes, spécialiste des énergies alternatives, tous ont contribué à l’élaboration d’Ocean Spiral. L’aboutissement de leurs réflexions est une structure constituée de 3 parties. Au sommet, la zone d’habitations est hébergée dans une sphère flottante de 500m de diamètre appelée Blue Garden. Le quartier résidentiel est donc émergé, des hôtels, commerces et bureaux étant eux-aussi à l’intérieur du Blue garden.

La bulle sera fabriquée à partir de résine et l’ensemble de la partie émergée pourra coulisser le long de l’axe central sous le niveau de la mer si besoin, pour se protéger de tempêtes par exemple.

Sous cette bulle, une longue spirale de 15 km de long descend jusqu’au fond de la mer. C’est là que se tiendra la source d’énergie qui permettra d’alimenter toute la ville. Il s’agit d’une usine dédiée à la production de méthane à partir des micro-organismes méthanogènes,  capables de convertir le CO2 en méthane. Mais cela ne sera pas la seule source d’énergie. Des centrales électriques sont positionnées le long de l’hélice reliant la surface au fond. Ces dernières produiront du courant grâce à l’énergie thermique des mers, c’est-à-dire en exploitant les différences de températures entre les eaux proches de la surface et les eaux profondes.

Shimizu, en partenariat notamment avec l’Université de Tokyo et l’Agence japonaise pour les Sciences et Technologies maritimes a travaillé 2 ans à définir l’Ocean Spiral. Un projet qui reste pour l’instant du domaine de l’imaginaire, mais qui sait, peut-être qu’un jour l’homme vivra vraiment sous l’eau.

Par Audrey Loubens

La première cafetière spatiale est à bord de l’ISS

Un comble ! La première femme italienne s’envole vers la Station spatiale internationale mais la seule chose que l’on retient c’est ce qu’elle apporte avec elle : une cafetière capable de faire un expresso italien dans l’espace. Qu’est-ce-que cette machine a donc de si spécial ? Elle va permettre aux astronautes de profiter d’un vrai café, à la saveur italienne. Si se faire un bon café est anodin à la surface de la Terre, il en est autrement dans un environnement sans gravité.

La célèbre marque de café Lavazza s’est associé à une autre société italienne, Argotec, société d’ingénierie spatiale experte dans la préparation d’aliments consommables dans l’espace pour réussir à fabriquer une cafetière utilisable dans les stations spatiales. En partenariat avec l’agence spatiale italienne, ils ont réussit à concevoir une machine à expresso capable de fonctionner dans l’ISS. 

Le fruit de leurs travaux se présente sous la forme d’une machine carré blanche d’une vingtaine de kilos, fonctionnant avec des capsules. Le tube par lequel transite l’eau est fait d’acier et peut supporter jusqu’à une pression de 400bars. L’ISSpresso fonctionne très simplement. L’astronaute insère la capsule sur le dessus de la cafetière, de l’eau est aspirée et mise sous pression jusqu’à atteindre la bonne température.

L’eau chaude est acheminée jusqu’à la capsule via le tube en acier. Le café n’a plus qu’à s’écouler. Seule différence, le café ne pouvant être bu dans une tasse, il est accumulé dans une poche souple pour être consommé à la paille. Voilà donc le cadeau apporté par Samantha qui aura tout de même le privilège de savourer le premier expresso de l’histoire de la conquête spatiale.

L’arrivée de ce vol Soyouz a dû être particulièrement attendu par les résidents de l’ISS car en plus de la 1ère femme italienne et de la 1ère cafetière à expresso, les soutes contenaient… du caviar ! 

Découvrez les images de la cafetière spatiale ISSpresso :

Par Audrey Loubens

Et les leaders de l’innovation sont…

Ces résultats mis en évidence par l’étude du cabinet international de conseil en stratégie Boston Consulting Group (BCG) n’éclairent pas vraiment d’un regard neuf la situation de l’innovation dans le monde. Ils confirment plutôt la tendance qui se dégage depuis maintenant quelques années : la domination de l’high tech dans ce domaine. Les entreprises classées juste derrière Apple s’appellent Google, Samsung, Microsoft et IBM. Et elles ne sont pas prêtes d’être détrônées.

Si l’on parcourt ce classement paru en fin d’octobre dernier et réalisé grâce à la participation de 1 500 cadres dirigeants, on constate deux trois choses. La première, c’est que le trio de tête ne bouge pas, bien que Google vienne ravir cette année la deuxième place à Samsung. Pour Apple, l’indéboulonnable, la situation est tranquille puisqu’elle arrive en tête depuis neuf ans. En tout, douze entreprises sur vingt se rattachent au secteur de l’high tech.

L’édition 2014 du BCG permet également d’observer un léger déclin du secteur automobile dans la perception que se font les entreprises sur l’innovation. Les chiffres sont parlants : on recense uniquement 4 entreprises dans le top 20 contre 9 en 2013 et 9 dans le top 50 contre 14 l’année précédente. Seul le constructeur automobile de voitures électriques Tesla motors tire son épingle du jeu et fait un net bond en avant, passant de la 34e place à la 7e. En créant la rupture dans son domaine, Tesla a clairement donné un coup de vieux à ses concurrents et changé la perception de ce que doit être l’innovation dans l’automobile.

Il en ressort aussi que les pays émergents talonnent de plus en plus près les pays déjà bien installés. Ils ne sont certes présents qu’à hauteur de 10 % dans ce classement mais ils progressent. En 2013, ils n’occupaient que 4 % du tableau. La raison tient au fait qu’ils investissent en grande pompe dans l’innovation et n’ont que peu de barrières légales comme c’est le cas aux États-Unis par exemple où les lois sont déjà bien établies.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Quels infrastructures et modes de vie en 2030 et 2050 ?

Avec ses scénarios énergétiques et climatiques aux horizons 2030 et 2050 et l’évaluation macro-économique de ces scénarios, l’ADEME se veut optimiste en proposant la vision d’une France où l’économie verte est source de croissance et d’emplois. En 2030, environ 330 000 emplois supplémentaires pourraient être créés ; et entre 690 000 et 875 000 en 2050. Si quelques emplois seront supprimés dans les centrales thermiques, les centrales nucléaires et le secteur automobile, beaucoup d’autres seront créés dans les énergies renouvelables, le tertiaire, les transports collectifs, les biocarburants, et le BTP.

Concrètement, les visions énergétiques pour 2030 et 2050 répondent aux objectifs de diminution par deux de la consommation énergétique à l’horizon 2050 et la division par quatre des émissions de gaz à effet de serre par rapport à 1990. Ainsi, l’ADEME prévoit de passer d’une consommation énergétique française totale de 151 millions de tonnes équivalent pétrole (Mtep) en 2010 à 123 Mtep en 2030 et 82 Mtep en 2050. Pour atteindre le facteur 4, elle prévoit que les émissions passeront de 525 millions de tonnes équivalent CO2 (Mt CO2 eq) en 1990, à 313 Mt CO2 eq en 2030 (-40%) et 131 Mt CO2 eq en 2050 (-75%).

L’ADEME n’a pas fait d’hypothèses concernant des ruptures technologiques fortes afin de montrer que les objectifs pour 2050 sont atteignables en développant les technologies actuelles. Les experts ne parient donc pas sur le stockage du CO2 en sous-sol ou sur l’émergence de biokérosène pour l’aviation, mais plutôt sur le développement des énergies renouvelables matures et le développement des transports alternatifs.

Quels changements dans les infrastructures du quotidien ?

Pour atteindre les objectifs, l’ADEME mise sur les bâtiments à énergie positive ou basse consommation, en neuf comme en rénové. Dès 2020, tous les bâtiments neufs seront en effet à énergie positive. Mais, c’est surtout en parvenant à rénover 500 000 logements par an d’ici 2030, puis en accélérant la dynamique, que l’on parviendra à avoir rénové l’ensemble du parc français, soit les 27 millions de logements, en 2050. Vers 2030, l’agence suppose aussi que les habitants se tourneront davantage vers le petit collectif,en appartement ou dans des maisons partagées, plutôt que vers des logements individuels.

En parallèle, la consommation des ménages diminuera grâce à des appareils toujours plus efficaces en énergie, des équipements de chauffage plus performants (généralisation des pompes à chaleur) et une meilleure efficacité énergétique active par pilotage des équipements. L’agence a estimé qu’en 2030, tous les foyers français auraient les meilleurs équipements mis sur le marché actuellement.

Aujourd’hui, le covoiturage et l’autopartage ne sont plus des signaux faibles. « On a supposé que cela peut prendre une part croissante », indique François Moisan, directeur scientifique à l’ADEME. Les voitures particulières seront donc en partie remplacées par des voitures électriques ou roulant au biométhane. Si le secteur des transports représentait 44 Mtep en 2010, l’ADEME mise sur un secteur ne représentant plus que 35,8 Mtep en 2030 et 15 Mtep en 2050. Pour atteindre cette baisse, elle imagine un parc constitué à 4 % de véhicules électriques ou roulant au biométhane en 2030 et 28 % en 2050. C’est surtout à partir de 2030 que l’autopartage et les véhicules à propulsions alternatives devraient s’imposer.

Au milieu du siècle, les comportements auront bien changé : en ville, 30 % des déplacements se feraient en véhicules partagés, 20 % en véhicules individuels, 25 % en transports collectifs, 15 % en vélo et 10 % en deux roues motorisés. Pour limiter la baisse des émissions de gaz à effet de serre, l’agence estime que les véhicules neufs n’émettront plus que 49 gCO2/km en 2030 et autour de 25 gCO2/km en 2050, contre 130 gCO2/km en 2010. La part des énergies renouvelables dans la consommation énergétique totale (électricité, chauffage et carburant) pourrait quant à elle passer de 12 % en 2010 à 35 % en 2030 et plus de 55 % en 2050.

Comment cela se traduit-il dans nos modes de vie ?

L’ADEME insiste sur le fait que la trajectoire imaginée est compatible avec le confort et le bien-être des citoyens. La sobriété, ce n’est pas un changement radical de nos modes de vie, mais plutôt une évolution vers plus de partage et d’efficacité. En 2030 et 2050, il n’y aura pas un mode de vie généralisé ou imposé, mais une diversité de ces modes en fonction de la localisation de son logement, de ses revenus, de la typologie de son foyer ou encore de son âge. « On a identifié 8 familles type en 2030 et 8 familles en 2050 pour montrer quels seraient leur mode de vie », précise François Moisan. Les experts ont ensuite traduit ces modes de vie en consommations d’énergie annuelles et en émissions de gaz à effet de serre.

En matière de transports, les ménages en zone rurale ou en banlieue isolée dépendront encore de leur voiture personnelle pour leurs déplacements, bien qu’ils favorisent le covoiturage au quotidien et le vélo pour leurs trajets courts, à l’instar de Lucile et Mathias en 2030. L’avion ne disparaitra pas et les citoyens seront évidemment encore libres de voyager. Mais en l’absence de rupture technologique imaginée dans ce scénario, un seul voyage de longue durée, comme celui de Philippine et Abel prévu en 2050, suffira à faire exploser les émissions du couple pour l’année…

L’agence se veut toutefois optimiste. « Aucun de ces ménages n’est « parfait », « exemplaire » sur tous les plans, mais si l’on fait la moyenne de l’ensemble des familles, cette moyenne globale est proche de l’objectif collectif fixé en termes de consommation d’énergie et de bilan d’émissions de gaz à effet de serre », prévoit l’ADEME.

Aller plus loin :

Pour découvrir l’ensemble des 8 familles, voir le rapport Visions énergie climat & Modes de vie (PDF – 5,3 Mo)

Pour en avoir un aperçu, lire la synthèse du rapport (PDF – 2,4 Mo)

Quelques chiffres clés (PDF – 1,3 Mo)

Par Matthieu Combe, journaliste scientifique

La batterie du futur, plus performante et plus sûre, en construction

Le stockage énergétique dans une batterie lithium-ion classique est limité par plusieurs facteurs. Le point faible des batteries lithium-ion réside dans notamment dans l’utilisation d’électrolyte liquide hautement réactifs et potentiellement dangereux, particulièrementt dans le cadre de grandes batteries destinées, par exemple, au stockage de l’électricité issue des énergies renouvelables ou pour les véhicules électriques.

Le projet SIEL (Single-Ion Electrolyte), porté par Renaud Bouchet, Professeur des Universités à l’Institut National Polytechnique de Grenoble (INPG) et son équipe de recherche  vise à développer une batterie moins chère, plus sûre, disposant d’une meilleure durée de vie et d’une meilleure densité énergétique, et avec un moindre impact environnemental. « Notre approche est de proposer un électrolyte polymère solide qui permet de remplacer les électrolytes liquides classiques et permettant ainsi d’améliorer la sécurité. De plus, nous visons une amélioration de la densité d’énergie et une baisse des coûts », explique Renaud Bouchet.

Pour rendre son électrolyte solide, l’équipe grenobloise a notamment développé une nouvelle famille de copolymères à blocs, c’est-à-dire comprenant deux types de polymères réunis dans la même macromolécule par une liaison covalente. « L’idée a donc été de réaliser le design d’un copolymère à blocs multi-fonctionnel grâce à sa structure moléculaire particulière : de façon simplifiée, un bloc ou polymère apporte la conductivité ionique tandis qu’un autre bloc apporte la tenue mécanique. Ces deux polymères ou blocs sont reliés entre eux par une liaison covalente, ce qui évite une macro-séparation de phase (type eau/huile) mais impose une nano-séparation de phase, donnant un matériau dont les propriétés sont une synergie des caractéristiques de chacun des blocs », résume Renaud Bouchet.

Une batterie plus efficace et moins chère

« L’amélioration de la densité énergétique vient à la fois des matériaux d’électrode – tension et quantité de charge que l’on peut stocker par gramme de matériaux – et des gain de masse que l’on peut faire sur l’ensemble des élément de la batterie : électrolyte, emballage, système de sécurité », explique Renaud Bouchet. En utilisant une électrode négative en lithium métallique plutôt qu’en graphite, un électrolyte polymère en couche mince (20-30 micron contre 100micron pour du Li-ion) et aussi grâce à un emballage allégé (technologie « tout solide » donc qui ne nécessite pas de mise en pression et d’emballage), « on peut espérer un gain de 20 à 50% d’énergie », prévoit l’expert. ‘Cependant, aujourd’hui la technologie ne fonctionne qu’au delà de 60°C ce qui consomme un partie de l’énergie de la batterie pour la maintenir en température », prévient-il.

Les coûts seront moindres grâce aux gains dans les matériaux, notamment pour l’électrolyte et l’emballage. « On en utilise moins donc c’est moins cher », résume le chercheur. Les procédés de fabrication sont aussi moins chers, car ils ne nécessitent pas la manipulation d’électrolytes liquides toxiques, volatiles et inflammables, et donc délicats à manipuler. Ces copolymères présentent l’immense avantage de pouvoir être produits selon des procédés de synthèse en phase aqueuse, sans solvants organiques, et conservés à l’air libre. Ils sont mis en forme selon les procédés classiques de plasturgie : extrusion, lamination… Résultat : les systèmes de sécurité sont plus simples, ce qui diminue encore les coûts. Comme il s’agit de polymères, il est possible de leur faire prendre la forme de feuilles souples, très fines, faciles à intégrer à une batterie.

Quels sont les prototypes existant?

Il reste encore des verrous scientifiques et technologiques, mais ce sont des défis que le projet SIEL compte bien relever en réalisant des prototypes industriels. »Nous avons réalisé des prototypes de batterie à l’échelle laboratoire pour montrer la faisabilité et l’intérêt de nos matériaux », commente Renaud Bouchet. « Des petits prototypes industriels de l’ordre de 1Ah [batterie de portable] sont prévus et devront être réalisés d’ici le deuxième semestre 2015 », prévient-il. Les tests de ces prototypes dureront au minimum un an, jusqu’au deuxième semestre 2016.

Pour assurer un développement industriel, plusieurs aspects vont être évalués courant 2015. « Le premier obstacle est le scale-up industriel de la fabrication des polymères (du kg à la tonne). Il faut  trouver un procédé qui soit compatible avec une production de polymère à l’échelle industrielle. Ensuite il y a l’étude des coûts pour définir le prix du matériaux. Le deuxième obstacle est la mise en forme des polymères pour réaliser les composants de la batterie, compatible avec les procédés industriels », conclut Renaud Bouchet.

Par Matthieu Combe, journaliste scientifique

 

Transports connectés : les applis innovantes

L’utilisation de données massives (Big Data) permet de faire des miracles, et de se déplacer sans cartes, sans se soucier de rien, ou presque – grâce aux applications mobiles, bien sûr.

Devenez chauffeur de taxi (privé)

Prenez Uber. Cette application (pour Android et iOS), qui repose sur le collaboratif, la géolocalisation et sur des algorithmes, vous permet, soit de devenir chauffeur de taxi privé, soit de localiser, via votre smartphone, les voitures privées avec chauffeur (VTC) les plus proches, et de les réserver. Vous pourrez avoir une estimation du prix, avant même de commander, puis suivre l’approche de la voiture.

Aidez vous les uns les autres dans les transports

Le collaboratif et le crowdsourcing sont aussi à l’origine de Moovit, qui utilise les données des utilisateurs, afin de les informer en temps réel sur le trafic du métro et des bus. Cette application (toujours pour iOS et Android) combine les données des usagers (en temps réel) à des données provenant des opérateurs de transports, ce qui permet de savoir si un bus est en retard, ou si un métro est bloqué. 

Moovit est utilisé par 350 000 français, à Paris, Bordeaux, Strasbourg et Toulouse. Grâce aux infos partagées par la communauté, Moovit est une application très fiable, qui permet en outre aux usagers de laisser des commentaires sur leur trajet, notamment en ce qui concerne la présence du Wi-Fi dans une station, ou de places pour handicapés à bord. En bref, il s’agit d’une véritable application d’entraide.

Dans la même veine, l’application ZenBus, utilisable actuellement à Issy-les-Moulineaux et à Nantes, permet de visualiser en temps réel où se trouve son bus depuis son smartphone. Pour cela, les conducteurs ont géolocalisé leurs autocars, et partagent les infos avec les utilisateurs.

Prédisez où vous pourrez vous asseoir 

Mais les données permettent d’aller plus loin, en permettant de prédire des choses. Ainsi, la startup française SNIPS, spécialisée dans le Big Data, a créé l’application Tranquilien. Cet outil qui fonctionne sur iOS et Android (encore), permet de localiser le prochain train dans lequel il vous sera possible de vous asseoir. SNIPS utilise des modèles prédictifs, les données de la SNCF (densité de population, heures de pointes, météo) et celles fournies par les utilisateurs, pour connaître le remplissage des trains du réseau Transilien. Les prédictions de l’application sont mises à jour, en temps réel. 

Bien sûr, cette appli n’est pas infaillible, mais elle s’avère relativement efficace dans les lieux où elle fonctionne. Bientôt, SNIPS espère étendre son utilisation aux autres réseaux de la SNCF, et, un jour, quand la 3G et la 4G y seront effectives, aux RER et au métro de la RATP. A terme, l’application devrait même permettre à l’utilisateur de pouvoir prédire quel wagon dispose de places libres, mais il faudra encore patienter un peu (quelques années), le temps que la base de données soit assez conséquente.

L’assistant personnel de vos déplacements

Il existe enfin des applications qui se veulent de vrais “assistants personnels”. Ainsi, Citymapper, utilisée à Londres, à New-York et à Paris, permet de comparer des itinéraires, à travers 5 modes de transports différents. Citymapper va plus loin que Vianavigo, qui ne concerne que les réseaux ferrés et le bus : l’appli intègre à sa base de données (qui comprend déjà le métro, le bus, le tramway et les RER), les trajets à vélo et à pied. Elle localise les arrêts de bus et les stations Vélib, calcule les trajets et les durées de chaque mode de transport, indique quels itinéraires permettent d’éviter la pluie (grâce aux données météo), ainsi que la disponibilité des stations Vélib. Bien sûr (et hélas), cette appli ne concerne que les smartphones Android et iOS…

Mais ce genre d’outil ne concerne pas que Paris. Par exemple, à Strasbourg, il existe l’application StrasMap. Créée par la Ville et la Communauté Urbaine (CUS), elle recoupe des informations concernant tous les modes de déplacement possible (bus, tramways, itinéraires à vélo, à pied, en voiture). Fonctionnant avec iOS et Android (oui, oui, encore), StrasMap permet à l’utilisateur de calculer plusieurs itinéraires (multimodaux), de connaitre les conditions de circulation en temps réel sur les routes, de localiser les arrêts de bus ou de tram, les stations de vélos libre service, mais aussi de connaître la qualité de l’air, les embouteillages ou les accidents éventuels… et même d’être informé, l’hiver, du possible salage des rues.

Bien sûr, ces applications sont très utiles, mais ont aussi une limite : l’accès au réseau mobile, notamment dans le métro. Il faudra donc attendre, en théorie, 2016, pour pouvoir les utiliser pleinement dans le métro parisien… Pour les autres villes de France, il faudra probablement attendre davantage.

Par Fabien Soyez

Internet disponible partout, tout le temps : c’est pour quand ?

A Paris, les couvertures 3G ou 4G des opérateurs demeurent bien inégales, selon que l’on se trouve dans un train express régional, dans un bus, dans un TGV ou dans le métro. Ainsi, si vous habitez dans la banlieue parisienne et que vous vous rendez dans la capitale, votre smartphone passera successivement de la 3G à la 4G, puis de l’inévitable 2G+ (Edge) à l’obsolète 2G (GSM).

Pourtant, la RATP (Régie des transports parisiens) promet que, d’ici fin 2015, l’ensemble du réseau métro et RER de Paris sera couvert – grâce à une infrastructure mutualisée, qui regroupera les réseaux d’opérateurs tels que SFR, Orange, Bouygues Telecom et (peut être) Free.

Une couverture 3G / 4G qui traine des pieds

La ligne 1 du métro et la ligne A du RER figurent parmi les premières à avoir été équipées. En effet, dans les stations concernées, la couverture s’avère plutôt bonne… dans les rames un peu moins, puisque “Edge” continue à s’afficher la moitié du temps, quand la connexion n’est pas coupée purement et simplement. Selon la RATP, dans un an, 170 des 300 stations du réseau, ainsi que 65 gares de RER, devraient accueillir les fréquences 2G, 3G et 4G des principaux opérateurs français.

Reste que surfer sur son smartphone dans le métro lui-même (et non dans les stations) ne semble pas être pour tout de suite, car le déploiement de tels réseaux nécessite de lourds aménagements techniques : ainsi, la RATP le précise elle-même, “les espaces, qui n’ont pas été prévus à cette fin, sont extrêmement contraints. Il n’y a pas de locaux techniques, ni davantage de systèmes de climatisation dédiés pour les équipements radio”. La RATP doit ainsi remettre à niveau un parc de 2500 antennes, réparties sur 321 sites. Cela n’empêche pas la régie, qui reconnait que “les délais sont très ambitieux”, de promettre une couverture du réseau entier (14 lignes, 213 kilomètres de rails) d’ici fin 2016 – quand, à Montréal, nos cousins québecois semblent plus réalistes, et tablent sur 2020 pour installer un réseau mobile identique.

“Nous serons le seul réseau au monde à offrir l’accès à la 4G à bord des trains partout : dans les métros, sur les RER A et B. Par rapport au Wi-Fi, c’est une solution beaucoup plus économe en ondes”, indique encore Pierre Mongin, président de la régie des transports, au Parisien.

Un supermétro bien équipé

Le futur réseau de métro parisien, le “Grand Paris Express”, porté par la Société du Grand Paris (SGP), a la même ambition : permettre aux usagers de surfer non stop dans le métro. Mais contrairement au métro actuel, où le déploiement de la 3G, de la 4G et du Wi-Fi traine des pieds, ces futures lignes automatiques, prévues pour 2020, devraient reposer sur un réseau 4G / Wi-Fi préalablement mis en place.

La SGP prévoit ainsi de créer, en amont, une infrastructure mutualisée couvrant 72 gares et 200 kilomètres de tunnels, mais aussi de pré-installer des fibres optiques et des locaux techniques opérateurs le long des tracés.

Reste un problème, celui de la saturation des réseaux – comme le constate Francetv Info : “le réseau internet mobile fonctionne comme celui des transports : plus il y a d’utilisateurs, plus il est saturé. La RATP transportant chaque année près de 1,4 milliard de voyageurs, le réseau parisien a toutes les chances d’être de plus en plus encombré.”

Bien sûr, surfer dans les transports en commun ne concerne pas que Paris. Ailleurs en France, des réseaux de transport misent sur le Wi-Fi et la 4G, comme Lyon, qui promet de les installer dans les stations… et non dans les rames.

Wi-Fi gratuit dans les bus

Qu’en est-il des autre moyens de transport ? Demain, le Wi-Fi pourrait peut être se généraliser dans les bus. Cela semble en tout cas être le pari de la RATP, qui teste actuellement un système de Wi-Fi gratuit, dans les autocars assurant la liaison entre Paris et l’aéroport de Roissy.

Concernant le TGV, où l’utilisation de la 3G comme de la 4G est impossible (à cause de la structure métallique du train, qui fait office de cage de faraday), le déploiement du Wi-Fi semble plus compliqué. Ainsi, si proposer un accès Wi-Fi dans les gares ne pose pas de problème, en proposer à l’intérieur des trains représenterait un coût bien trop conséquent pour la SNCF (350 000 euros par rame, alors que le parc TGV en compte 450).

Dans l’attente d’une “solution technique” salvatrice, vous ne pourrez hélas utiliser le Wi-Fi que dans les TGV de la LGV Est européenne (qui relie Paris à Strasbourg), où une expérimentation est en cours.

 

Par Fabien Soyez

Un tramway qui chevauche les routes et les embouteillages

Pour les voitures qui passent en dessous, il apparaît comme un tunnel éclairé. Mais pas question pour les poids lourds ou les véhicules de plus de 2 mètres de haut de s’y aventurer : ils devront le contourner ou attendre qu’il change de direction.

Ce tramway futuriste permettrait ainsi d’exploiter les derniers espaces vides de Pékin, situés au-dessus des routes. L’accès des passagers se ferait via le haut du bus lorsqu’il est à l’arrêt dans des stations surplombant la route.Ses dimensions importantes (4,6 mètres de hauteur sur plus de 7 mètres de large) lui permettrait d’accueillir entre 1200 et 1400 passagers. Silencieux, il fonctionnerait à l’électricité, alimentée par des panneaux solaires. Il pourrait rouler jusqu’à 60 km/h en vitesse de pointe, et 40 km/h de moyenne en ville.

Son coût était initialement estimé à 56 millions d’euros, pour 40 km de rails.  Mais l’optimisme du début a laissé place au sceptisisme. Pour l’instant, ce projet ne s’est pas concrétisé et son avenir demeure un mystère. Les autorités du district attendraient un prototype réussi, l’infrastructure serait trop compliquée, la sécurité insuffisante… Voici quelques hypothèses avancées par les observateurs pour expliquer ces retards. Mais compte tenu des niveaux de pollution et des problèmes de circulations de la ville de Pékin, on peut supposer que ce projet est toujours sur les rails ! La dernière information publique remonte à 2012, lorsque l’entreprise de transports China TBS limited a diffusé une nouvelle vidéo présentant certains aspects techniques du projet.

Par Matthieu Combe

Le skyTran : se déplacer en ville à 100 km/h ?

En pratique, ce sont des cabines pouvant accueillir entre 2 et 4 personnes suspendues à un rail au niveau de leur toit. ll s’agit donc plus d’un moyen de transport individuel, que d’un tramway volant. Il se déplacera  très rapidement, jusqu’à 100 km/h.

Un avantage capital est à noter par rapport aux transports en commun habituels : les utilisateurs peuvent réserver à l’avance un véhicule qui les attendra dans la station de leur choix. Il n’auront alors plus qu’à indiquer la destination désirée et le voyage commencera, sans arrêt, jusqu’à leur destination.

L’expérimentation de skyTran sur le campus de Tel-Aviv a été actée en juin 2014 en collaboration avec l’organisme spatial israélien (IAI). Il pourrait ainsi être mis en service fin 2016. Les coût estimés sont faibles par rapport à d’autres moyens classiques : 15 millions de dollars par kilomètre, soit 10 fois moins qu’une ligne de tramway classique. Le coût de construction total à Tel-Aviv est estimé à 58 millions d’ euros. Les billets individuels seront vendus à environ 5 dollars.

D’autres voies skyTran pourraient voir le jour à Toulouse, entre les aéroports parisiens et le centre de la ville, à Kerala (Inde) et dans la région de la baie de San Francisco.

Rappelons qu’en 2014 seules trois lignes fonctionnent par lévitation magnétique dans le monde : le Transrapid de Shanghaï (30 km), le Linimo à Aichi au Japon (9 km) et  le parc des expositions de Daejeon, en Corée du Sud (1 km). Si skyTran venait à se développer, cela serait donc une bonne nouvelle pour les acteurs de cette technologie.

Par Matthieu Combe

Shweeb : des vélos volant à 50 km/h ?

Au niveau d’une station de Shweeb, un départ de capsules toutes les 3 secondes est envisagé, permettant un trafic de près de 1 200 personnes par heure. Ce mode de transport pourrait être utilisé en milieu urbain pour des trajets courts ou moyens. Ces vélos suspendus auraient leur place le long des rues, à l’intérieur de campus, ou pour traverser des obstacles. Il s’agirait d’un bon moyen pour lutter contre l’obésité et serait un moyen de transport très économe en énergie.

Pour les montées, un système d’entraînement avec une chaîne externe à griffes peut être prévu en remplacement de la propulsion humaine. Un tel système pourrait aussi être envisagé pour les arrivées sur des stations installées en hauteur par rapport à la voie. La position d’une station en hauteur permettrait à une nacelle de se mettre en vitesse rapidement en descendant la branche de connexion afin de s’intégrer aisément dans le flux de la circulation.

Un démonstrateur a été réalisé en Nouvelle-Zélande, dans le parc d’attraction Agroventures. Sur un circuit de 200 m, les visiteurs font la course : les vitesses atteignent couramment 50 km/h. En 2010, Google a investi 1 million de dollars pour tester et étendre ce projet de déplacement urbain. Mais pour le moment, aucun déploiement ne s’est encore fait en ville. Ne semble-t-il pas assez futuriste et technologique pour convaincre les élus?

Par Matthieu Combe

Quels matériaux pour les routes du futur ?

Les innovations sont importantes. Demain, la route sera sûrement composée de matériaux innovants lui permettant de s’auto-réparer et d’être autonome en énergie. La chaussée sera chauffante ou refroidissante en fonction des conditions météorologiques. Elle fera également la part belle aux matériaux bio-sourcés pour remplacer les matériaux d’origine pétrolière.

Vers une route de l’auto-diagnotic

Bientôt, la route pourra auto-diagnostiquer une déformation de la chaussée ou envoyer des informations sur le trafic. Pour ce faire, elle renfermera des capteurs de déformation interconnectés, des fibres optiques ou des nanomatériaux.

Incorporée  au niveau de la bande de roulement, la fibre optique peut mesurer les déformations. Les changements de fréquence de la lumière à l’intérieur de la fibre témoignent en effet de déformations précoces et permettent d’agir pour éviter des dégradations plus importantes. L’auto-diagnostic pourrait aussi se faire grâce à des nanocomposites présentant des propriétés piézoélectriques. L’idée est alors de déposer une couche d’un nanocomposite à base d’argile, de graphite et de nanotubes de carbone dans la couche de roulement. Ainsi,  dès qu’une pression s’excerce sur la chaussée, le nanocomposite génère un courant électrique entre deux électrodes en aluminium. Une fois les signaux traités, cela permet d’avoir une image de l’état de la route ou du trafic.

La route sera-t-elle solaire ?

Demain, les routes seront peut-être transparentes ou semi-transparentes, enfermant des capteurs photovoltaïques sous la surface de chaussée. Le projet Solar roadways aux Etats-Unis et Solar road aux Pays-Bas sont les plus avancés. Les Pays-Bas viennent d’ailleurs d’inaugurer une piste cyclable solaire renfermant des panneaux photovoltaïques et une surface de chaussée en verre.

L’Iffstar travaille également sur ce sujet depuis 2012. « On travaille sur des revêtements en verre pilé qui ressemblent à du béton bitumineux classique, avec un aspect semi-transparent. Le liant entre le verre pilé est soit végétal soit une résine classique », confie Nicolas Hautière, Directeur de projet R5G à l’Ifsttar. L’électricité produite pourra être injectée dans le réseau électrique public, alimenter les éclairages de la route ou recharger les batteries des véhicules électriques en roulant.

La chaussée chauffante ou refroidissante

Pour refroidir une route en été ou la dégivrer en hiver, l’Iffstar envisage de faire circuler sous la chaussée un fluide caloporteur. « On vient transformer la route en pompe à chaleur », présente Nicolas Hautière. « On vient faire un échangeur de chaleur entre la couche de chaussée et le sous-sol : en été, le fluide chauffe au contact du soleil et transporte la chaleur au sous-sol. L’hiver, c’est l’inverse, on fait monter la chaleur pour réchauffer la chaussée », résume Nicolas Hautière.L’Ifsttar mène actuellement un test sur ce procédé à Aigleton, sur le site de l’Ecole d’Application aux métiers des Travaux Publics (EATP).

Pour une meilleure adaptation au changement climatique, les chercheurs revisitent également le concept de « chaussée-réservoir » ou « chaussée-poreuse », technologie datant des années 1980. Ces chaussées permettent de stocker les eaux pluviales dans le corps de chaussée. Cela permet de réguler l’écoulement des eaux, afin de ne pas saturer le réseau d’eaux pluviales et éviter ainsi les risques d’inondations en cas de fortes pluies.

Des matériaux de plus en plus bio-sourcés

Rappelons-le, le béton est un mélange de granulés (gravillons, sables…) et d’un liant permettant de les agglomérer. Ce liant est souvent du bitume, un mélange très visqueux d’hydrocarbures.

Le matériau de la route du future se doit donc d’être plus écologique. L’Ifsttar travaille sur des matériaux comprenant des liants bio-sourcés, notamment à base de micro-algues, pour préparer l’ère post-pétrole. « Si la filière micro-algues se met en place pour produire des biocarburants, nous pourrons utiliser les déchets de production pour faire des liants pour les routes », assure Nicolas Hautière. « Cela permettra de remplacer les liants bitumineux issus du bas de la chaîne de raffinage du pétrole, par un liant naturel d’origine micro-algale », précise-t-il. Cet enjeu a été exploré dans le cadre du projet Algoroute.

C’est pour quand et à quel prix ?

« Les technologies vont se déployer petit à petit », prévoit Nicolas Hautière. La rapidité de diffusion des innovations dépendra des industriels, des financements, des politiques et de l’acceptabilité de la société. »Si l’on veut passer à grande échelle sur des démonstrateurs sur des routes circulées, l’obstacle n’est plus le financement, mais le politique », défend-il.

Ces démonstrateurs devront intégrer plusieurs sous-ensembles de ces innovations. Il faudra évaluer la synergie entre les solutions techniques, mais également identifier les éventuels problèmes de mises en œuvre simultanées. Les premiers transferts industriels à grande échelle sont prévus d’ici 2020.

Quels en seront les coûts et comment les travaux seront-ils financés? C’est la grande inconnue pour le moment. Malheureusement, la mise au ban de l’écotaxe n’est pas actuellement une bonne nouvelle pour le financement de ces infrastructures. Il faudra donc rapidement concevoir de nouveaux outils de politiques publiques pour financer le déploiement des différentes combinaisons innovantes de la R5G à l’ensemble du territoire. Une chose est néanmoins sûre : « Si l’on arrive à faire des choses plus intégrées, préfabriquées et diffusées à grandes échelles, cela coûtera moins cher que d’avoir des technologies indépendantes les unes des autres qui se développent une à une », affirme Nicolas Hautière.

Plusieurs autres questions demeurent : Quelle sera la durée de vie de ces technologies par rapport à l’infrastructure? Comment traiter les données (big data) lorsque ces routes seront généralisées ? Faut-il privilégier le réseau autoroutier, les routes nationales ou les routes urbaines ? Comment prioriser les zones à installer ? Tout autant de défis à relever. Alors, la route de demain comprendra-t-elle une chaussée transparente, sous laquelle se trouveront des panneaux solaires, un fluide caloporteur, des capteurs et des matériaux bio-sourcés? Réponse prochainement !

La route de 5e génération permettra aussi de mieux gérer le trafic en faisant communiquer les véhicules entre eux et avec les infrastructures. Mais ceci est un autre défi que nous vous avons déjà raconté.

Par Matthieu Combe

Accord Russie-Ukraine sur le gaz : une trêve temporaire ?

Plus fondamental, l’acceptation à contrecœur de cet accord n’a pas signé la fin imminente d’une dispute politique plus profonde sur l’est de l’Ukraine. Cette impasse a entraîné la Russie et l’Occident dans leur conflit le plus dangereux depuis la Guerre Froide et a engendré la violence la plus sanglante en Europe depuis les conflits balkaniques des années 1990.

L’accord a été conclu après que l’Europe a négocié le payement de plus de 3 milliards de dollars d’arriérés de factures à Gazprom, le géant de l’énergie contrôlé par le Kremlin – et après que les deux côtés se sont inclinés devant les réalités financières.

« Ce que j’entends, c’est : ‘OK, si c’est pour amener du gaz a Kiev, nous sommes prêts à certains arrangements temporaires’ et le mot-clef des deux côtés semble être ‘temporaire’ » a dit Thane Gustafson, professeur en Science politique à l’université de Georgetown, dans une interview recueillie le 31 octobre à l’université d’Ottawa où il était venu assister à une importante conférence académique sur l’Ukraine.

La Russie fait présentement face à quantité de problèmes économiques, provenant du double pétrin financier des prix abaissés du pétrole et des sanctions économiques de l’Ouest. L’Ukraine, en dépit d’efforts frénétiques, n’est pas parvenue à rassembler suffisamment d’approvisionnements alternatifs pour couvrir ses besoins en gaz pour l’hiver. 

Il semble en outre que chaque côté ait été poussé de force vers un accord temporaire par l’Union européenne, laquelle avait pris ses propres mesures de précaution au cas ou la dispute se serait aggravée et ou l’approvisionnement russe aurait été coupé. La Russie avait en effet fermé les vannes au cours de disputes précédentes en 2006 et 2009, laissant certains foyers d’Europe dans le froid et forçant le rationnement des entreprises.

Après que la Russie a coupé son approvisionnement vers l’Ukraine en juin et exigé un pré-payement pour toute livraison future, les dirigeants européens ont constitué des réserves de gaz.

La réaction à Kiev et Moscou a renforcé le sentiment que cet accord ne revient finalement qu’à un répit dans la guerre du gaz, laquelle ne s’achèvera pas tant que les deux pays ne trouveront pas un arrangement politique au sujet de l’Ukraine de l’est.

Dans une interview 26 octobre, avant la conclusion de l’accord, le premier ministre de l’Ukraine, Arseni P. Iatseniouk, loin d’être un ami du Kremlin, a déclaré qu’il s’attendait à ce que les Russes pour finir coupent ou réduisent leurs livraisons de gaz après avoir eu leur argent.

« Mon sentiment est que la Russie répétera encore le même scenario de toujours, pour obtenir du liquide de l’Ukraine, et ensuite dira ‘vous savez, quelque chose a changé, et nous ne sommes pas prêts à fournir du gaz’ », a dit Iatseniouk.

Dans une déclaration après l’accord du 23 octobre, il a accusé la Russie de tentative de chantage sur l’Europe pour la faire abandonner un plan prévoyant que le gaz russe pourrait être acheminé en sens inverse, de la Slovaquie vers l’Ukraine, en cas de coupure.

Soulignant l’acrimonie de la situation politique globale, des officiels russes ont déclaré que non seulement on ne pouvait pas faire confiance a l’Ukraine pour payer ses dettes, mais qu’en fait, on pouvait s’attendre à ce que l’Ukraine vole une partie de l’approvisionnement russe vers l’Europe.

« C’est une énorme concession et une intention, d’abord et avant tout, de parvenir à un accord avec l’Union européenne et en partie de ne pas la laisser geler complètement » a déclaré à l’agence de presse RIA Novosti, Ivan Grachyov, président du comité énergie de la chambre basse du parlement russe. « Je pense que la Russie et l’UE ont compris que l’Ukraine siphonnerait le gaz illégalement de toute façon. Quoi qu’ils en disent, quand l’hiver les mettra aux abois, ils démarreront le siphonage sans autorisation. Cela, bien sûr, soulève des problèmes entre la Russie et l’Europe. »

Alexeï Miller, le directeur général de Gazprom, a dit que l’arrivée de l’hiver avait apparemment forcé le côté ukrainien à conclure l’accord du 23 octobre. Dans des interviews à la télévision russe, il a également noté que Gazprom n’avait pas donné son accord pour octroyer des crédits supplémentaires ou pour prendre de nouveaux risques par rapport à la situation financière de l’Ukraine, qui va en se dégradant.

« Le fait que l’accord a été signé maintenant, à la fin du mois d’octobre, au début de la saison automnale et hivernale, n’est pas une coïncidence », a dit Miller.

« Évidemment, cela a été influencé par le fait qu’il fait froid en Ukraine, qu’on a besoin de chauffage dans les maisons, la consommation de gaz est croissante ». L’accord requiert que l’Ukraine procède au payement d’un montant total de 3,1 milliards de dollars d’arriérés de factures de gaz avant la fin de cette année, en utilisant pour cela l’argent qu’elle a emprunté au Fond monétaire international. Elle sera ensuite en mesure d’acheter pour 1,5 milliards de dollars de plus à des prix négociés pour le restant de l’hiver, usant aussi largement de crédits de l’Ouest.

Cet accord a mis l’Union européenne dans une position inhabituelle de soutien vis-à-vis des efforts ukrainiens pour payer des milliards de dollars de dettes à Gazprom, et ce a peine quelques semaines après avoir imposé des sanctions économiques afin de faire pression sur la Russie pour qu’elle amende sa politique en Ukraine, y compris concernant son annexion de la Crimée en mars dernier.

Traduction : Alexandra Béliaeff

Produisez de l’eau potable pendant que vous pédalez !

Fontus, du nom romain du dieu des sources et des courants, est un projet développé par un designer industriel autrichien visant à collecter l’eau contenue dans l’air.

Le système imaginé consiste en un étui dissimulant des mini panneaux électriques. L’air ambiant pénètre dans Fontus à l’intérieur duquel il est refroidi, ce qui permet ensuite d’en prélever les particules d’eau. Les gouttelettes s’écoulent alors jusqu’au goulot d’une bouteille fixée en amont. Accroché sur un vélo, le système permettrait de produire 0.5L d’eau en 1 heure, dans des conditions optimales d’utilisation. D’après son concepteur, le prototype peut stocker 1 goutte d’eau par minute pour un air ambiant avec un taux d’humidité de 50% et une température supérieure à 20°C. Un filtre à l’entrée du système bloque les impuretés et autres poussières. En revanche, pour l’instant rien ne vient filtrer les polluants atmosphériques.

Fontus est initialement prévu pour être utilisé sur un vélo, la captation de l’eau se faisant pendant que l’utilisateur pédale. Mais un tel système pourrait avoir d’autres débouchés, humanitaires notamment. Ce système de captation de l’eau coûte entre 20 et 30€ mais son inventeur travaille à le faire baisser.

Le système de récupération de l’eau contenue dans l’atmosphère est connu depuis longtemps. Toutefois, son faible rendement n’a pas permis à ce procédé de se développer. Cela n’empêche pas certains projets concrets d’émerger depuis quelques années. Récemment nous vous présentions la Namib Beetle Desert, cette bouteille capable elle aussi de capter l’eau de l’air avec une production allant de 0.5L à 3L par heure, mieux que le Fontus. Mais comme lui, la NBD Nano n’est pas commercialisé et reste à l’état de projet. Pourtant, l’essor de ces solutions pourrait aider à pallier le manque d’eau potable dont souffrent certaines populations.

Par Audrey Loubens

Best of des IG Nobels… de médecine

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de médecine !

  • 1992 : le prix vint récompenser les chercheurs japonais F. Kanda, E. Yagi, M. Fukuda, K. Nakajima, T. Ohta et O. Nakata pour leur étude absolument indispensable sur l’ « élucidation des composés chimiques responsables des pieds malodorants ». Les travaux auraient été très remarqués, notamment pour leur conclusion, limpide : « les personnes qui pensent sentir des pieds sentiraient effectivement des pieds, alors que celles qui pensent ne pas sentir des pieds ne sentiraient pas des pieds »…

 

  • 1993 : l’Ig Nobel de médecine a été décerné à James F. Nolan, Thomas J. Stillwell, et John P. Sands, Jr., tous trois médecins, pour leur mémoire de recherche intitulé « Gestion correcte d’un pénis coincé dans une fermeture Éclair ».

 

  • 1996 : la récompense de cette année est quelque peu particulière, puisqu’elle vient faire écho aux auditions très médiatiques de quelques cadors de l’industrie du tabac (James Johnston de RJ Reynolds Tobacco Company, Joseph Taddeo de US Tobacco, Andrew Tisch de Lorillard, William Campbell de Philipp Morris, Edward A. Horrigan de Liggett Group, Donald S. Johnston de American Tobacco Company et Thomas E. Sandefur, Jr., président de Brown et Williamson Tobacco Company) à Washington, en 1994. Le prix leur revient de plein droit pour avoir soutenu sans sourciller devant le Congrès des États-Unis que la nicotine ne crée pas de dépendance.

 

  • 1999 : l’Ig Nobel de l’hygiène a été remis aux Américains George et Charlotte Blonsky, de New York et San Jose, Californie, pour avoir conçu un étonnant système permettant selon eux d’assister les femmes dans l’accouchement. Le principe est simple : on ligote une femme enceinte sur une table circulaire, que l’on fait tourner à grande vitesse. Cet objet de torture a été breveté par ses inventeurs dans les années 1960, mais il reste peu probable qu’il ait pu être utilisé.

Images tirées du brevet, copyright George et Charlotte Blonsky

 

  • 2002 : c’est au tour du Britannique Chris McManus de recevoir l’Ig Nobel de médecine, pour son étude de « l’asymétrie du scrotum chez l’homme dans les statues anciennes ». En observant l’asymétrie scrotale sur pas moins de 107 statues antiques ou datant de la Renaissance, Chris McManus a pu établir que la tendance visant à placer le testicule droit plus haut que le gauche était correcte (comme l’attestait déjà le fondateur de l’histoire de l’art, Johann Joachim Winckelmann), mais que les artistes avaient tort de matérialiser un testicule gauche plus gros.

De son côté, l’Espagnol Eduardo Segura a reçu l’Ig Nobel de l’hygiène, cette même année, pour avoir inventé « Lavakan de Aste », une machine à laver destinée aux chiens et aux chats. Animaux extrêmement apeurés au rendez-vous.

 

  • 2004 : les Américains Steven Stack et James Gundlach ont reçu l’Ig Nobel pour avoir publier un rapport détaillé sur « L’effet de la musique country sur le suicide », établissant notamment un lien fort entre la musique country et le taux de suicides chez les hommes blancs vivant dans des métropoles.

 

  • 2005 : le prix parodique fur décerné à Gregg A. Miller, originaire d’Oak Grove, dans le Missouri, pour avoir conçu des prothèses de testicules pour nos pauvres animaux domestiques castrés. D’abord pensées pour les chiens, les « Neuticles » devraient pouvoir redonner un peu de fierté à n’importe quel animal blessé au plus profond de sa virilité. Ces substituts de puissance sont disponibles en trois tailles, avec également trois niveaux différents de fermeté – ce qui ne gâche rien.

Crédit Photo : Gregg A. Miller/Neuticles.com

 

  • 2006 : l’Ig Nobel de médecine vint récompenser Francis M. Fesmire, de l’université du Tennessee, pour son rapport d’étude clinique sur le soulagement du hoquet récalcitrant grâce à un délicat massage rectal digital. Également distingués par l’Ig Nobel, Majed Odeh, Harry Bassan et Arie Oliven, du centre médical Bnai Zion, à Haïfa, Israël, pour avoir traité exactement le même sujet… un an et demi plus tard.

 

  • 2008 : le prix fut décerné à Dan Ariely, chercheur à l’université Duke, à Rebecca Waber du MIT, à Baba Shiv de l’université Stanford, ainsi qu’à Ziv Carmon de l’INSEAD de Singapour, pour avoir démontré l’incidence du prix d’un placebo sur son efficacité. Selon les résultats de leurs travaux, plus un placebo est cher, plus il serait efficace.

 

  • 2011 : Mirjam Tuk, Debra Trampe et Luk Warlop, ainsi que Matthew Lewis, Peter Snyder, Robert Feldman, Robert Pietrzak, David Darby et Paul Maruff remportent le prix en 2011 pour avoir réussi à démontrer que l’on peut prendre, dans certains cas, de meilleures décisions lorsqu’on a un besoin urgent d’uriner, mais que l’on peut tout de même prendre de moins bonnes décisions dans d’autres cas.

 

  • 2012 : le prix a été remis cette année aux Français Emmanuel Ben-Soussan et Michel Antonietti, pour avoir expliqué de manière didactique au corps médical comment minimiser le risque d’explosion d’un patient suite à une coloscopie, notamment en procédant à un nettoyage et à une préparation adéquats de l’intestin, afin d’éviter l’accumulation de gaz jusqu’à une concentration explosive.

Diagramme des 20 cas d’explosions de colon. Copyright Ben Soussan/Antonietti

 

  • A venir : le best of des IG Nobels… de chimie

Par Rahman Moonzur

Grenoble, bientôt libérée de la publicité ?

Des arbres en lieu et place de pub ? Un vent de renouveau flotte dans l’air grenoblois depuis l’annonce choc de son maire Eric Piolle. Son souhait de bouter la publicité hors de Grenoble a fait tousser bon nombre de publicitaires, encore étourdis du culot de l’écologiste. Tandis que les citoyens grenoblois imaginent déjà un monde sans pub, aux allées bordées de verdure et non de slogans. Mais qu’en est-il vraiment ? Une ville du gabarit de Grenoble, où vivent plus de 150 000 habitants peut-elle sérieusement se passer de publicité  et des rentrées d’argent qui vont avec ? Sans compter le financement de certains équipements comme les abribus. Mais on n’en est pas encore là. 

La décision de l’équipe municipale profite en fait de l’arrivée à son terme d’un contrat passé avec JCDecaux, géant du monde de la publicité.  Le maire y voit l’occasion de lutter contre la pollution visuelle et les panneaux publicitaires de grande taille jugés trop agressifs.  « La municipalité fait le choix de libérer l’espace public grenoblois de la publicité en développant les espaces d’expression publique et ne lance pas de nouvel appel d’offre pour de l’affichage publicitaire. » indique le communiqué de presse publié par la mairie. Eric Piolle avait fait cette promesse lors de sa campagne. Adieu donc à 227 panneaux appelés « sucettes », ceux qui font moins de 2 mètre de hauteur, 20 colonnes et surtout 64 grands panneaux de 8m². Ce sont donc 326 panneaux d’affichages en tout qui vont être retirés d’ici mai 2015, et non la totalité des espaces publicitaires. D’ailleurs, les publicités dans les transports publics restent en place ainsi que les abribus,  le contrat les concernant se terminant en 2019. 

Toutefois, cette démarche est une grande première et servira de test. Les espaces libérés correspondent  à 2051 m² de surface publicitaires qui rapportaient chaque année 600 000€ à la ville. Une perte de recettes minimisée par l’équipe en place qui estime ne renoncer en fait qu’à 150 000€ : « En raison de l’effondrement des recettes publicitaires traditionnelles, avec la concurrence notamment d’Internet, la redevance à laquelle on pouvait s’attendre, en cas de nouveau contrat, n’était que de 150 000 euros et non plus de 600 000 euros comme c’était le cas entre 2004 et 2014. » précise le dossier de presse.

A la place des panneaux publicitaires, la ville a décidé de planter des arbres dont une cinquantaine avant le printemps prochain. Certains espaces libérés seront quand à eux utilisés pour de l’affichage de plus petite taille, principalement à destination des piétons, pour relayer des informations de la vie publique comme les évènements organisés par les écoles, associations… de la pub pour la ville en somme !

Par Audrey Loubens

Rénover le dépistage du mélanome cutané avec « Gigapixel »

Parmi les différentes formes de cancer de la peau – les sarcomes, les mélanomes et autres carcinomes – le mélanome cutané est celui présentant le taux de mortalité le plus élevé. Pourtant, s’il est dépisté suffisamment tôt, le mélanome est presque toujours guérissable. Une équipe de chercheurs américains a mis au point un nouvel outil photographique capable de fournir des images à très haute résolution de la peau d’un patient, afin d’aider les médecins dans leur travail de dépistage, et peut-être ainsi permettre d’inverser la courbe du nombre de décès en France et dans le monde, en constante augmentation.

Le mélanome cutané en quelques chiffres

Les chiffres ont de quoi faire frémir : avec 1620 décès pour 9780 nouveaux cas répertoriés dans l’hexagone en 2011, et 1672 décès pour 11 176 nouveaux en 2012, le mélanome cutané est un véritable problème de santé publique. Sa progression est effarante, le nombre de cas ayant plus que triplé ces trente dernières années – l’incidence en France est même passée de 2,5 à 10,8 pour 100 000 hommes entre 1980 et 2012, et de 4 à 11 pour 100 000 femmes sur la même période.
Aux États-Unis, le mélanome est le cinquième type de cancer le plus répandu, mais c’est également le cancer de la peau présentant la mortalité la plus élevée, totalisant à lui tout seul plus de 75 % des cas de décès dus à un cancer de la peau.

Derrière « Gigapixel », l’université Duke… et la DARPA

Développé par une équipe de chercheurs de l’université américaine de Duke, en Caroline du Nord, le « Gigapixel » est un appareil à la trajectoire étonnante. Conçu sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires, le « Gigapixel » devait venir grossir les rangs des outils mis à la disposition de l’armée américaine. Il n’en est pourtant rien : le dispositif devrait pouvoir aider à dépister plus tôt certains cancers de la peau, et ainsi sauver des vies, en fournissant une image exploitable en haute définition de la peau d’un patient.

Un objectif pour 34 micro-caméras disposées en dôme

Au premier abord, l’appareil semble n’être pourvu que d’un gros objectif tout simple, encastré dans un imposant caisson métallique. Mais l’objectif cache bien son jeu, puisqu’il dissimule sous son capot l’équivalent de trente-quatre petites caméras, dont la disposition pourrait rappeler un télescope et ses oculaires. L’agencement de ces 34 micro-caméras ne doit rien au hasard : l’organisation en dôme vient corriger les imperfections et les irrégularités dues à l’objectif, tout en fournissant une image continue du sujet photographié. Le temps d’exposition et la mise au point de chaque mini-caméra peuvent se régler de manière indépendante, et un ordinateur réalise un examen préliminaire des images afin de déterminer si certaines zones pourraient nécessiter une plus grande attention de la part d’un spécialiste.
« L’appareil est conçu pour débusquer des lésions qui pourraient être indicatrices d’un cancer de la peau, ces lésions pouvant se trouver à un stade moins avancé que celles dépistées par les techniques actuelles d’examen », explique Daniel Marks, l’un des co-responsables du projet. « Normalement, un dermatologue examine soit une une petite région de la peau avec force détails, ou une plus grande région avec des images basse résolution », continue-t-il. Ici, « Gigapixel » devrait offrir bien plus qu’un simple compromis.

Encourager la télémédecine avec une alternative à la dermatoscopie digitale

Bien que l’utilisation de la photographie d’un corps entier pour différencier les mélanomes des lésions dites stables ne présente pas en soi une nouveauté, l’approche est généralement limitée par la résolution de la caméra utilisée. Un simple grand angle est insuffisant pour ensuite permettre au dermatologue de zoomer là où il le désire. Le spécialiste se replie donc souvent sur la dermatoscopie digitale, une technique qui va révéler – sur une très petite zone de peau – les microstructures et les couleurs invisibles à l’œil nu. Bien que la résolution de Gigapixel soit inférieure à celle du meilleur dermatoscope, elle reste bien supérieure à celle d’un appareil standard ; autre avantage, cet appareil encourage la pratique de la télémédecine, le spécialiste n’ayant pas nécessairement besoin d’être présent pour établir un diagnostic.

Par Moonzur Rahman

Facebook prépare son propre site réservé aux relations professionnelles

Cela s’appellerait « Facebook at work ». Le nouveau réseau social sur lequel travailleraient les équipes de Facebook s’adresse uniquement aux professionnels. L’objectif est de leur procurer un outil leur permettant de discuter entre eux et de travailler collectivement sur des documents. Une sorte d’intranet mais à la sauce Facebook, avec un affichage similaire présentant un fil d’actualités. Cette version doit aussi permettre de développer son réseau et d’interagir avec d’autres professionnels. De quoi rentrer en concurrence directe avec LinkedIn dont c’est le cœur de métier. Mais fort de ses 1.35 milliards d’utilisateurs actifs mensuels, Facebook n’a pas peur de la compétition. D’autant que ce copié/collé de Facebook en mode « Pro » permettrait de maintenir une activité tout au long de la journée, ce qui n’est pas le cas puisque de nombreux salariés ne peuvent accéder à Facebook sur leur lieu de travail, le réseau social étant souvent bloqué pour éviter que les travailleurs ne perdent trop de temps à liker telle ou telle actu. Une baisse d’activité qui pourrait être efficacement compensée par Facebook at work.

Toutefois, le créateur de Facebook Mark Zuckerberg n’a pas encore confirmé ce projet dont le secret a été éventé par nos confrères du Financial Times. Pourtant, d’après les journalistes, Facebook at work serait fonctionnel. Pour preuves, les employés de Facebook l’utiliseraient déjà en interne.

Par Audrey Loubens, journaliste scientifique

L’empreinte carbone des Français peut être réduite sensiblement d’ici à 2030 (étude)

Ce résultat correspond à l’émission d’environ sept tonnes de gaz à effet de serre par personne et par an en 2030, précise l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) dans une étude consacrée aux moyens d' »alléger l’empreinte environnementale de la consommation des Français en 2030″.

Selon l’agence, l’empreinte carbone (émission de CO2) liée à notre consommation peut être sensiblement allégée dans « les deux secteurs les plus impactants, le bâtiment et la mobilité, avec une baisse supérieure à 35% en 2030 (par rapport à 2007) pour le premier et supérieure à 25% pour le second ».

L’Ademe constate que « les dépenses des ménages français ont connu une hausse sans précédent depuis plus de cinquante ans » et que « ce niveau élevé de consommation » s’accompagne d’une augmentation de notre empreinte environnementale (énergie, carbone, eau, consommation de ressources, recul de la biodiversité…).

Pour l’alléger, il faut « faire évoluer notre système de +production-consommation+ et changer nos habitudes et routines de citoyens-consommateurs », souligne-t-elle.

Concrètement, elle recommande notamment d' »améliorer le confort et l’efficacité thermique » des logements, de réduire la part des maisons individuelles dans les constructions neuves au profit du petit collectif (50/50 en 2030 contre 58/42 aujourd’hui).

En matière de mobilité, l’Ademe préconise de développer l’usage des transports en commun pour qu’ils représentent 28% des déplacements en 2030 contre 21% actuellement, mais aussi d’encourager le vélo, la marche, l’autopartage et le covoiturage. Elle suggère en 2030 « une part de marché pour les véhicules neufs de 10% de véhicules électriques et 22% d’hybrides rechargeables ».

L’agence appelle à « réduire drastiquement le gaspillage alimentaire, à chaque étape de la chaîne alimentaire, en visant une baisse de 60% de 2007 à 2030 ».

Elle recommande aussi d’allonger la durée de vie des équipements électriques et électroniques tout en améliorant leur efficacité énergétique. Dans le cadre d’une « économie circulaire », il faudrait développer « des filières de récupération et de valorisation » de ces équipements, souligne-t-elle.

Globalement, il s’agit de « passer d’une société de la quantité à une société de la qualité », au moment où « le souhait de changer la société en profondeur n’a jamais été aussi fort qu’aujourd’hui » et où « de nouveaux modes de consommation prometteurs émergent ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La première piste cyclable solaire testée aux Pays-Bas

Connus pour être adeptes du vélo, les Hollandais vont désormais pouvoir tester leurs deux-roues sur une piste d’un nouveau genre, une chaussée solaire. La  SolaRoad située au nord d‘Amsterdam a été inaugurée le 12 novembre. Il s’agit en réalité d’un tronçon de route et non une route entière, mais les 70 m recouverts de panneaux solaires vont permettre de confronter le concept à la réalité. Ce sont donc des éléments rectangulaires de 2,5 m sur 3,5 m de béton recouverts de capteurs photovoltaïques qui vont produire de l’énergie.  D’après le porte parole du projet Jannemieke van Dieren, le rendement obtenu sur 16 jours de fonctionnement correspond à 140 kWh. Cette électricité est injectée dans le réseau électrique public mais pourrait très bien servir à alimenter les éclairages publics ou recharger les batteries des véhicules électriques.

Au cours des prochains mois, les ingénieurs du projet vont tout particulièrement s’intéresser à la durée de vie des panneaux solaires. Avec une fréquentation de 2000 vélos par jours, la route va être fortement sollicitée. La piste cyclable est recouverte de verre trempée et d’anti-dérapant, mais rien n’est prévu pour la protéger de l’accumulation de poussières et autres débris susceptibles d’altérer le fonctionnement des capteurs solaires en cachant les rayons du soleil.

Le projet a coûté près de 3 millions d’euros. Si le test est concluant, d’autres pistes solaires pourraient bien fleurir aux Pays-Bas.

Par Audrey Loubens, journaliste scientifique

Revue du web #70 : les vidéos les plus étonnantes de novembre 2014

Cette semaine dans la revue du Web :

  • Découper du marbre ? Un jeu d’enfant !
  • Faire tomber une boule de bowling et une plume dans une chambre à vide ;
  • Un fluide non-newtonien sur une baffle, en slow-motion ;
  • Course de drones : crash session ;
  • Le gadget (inutile ?) de la semaine : une machine de Goldberg lumineuse ;
  • Bonus : une sublime aurore boréale en Norvège.

Découper du marbre ? Un jeu d’enfant !

Rentrer dans du marbre comme si c’était du beurre ? Pour débuter cette soixante-dixième Revue du Web, penchons-nous sur le travail de Lucas Ter Hall et de Jelle Feringa, deux jeunes Hollandais derrière « Carrara Robotics », un projet soumis lors du Rob|Arch 2014, la conférence internationale sur la fabrication robotique dans l’architecture, l’art et le design. De la même manière que pour l’acier ou pour n’importe quel autre matériau fragile et/ou très dur, les scies à fil ou à ruban diamanté se jouent du marbre comme s’il était prédécoupé.

La procédure est très simple : il suffit de modéliser au préalable les formes et les courbes souhaitées pour que le logiciel de guidage de la scie fasse le reste. Idéale pour réaliser une découpe millimétrée, cette technique permet de laisser libre cours à sa fibre artistique en repoussant un peu plus loin les limites du réalisable.

Faire tomber une boule de bowling et une plume dans une chambre à vide :

Brian Cox possède plusieurs cordes à son arc : physicien britannique travaillant au CERN à Genève, il est également connu pour avoir été clavier du groupe D:Ream dans les années 1990, et est toujours présentateur d’émissions scientifiques pour la BBC Two. C’est cette dernière casquette qui nous intéresse ici, puisqu’on le retrouve au Space Power Facility de la NASA, dans l’Ohio, pour un programme court diffusé sur la chaîne anglaise. Sa présence dans cet État du Nord-Est américain ne doit rien au hasard, puisque s’y trouve la plus grande chambre à vide du monde, une chambre de simulation d’environnement spatial de plus de 30 mètres de diamètre pour une hauteur de 37,2 mètres, soit un volume avoisinant les 23 000 mètres cubes.

L’équipe anglaise va se servir de ce gigantesque terrain de jeu pour comparer la chute d’une boule de bowling avec celle de quelques plumes suspendues, libérées au même instant t, d’abord dans des conditions normales, puis dans le vide « presque » absolu. Notons qu’il faut pas moins de trois heures pour faire le vide dans cette colossale construction d’aluminium et d’acier. On vous laisse admirer la chute, un joli moment de poésie suspendue… Bien que le résultat soit connu à l’avance, on se retrouve le sourire aux lèvres, tout comme ces scientifiques à qui il est donné de voir pour la première fois une chose attendue mais absolument fascinante.

Un fluide non-newtonien sur une baffle, en slow-motion

Le réalisateur anglais Gavin Free et son ami Daniel Gruchy sont monomaniaques. Les deux « Slow-Mo Guys » se sont faits un nom sur la toile en se lançant dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la très bonne habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti. Pour ce faire, rien de tel qu’une « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde.

Les deux compères rigolards s’attaquent cette fois-ci à un morceau de choix, en filmant le comportement d’un fluide non-newtonien sur une baffle. La viscosité de ce type de fluide, variable, change notamment en fonction de la vitesse et des contraintes qui leur sont appliquées. Par exemple, un fluide non-newtonien aura tendance à se solidifier si on lui applique une pression suffisamment élevée. Il devient alors possible de « marcher sur l’eau », tel un Christ de pacotille, si l’on remplace l’eau par ce blob d’apparence visqueuse. Ici, les contraintes exercées par les ondes acoustiques du haut parleur sur le fluide entraînent ce dernier dans une danse suave et organique, magnifiée par la beauté étrange du ralenti. A voir !

Course de drones : crash session

Les courses de Pod Racers à la sauce « Guerre des Étoiles », ça vous rappelle quelque chose ? Nous vous présentions dans la précédente Revue du Web l’association « Airgonay », de sympathiques pilotes de drones amateurs laissant libre cours à leur passion dans une forêt de la petite commune de Haute-Savoie, un cadre idéal pour pouvoir en découdre en bonne intelligence. On pouvait alors entrevoir le calme olympien de ces talentueux pilotes du dimanche, un contraste saisissant avec la nervosité de ces drôles de petits bolides, capables d’effacer sans douleur les très nombreux obstacles jalonnant le parcours boisé. Les pilotes sont assistés par une caméra embarquée et par un dispositif vidéo… offrant un rendu génial assez proche d’un jeu en FPV (« First Person View », ou vol en immersion).

Conscients que la première vidéo de leur rassemblement aurait pu laisser croire que des courses de ce type pourrait se faire sans aucun raté, les dronistes ont publié une autre vidéo baptisée « crash session », dont le titre a le mérite d’annoncer la couleur. S’y succèdent anicroches en tous genres et arrêts au stand, rappelant si besoin que ces petits bolides sont particulièrement coriaces et que piloter l’un d’entre eux n’est pas une mince affaire.

 

Le gadget (inutile ?) de la semaine : une machine de Goldberg lumineuse

Notre gadget (inutile?) de la semaine vient réinventer la désormais classique machine de Goldberg… Les Japonais de « au Hikari », un fournisseur d’accès à internet via fibre optique, se sont fendus d’un petit clip publicitaire viral baptisé « The power of Optics », venant dépoussiérer l’œuvre de Rube Goldberg avec force loupes, miroirs et autres dispositifs optiques. On y suit le cheminement héroïque d’un seul et unique rayon lumineux à travers de multiples obstacles, un rayon qui se débarrasse tour à tour de quelques ficelles, d’un ballon ou allant jusqu’à faire fondre un peu de glace. Un plaisir pour les yeux !

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de petites tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : une sublime aurore boréale en Norvège

Pour conclure notre soixante-dixième Revue du Web, allons faire un petit tour dans l’une des contrées les plus septentrionales de notre planète. Située au nord du cercle polaire arctique, la ville norvégienne de Tromsø est connue pour être l’une des très nombreuses « Paris du nord » – oui, l’expression est quelque peu galvaudée. Mais pas seulement : sa position géographique extrême en fait un point d’observation privilégié pour les plus grosses aurores boréales.

La preuve ? Filmées le 18 octobre dernier, ces images montrent une aurore boréale d’une rare intensité, dont les ondulations et les teintes successives offrent un spectacle absolument fascinant.

Par Moonzur Rahman

Deux nouvelles particules découvertes au Cern

L’existence de ces particules baptisées Xi_b’- et Xi_b*- est prédite par la théorie, mais jusqu’à présent, elles n’avaient jamais pu être observées.

Ces nouvelles particules sont des baryons, famille dont les membres les plus célèbres sont le proton et le neutron.

Les baryons sont constitués de trois quarks, des constituants élémentaires liés entre eux par ce qu’on appelle « la force forte ».

L’existence de ces deux nouvelles particules a été mise en évidence grâce à des expériences menées en 2011 et 2012 sur le grand accélérateur de particules LHC, situé à la frontière entre la Suisse et la France.

L’étude a été menée notamment par Matthew Charles, du Laboratoire de physique nucléaire (CNRS/UPMC/Université Paris Diderot), en collaboration avec un chercheur américain.

La mesure des propriétés des deux nouvelles particules « contribue à une meilleure connaissance de la théorie d’interaction forte dans le cadre du Modèle standard de la physique des particules », souligne le CNRS français (Centre national de la recherche scientifique) dans un communiqué.

Les interactions fortes sont responsables de la cohésion de la matière nucléaire.

Pendant longtemps, la description théorique de ces interactions a présenté un défi pour les physiciens.

Puis, un progrès décisif a été accompli lorsqu’on a compris qu’elles sont toutes liées à un principe géométrique. Autour de 1970, est né le schéma théorique du Modèle standard, qui décrit les particules fondamentales de la matière, la manière dont elles interagissent et les forces qui s’exercent entre elles.

Une particule de la même famille, Xi_b*0, avait déjà été observée en 2012 grâce au grand collisionneur LHC, le plus grand du monde.

C’est lui également qui a permis de découvrir le célèbre Boson de Higgs, considéré par les physiciens comme la clef de voûte de la structure fondamentale de la matière, la particule élémentaire qui donne leur masse à nombre d’autres, selon la théorie du Modèle standard.

Le LHC se trouve actuellement en phase de préparation, après un long arrêt, en vue d’un fonctionnement à des énergies plus élevées et avec des faisceaux plus intenses. Son redémarrage est prévu au printemps 2015.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un pulsar remettrait en cause la limite d’Eddington

Il a fallu combiner trois télescopes pour le déceler – dont le Nuclear Spectroscopic Telescope Array (NuStar) – dans la galaxie que l’on surnomme la galaxie du Cigare. Il faut dire que sa découverte n’était pas préméditée. C’est en étudiant une supernova dans un voisinage « proche » que Fiona Harrison et l’équipe de chercheurs ont découvert cette source extrêmement lumineuse. 

C’est d’ailleurs la caractéristique qui a frappé les scientifiques. L’astre dégage une énergie incroyable et a immédiatement été considéré comme une source x ultralumineuse (ULX). À tel point qu’ils l’ont tout d’abord pris pour un trou noir, l’hypothèse la plus courante dans ce genre de cas. Sauf que l’objet émet un rayonnement périodique, toutes les 1,37 secondes.

Les chercheurs l’ont donc placé dans la catégorie des pulsars, qui se trouvent être par définition des « étoiles à neutrons en rotation rapide ». Plus précisément, ce sont les résidus compacts agglomérés, issus de l’explosion d’une étoile massive; ce phénomène est appelé supernova à effondrement de coeur. 

Ce qui est fascinant, c’est que jamais auparavant, un pulsar de cette taille n’avait montré un tel condensé d’énergie. Il brillerait 100 fois plus que les pulsars déjà répertoriés. L’étoile à neutrons défie même la limite théorique dite  « limite d’Eddington » qui fixe le rapport masse / luminosité d’une étoile. « C’est la plus extrême violation de cette limite que nous ayons jamais vue », a déclaré Dom Walton, co-auteur avec Fiona Harrison de l’étude parue sur la revue Nature.

Les scientifiques n’ayant pas encore d’explication à ce phénomène, voilà un nouveau sujet qui devrait les maintenir en haleine et peut-être apporter davantage de connaissance sur certains mystères de l’Univers.

Par Sébastien Tribot

Pyrénées: pas un seul facteur de surmortalité des abeilles (expertise)

Les services de l’Etat ont « conduit leurs investigations chez 52 apiculteurs, parmi les 58 ayant déclaré des pertes de cheptel (dans les Pyrénées orientales et l’Ariège, ndlr), et dans 25 élevages à proximité des ruchers touchés », indique la préfecture des Pyrénées orientales, dans un communiqué publié à Perpignan.

Les apiculteurs soulevaient l’hypothèse d’une exposition des colonies aux substances chimiques utilisées en élevage.

Mais « les résultats d’analyses ne permettent pas, en l’état, de conclure à une origine commune et unifactorielle pour l’ensemble des départements touchés », a fait savoir la préfecture, citant des experts scientifiques apicoles.

Selon la responsable de la Direction départementale de la protection de la population, Chantal Berton, jointe par l’AFP, « cette enquête a permis de mettre en évidence, à l’état de traces, la présence d’agents pathogènes et de substances chimiques connues pour des usages divers: utilisation phytosanitaire, usage sanitaire et biocide en élevage, usage apicole ».

Jean-Philippe Antoine, porte-parole du Collectif des apiculteurs sinistrés des Pyrénées-Orientales, s’est félicité que les experts aient « enfin reconnu la présence de pesticides » dans les ruches. « Or nous apiculteurs, nous n’utilisons pas de pesticides, à la différence des éleveurs », a-t-il déclaré.

Les produits chimiques utilisés par les apiculteurs, eux, « n’ont jamais tué les abeilles », a-t-il assuré.

Le porte-parole a cependant regretté que les experts « noient le poisson en essayant de minimiser » l’impact des pesticides. « Ils sont sous l’emprise du lobby phytochimique », a-t-il accusé.

« Ca ne s’arrêtera pas là », a ajouté le porte-parole, regrettant qu' »aucune aide financière supplémentaire » n’ait été proposée, tandis que les apiculteurs des Pyrénées-Orientales seules ont chiffré à « un million d’euros » le budget nécessaire pour relancer localement la filière.

M. Antoine s’est malgré tout félicité de l’annonce par les experts de la mise en place d’un protocole de surveillance spécifique afin de poursuivre les études.

Cette surveillance, menée sur des ruchers-tests, devrait être réalisée dans des zones ciblées, dans les Pyrénées et les Alpes, dès cet hiver et sur deux saisons.

« Plus de 5.000 ruches ont été déclarées comme mortes » au cours de l’hiver dans les Pyrénées orientales et l’Ariège, selon M. Antoine.

La surmortalité des abeilles touche l’ensemble de la France et l’Europe, relançant le débat sur l’usage des pesticides. En 2013, Bruxelles a interdit pour deux ans l’usage de trois d’entre eux jugés en partie responsables de cette situation.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Présentation d’Ariane Mizrahi – Journée professionnelle Techniques de l’Ingénieur du 6 novembre 2014

Revivez l’intégralité la présentation du 06/11/14 d’Ariane Mizrahi, directrice éditoriale de Techniques de l’Ingénieur, concernant les évolutions récentes et à venir de l’offre éditoriale de Techniques de l’Ingénieur.

Au programme :

1/Les ressources documentaires de Techniques de l’Ingénieur

2/ Les acteurs de la production éditoriale chez Techniques de l’Ingénieur

3/ Le processus éditorial chez Techniques de l’Ingénieur

4/ Nouveautés éditoriales 2012-2014 chez Techniques de l’Ingénieur

5/ A venir chez Techniques de l’Ingénieur d’ici 2017

6/ Questions/réponses à propos de l’offre éditoriale de Techniques de l’Ingénieur

Des étudiants fabriquent un purificateur d’eau pour moins de 50€

Voilà un projet d’étude utile. Les élèves en génie mécanique de l’université australienne d’Adélaïde ont relevé le défi de fabriquer un dispositif capable de rendre l’eau potable. Ces étudiants ont brillamment réussi puisque le dispositif créé fonctionne parfaitement. Il s’agit d’un tube en verre d’1,50 m placé dans une tranchée tapissée d’emballages de paquets de chips. La réflexion des rayons du soleil sur la face brillante des sachets amplifie le phénomène de désinfection solaire bien connu et reconnu par l’OMS comme une méthode de traitement de l’eau. Comment cela fonctionne ? Les UVA réagissent avec l’oxygène de l’eau pour produire des peroxydes d’hydrogène capables de détruire les agents pathogènes. Les UVA agissent aussi en détruisant la structure de la cellule des bactéries.

Enfin, les radiations infrarouges augmentent la température de l’eau, ce qui accélère le processus de désinfection. Ainsi, ces trois actions du rayonnement solaire purifient l’eau de façon à ce qu’elle puisse être bue.

Le gros avantage de cette approche est son faible coût, les seuls accessoires étant un gros cylindre en verre et des emballages de chips  récupérés. Le dispositif coûte en tout et pour tout à peine 50€ et permet de purifier 40L en 4 heures. Une quantité qui peut être accrue en rajoutant un autre tube en verre par exemple.

L’association ChildFunf Australia est très enthousiaste face à ce purificateur d’eau et prévoit déjà de le déployer en Papouasie-Nouvelle-Guinée, l’objectif étant de fournir aux populations locales un moyen de traiter l’eau sur place facilement. 

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’éolienne flottante commence à se dresser au large de Fos-sur-mer

Vertiwind est un projet d’éolienne innovant. Fini l’éolienne avec un mât vertical surplombé d’un moteur avec trois pâles. Cette nouvelle éolienne offshore, développée par la start-up lilloise Nenuphar en partenariat avec EDF Energies nouvelles et Technip, doit apporter un second souffle au développement de l’éolien en France. L’objectif du Grenelle de l’environnement vise les 8000 éoliennes en service d’ici 2020, soit 25 000 MW dont 6 000 MW fournis par des éoliennes installées en mer. Un objectif ambitieux sachant qu’en 2012, les sources d’énergies renouvelables dont l’éolien  (hors hydraulique) atteignaient péniblement 4,6% de la production totale. Toutefois, l’éolien est l’énergie renouvelable qui progresse le plus. 

L’éolien offshore devrait aider à respecter les engagements du Grenelle. Surtout que la limite maximale des 35m de profondeurs d’eau est en passe d’être levée. En effet, Vertiwind a été conçu justement pour pouvoir être implantée quelle que soit la profondeur. Pour y parvenir, le secret de cette éolienne réside dans son architecture avec un axe vertical et le moteur positionné « en bas ».Ce faisant, le centre de gravité est abaissé en comparaison d’une éolienne classique, le système est moins haut et plus compact, de quoi assurer une stabilité suffisante pour laisser flotter l’éolienne à la surface de l’eau. Du coup, plus besoin de fixer l’éolienne au fond. Cela ouvre des perspectives d’implantations nouvelles. Autre avantage, les ouvriers de maintenance n’auront plus à grimper aussi haut pour travailler sur les pâles ou le moteur.

Fos-sur-Mer, commune des Bouches-du-Rhône située à 40 km à l’Ouest de Marseille,  est plutôt connue pour ses industries et les activités liées au raffinage. Pourtant, depuis quelques années, des sources d’énergie renouvelables s’imposent dans le paysage et des éoliennes fleurissent parmi les cuves et les cheminées. Une évolution cohérente avec l’implantation d’un démonstrateur d’éolienne flottante au large des côtes fosséennes.

D’après le calendrier de Vertiwind, les premiers essais de l’éolienne flottante s’effectueront dès 2015. Les premiers tests se feront proche de rivage puis de plus en plus loin, jusqu’à 20 km au large. Si le succès est au rendez-vous, c’est tout un parc de 13 éoliennes flottantes qui sera bâti au large de Fos-sur-mer, chacune avec une puissance allant jusqu’à 3 MW.

Par Audrey Loubens