USA: dans l’Atlantique, l’éolien a deux fois plus de potentiel que le pétrole

Selon cette recherche publiée mercredi, l’énergie éolienne offshore pourrait créer en 13 ans sur la côte atlantique américaine plus d’électricité que tous les forages pétroliers et de gaz offshore, soit l’équivalent de cinq milliards de barils de pétrole.

En outre, la prospection et la production pétrolière et de gaz envisagées au large des côtes de l’Atlantique menaceraient près de 1,4 million d’emplois et plus de 95 milliards de gains économiques engendrés par la pêche et le tourisme, en raison de son impact néfaste sur les écosystèmes océaniques, estime Oceana.

Le rapport d’Oceana remet en question de récentes projections de l’industrie pétrolière selon lesquelles le forage offshore sur la côte est des Etats-Unis contribuerait à rendre le pays indépendant en terme d’énergie, créerait des milliers d’emplois et engendrerait des millions de dollars de revenus pour les Etats.

En outre, selon Oceana, ces estimations s’appuient sur l’hypothèse de la récupération d’hydrocarbure et de gaz naturel qui ne sont pas économiquement exploitables.

« Il est temps que les Etats-Unis s’inspirent de ce qui se fait ailleurs dans le monde –notamment en Europe– depuis plus de vingt ans dans l’éolien offshore pour produire de l’énergie propre et renouvelable sur nos côtes », estime Andrew Menaqual, un analyste du secteur énergie d’Oceana auteur de ce rapport. Les Etats-Unis sont effectivement en retard dans ce domaine mais les projets se multiplient désormais.

L’Etat du Massachusetts (nord-est) a lancé en 2014 un appel d’offre pour la construction du plus grand parc éolien offshore jamais construit dans le pays, qui s’étendra sur 300.000 hectares au large de ses côtes.

Le Bureau de gestion de l’énergie océanique a déjà accordé sept concessions pour des projets du même type dans l’Atlantique au large du Delaware (est), du Rhode Island (nord-est), du Maryland et de la Virginie (est).

Dans l’Union européenne, le cap des 2.000 éoliennes offshore installées et des 6.500 mégawatts en fonctionnement a été franchi fin 2013.

Oceana estime également que les effets néfastes sur l’environnement marin de l’exploitation pétrolière commenceraient bien avant les forages eux-même.

En juillet 2014, l’administration Obama a décidé d’examiner l’utilisation de canons à air comprimé, qui produisent des déflagrations comme de la dynamite, pour détecter des dépôts de pétrole et de gaz au fond de l’Atlantique, dans une zone qui fait deux fois la superficie de la Californie, du Delaware à la Floride.

Selon le gouvernement, cette technique pourrait avoir des effets néfastes sur les poissons et 138.000 mammifères marins comme les baleines et les dauphins, selon Oceana.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La fusée Ariane 6 est prévue pour 2020 !

Depuis l’arrivée sur le marché spatial d’un acteur peu commun, la société américaine SpaceX dirigée par Elon Musk, les règles du jeu semblent avoir changé. Les prix sont cassés, « low-cost » peut-on lire parfois. Un lancement américain revient à 45 millions d’euros contre 130 pour Ariane 5. Il faut dire que la conception d’Ariane 5 remonte aux années 90 et comporte aujourd’hui quelques faiblesses dont la principale est son coût de lancement comme on le disait plus haut, très onéreux lorsqu’il est impossible d’envoyer deux satellites en même temps. À l’heure actuelle, la fusée lourde bénéficie d’une estime mondiale gagnée au fil du temps grâce à sa fiabilité, mais il n’est pas impensable que ses concurrents grignotent petit à petit des parts de marché jusqu’à obtenir le leadership dans ce domaine.

Pour cette raison, les Européens ont choisi de ne pas faire une version évoluée d’Ariane 5 mais de créer un nouveau lanceur économiquement compétitif et d’utilisation plus souple. Deux déclinaisons verront le jour (A62 et A64) afin de répondre aux différents besoins des clients. Si l’architecture des deux fusées sera plus ou moins identique – elle comportera trois étages et une coiffe sur une hauteur de 70 mètres – il y aura tout de même quelques variables. Par exemple, A62 ne pèsera que 500 tonnes et disposera de 2 boosters contre 800 tonnes et 4 boosters pour A64. L’ESA envisage de réaliser 12 lancements par an, dont 5 institutionnels.

Cela devrait permettre de rester dans la course à la conquête spatiale, et faire en sorte que l’Europe continue d’être un acteur majeur. Ce qui, selon Karim Michel Sabbagh, directeur exécutif de SES, l’opérateur de satellites de communication n’aurait pu être le cas sans cette décision : « l’Europe aurait eu un retard compétitif qu’elle n’aurait jamais pu rattraper ». Car ce n’est pas les récents exploits de la sonde Rosetta et du robot Philae déposé sur la comète Churyumov-Gerasimenko ou le redressage d’un des satellites du projet Galileo qui auraient suffi à donner le change.

Et les factures dans tout ça ? Une enveloppe de huit milliards d’euros sera consacrée à la construction des fusées spatiales ainsi qu’un centre de lancement en Guyane, plus quelques modifications d’Ariane 5. Les dépenses s’étaleront sur dix ans, ce qui signifie que chaque année, 800 millions d’euros serviront ce projet financé à moitié par la France et à moitié par les autres participants que sont l’Allemagne, la Belgique, l’Espagne, l’Italie, les Pays-Bas, la Suède et la Suisse.

Le développement d’Ariane 6 a été confié à la division Aibus Defense and Space ainsi qu’à son motoriste, le bien nommé Safran. Les deux industriels ont décidé de fonder une co-entreprise dédiée à la construction de la fusée modulaire : Airbus Safran Launchers, annoncée en juin 2014. Dès 2016, pas moins de 8 500 employés, répartis dans diverses usines en France et en Allemagne entre autres, entameront ce travail. Ils auront fort à faire puisque la date prévisionnelle de rendu des deux déclinaisons d’Ariane 6 est calculée pour 2020.

La nouvelle entité espère grâce à cette mise en commun créer une synergie et diminuer les coûts de production en réduisant le nombre d’interfaces commerciales. Mais plus important encore, cette alliance leur offre une marge de manoeuvre très aérée, une liberté d’action quasi totale, notamment pour le choix de tel ou tel matériau. Ce qui peut se révéler inquiétant pour certains puisque le Centre national d’études spatiales (CNES) ne pourrait plus exercer son droit de surveillance financière et technique qui lui permet de comprendre et mieux maîtriser les dépenses de l’argent public.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Sentient Technologie lève 143 millions pour développer la plus grosse IA jamais créée

« Le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité » s’alarmait Stephen Hawking lors d’un entretien sur la BBC il y a à peine quelques semaines. Sa crainte est qu’une telle intelligence puisse se développer de façon autonome et à grande vitesse tandis que nous autres, humains, n’évoluons qu’à la vitesse naturelle de la biologie, bien plus lente. Nous serions très vite dépassés, et pourquoi pas, dominés. Malheureusement, l’astrophysicien britannique n’est pas prêt d’être rassuré. La Start-up Sentient a décidé de fabriquer une intelligence artificielle distribuée, la plus importante capable de traiter l’ensemble des données d’internet à elle seule ! Cela représente 1022 octets, soit 10 zettaoctets, le tout répartis sur les différents serveurs, publics et privés.  L’objectif est de réussir à traiter la quantité colossale d’informations présentes sur les serveurs. Pour y arriver, Sentient doit installer sa technologie sur chaque centre de donnée. Ces derniers pourront alors communiquer entre eux et échanger des informations. Les fondateurs, Babak Hodjat et Nigel Duffy annoncent pouvoir alors résoudre n’importe quel problème en prenant les bonnes décisions basées sur l’analyse pertinente des connaissances relatives au sujet.

Par exemple, le domaine de la santé est un bon secteur d’application. Sentient est actuellement en phase de test avec le Laboratoire d’informatique et intelligence artificielle du MIR pour anticiper les risques éventuels de septicémie de 6000 malades. La pression artérielle de ces patients cobayes, un des marqueurs d’un début de septicémie,  est mesurée et analysée en temps réel.

Sentient commence donc à négocier au cas par cas avec les propriétaires des serveurs pour commencer à implanter ses programmes et toucher le plus grand nombre de microprocesseurs. Leurs fondateurs ont déjà annoncé un partenariat avec Tata communication, le géant indien des télécoms.

Nigel Duffy estime qu’en moins de 15 ans, leur IA sera suffisamment développée pour s’apparenter à une conscience artificielle. De quoi s’enthousiasmer ou  frémir.

Par Audrey Loubens, journaliste scientifique

La photo de la semaine #1

  • Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope optique ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

 

  • La réponse sera donnée la semaine prochaine dans l’article La photo de la semaine #2

Comprendre les faiblesses des batteries lithium-ion

Superstar de l’électronique portable, la batterie lithium-ion occupe le haut du pavé depuis son introduction sur le marché au début des années 1990. Sollicité sans relâche par sa charge électrique, l’ion lithium se fraie invariablement un chemin entre l’anode et la cathode, jusqu’à l’épuisement. Pour améliorer le rendement de ces batteries, le professeur Reza Shahbazian-Yassar, chercheur à l’université technologique du Michigan, s’est mis en tête de cartographier le parcours des ions lithium dans l’un de ces accumulateurs, afin d’y déceler d’éventuels accrocs et comprendre comment y mettre son petit grain de sel.

Armé de son fidèle microscope électronique en transmission, le chercheur d’origine iranienne, spécialiste des nanotechnologies, serait parvenu à comprendre le triste sort de l’anode, à la merci des ions lithiums. Et lui a même trouvé un petit nom, le « brassage atomique ». « La structure en couches superposées de l’électrode évolue en même temps que les ions lithium la pénètrent, créant une structure en sandwich. La structure doit faire face à de nombreuses expansions et contractions très localisées », explique-t-il, ce qui permet au lithium de se frayer un chemin à travers l’électrode.

Les tensions locales provoquées par le passage répété des ions seraient donc en partie responsables des faiblesses de ce type de batterie. L’équipe de Shahbazian-Yassar cherche désormais à résoudre ce problème de « brassage atomique », en testant notamment une anode en antimoniure de zinc.

Par Moonzur Rahman

Reach/CLP : toute l’actualité de janvier

Bisphénol A : Entrée en vigueur de l’extension de l’interdiction à tous les contenants alimentaires

1er janvier 2015

Entrée en vigueur au 1er janvier 2015 de l’extension de l’interdiction du bisphénol A à tous les matériaux au contact alimentaire.

L’interdiction du bisphénol A dans tous les matériaux au contact alimentaire est entrée en vigueur au 1er janvier 2015.

Le bisphénol A (BPA) est un produit chimique utilisé couramment pour la fabrication industrielle de plastiques. Ces matériaux sont largement utilisés dans des produits de consommation courants comme les récipients pour l’eau et la nourriture. Ils rentrent notamment dans la composition de nombreux matériaux contenant des aliments, tels que les produits de consommation en polycarbonate (biberons, vaisselle, récipients destinés au four micro-ondes et boîtes pour la conservation des aliments) ou les emballages avec un film protecteur ou un revêtement époxy-phénolique (cannettes, boîtes de conserve et couvercles métalliques). Il est présent également sur certains tickets de caisse.

Cette substance est déjà interdite dans les biberons depuis juin 2010 en Europe, à la suite d’une action française, et dans les contenants alimentaires destinés aux nourrissons et enfants en bas âge depuis janvier 2013.

Une version actualisée de la brochure générale sur REACH

8 janvier 2015

Une version actualisée de la brochure générale sur REACH : « Maîtrisez les risques chimiques dans votre entreprise, REACH, votre atout Compétitivité-Sécurité » est en ligne sur le site du ministère de l’écologie, du développement durable et de l’énergie (MEDDE).

Nouvelle version de l’ePICIT-tool / outil disponible

12 janvier 2015

Rapports inclus dans ePIC : Les entreprises peuvent déclarer les quantités de produits chimiques assujettis au Règlement d’ePIC qui ont été exportés ou importés pendant 2014 .

Conformément à l’article 10 du règlement ePIC, au cours du premier trimestre de chaque année, les entreprises doivent déclarer les quantités réelles de produits chimiques assujettis au Règlement ePIC qui ont été exportés / importés au cours de l’ année civile précédente. Ils doivent également fournir des détails sur les entreprises dans les pays non membres de l’UE avec lesquels ils négocient ces produits chimiques. La date limite pour soumettre les informations ci-dessus est le 31 Mars de chaque année. L’ECHA souhaite encourager tous les exportateurs / importateurs d’effectuer cette tâche en temps utile.

Avec la sortie de Epic 1.1 le 8 Janvier 2015, les utilisateurs de l’industrie sont en mesure de générer et de soumettre ces rapports à leurs autorités nationales désignées pertinentes.

Dans la nouvelle version de l’épopée, pour la plupart des utilisateurs une version préliminaire des rapports est généré automatiquement et pré-rempli par l’ePIC – dans la mesure du possible – avec les données disponibles dans le système. Une fois que les rapports ont été finalisés, ils peuvent être envoyés aux autorités nationales désignées pour l’agrégation au niveau des pays .

A noter que dans le but de déployer la dernière version de l’épopée, le système ne sera pas disponible à partir du 7 Janvier 2015.

Par P.T

Et aussi dans les
ressources documentaires :

Pour Royal, il faut « programmer une nouvelle génération de réacteurs » nucléaires

« Dans la construction d’une économie décarbonée, le nucléaire est un atout évident » et « il faut penser la demande nucléaire de manière intelligente dans un contexte de mix énergétique », a estimé la ministre dans une interview au magazine spécialisé Usine Nouvelle.

EDF « doit être capable de vendre à la Pologne du nucléaire mais aussi du renouvelable », a ajouté Mme Royal tout en soulignant la nécessité de « sortir du +tout nucléaire+ » et d’accélérer « la montée en puissance des énergies renouvelables ».

Le projet de loi sur la transition énergétique porté par Mme Royal et en cours d’examen au Parlement prévoit une réduction de la part du nucléaire dans la consommation finale d’électricité de 50% à horizon 2025 contre 75% aujourd’hui.

Pendant la primaire socialiste en 2011, Mme Royal avait exprimé le souhait de ramener le nucléaire « à une énergie d’appoint » et s’était prononcée pour une sortie du nucléaire en France à « échéance de 40 ans maximum ».

Elle avait même promis d’abandonner la construction du futur réacteur EPR à Flamanville et d’en faire un site de recherche sur les techniques de démantèlement et les énergies renouvelables.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Facebook meilleur révélateur d’une personnalité que les proches

Avec suffisamment de « J’aime » à analyser, certains programmes informatiques spécialisés sont meilleurs que les amis ou les proches d’une personne pour déterminer ses véritables traits de caractère, et seul le ou la conjointe pourraient rivaliser avec l’ordinateur, expliquent les chercheurs de l’Université de Cambridge, en Grande-Bretagne, et de Stanford, en Californie, dont les travaux paraissent dans les Comptes rendus de l’Académie américaine des sciences (PNAS).

Pour cette recherche, un ordinateur a été plus perspicace pour prédire la personnalité d’un sujet que ses collègues de travail ou les membres de sa famille en analysant seulement dix « J’aime ».

Etant donné qu’un utilisateur moyen de Facebook compte environ 227 « J’aime », les chercheurs pensent que cette approche permet de mieux nous mettre à nu que quiconque.

Cette recherche s’est basée sur des travaux précédents de l’Université de Cambridge publiés en mars 2013 qui montraient qu’un ensemble de traits psychologiques et démographiques pouvaient être prédits avec une très grande exactitude en analysant les « J’aime » de Facebook.

Pour cette nouvelle étude, les auteurs ont utilisé un échantillon de 86.220 volontaires sur Facebook qui ont rempli un questionnaire portant sur les traits de leur personnalité et donné un accès à leur « J’aime ».

Les résultats fournissent un score sur cinq grands traits de caractères. Il s’agit de l’ouverture d’esprit (curiosité et imagination), l’extraversion (tendance à rechercher la compagnie des autres), la conscience (autodiscipline, respect des obligations), le fait d’être agréable (tendance à être compatissant et coopératif) et l’impulsivité (coléreux, instabilité émotionnelle).

Par ce biais, les chercheurs ont pu lire ces traits de personnalité dans les « J’aime » comme par exemple le fait d’aimer Salvador Dali ou la méditation, qui révèle selon eux un grand esprit d’ouverture.

Les auteurs ont aussi pu comparer ces résultats en interrogeant un ami de 17.622 des participants et deux proches de 14.410 autres.

« Dans l’avenir, les ordinateurs seront capables de déterminer nos traits psychologiques et de réagir en fonction, ce qui devrait ouvrir la voie à l’émergence de machines dotées d’intelligence socio-émotionnelle », selon Wu Youyou, une chercheuse du centre de psychométrie de l’Université de Cambridge, une des principaux auteurs de cette recherche.

Avec le développement des technologies, les résultats de ces travaux pourraient susciter des inquiétudes quant à la protection de la vie privée, relèvent aussi les auteurs.

Mais « la capacité de jauger la personnalité est un composant essentiel de la vie en société, que ce soit pour les décisions prises quotidiennement ou pour celles engageant sur le long terme comme le mariage, l’embauche de quelqu’un ou être élu président », explique David Stillwell, professeur à l’Université de Cambridge.

« L’analyse des résultats de cette recherche peut être très utile pour aider les personnes à prendre des décisions », ajoute-t-il.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le Parlement européen ouvre sous conditions l’UE à la culture des OGM

Le Parlement européen a ouvert mardi l’UE à la culture des OGM, en accordant aux États membres le droit de l’interdire sur leur territoire, un compromis critiqué tant par les écologistes que l’industrie.

Les députés européens ont adopté par 480 voix contre 159 un accord trouvé en décembre avec les gouvernements pour débloquer un dossier enlisé depuis quatre ans.

Les nouvelles règles fixant les modalités d’autorisation de culture des organismes génétiquement modifiés permettent aux États membres de l’interdire, même en cas de feu vert de l’Autorité européenne de sécurité des aliments (Efsa).

Les réfractaires pourront invoquer des raisons socio-économiques, environnementales ou liées à l’utilisation des terres agricoles.

Les États membres autorisant les culture devront aussi prendre des mesures pour prévenir la contamination des cultures non-OGM, en particulier dans les pays voisins.

« Cela va permettre aux États membres de prendre leurs décisions à partir du printemps 2015 », a souligné le commissaire européen à la Santé, Vytenis Andriukaitis.

Les Verts ont voté contre cette nouvelle législation, qui a été soutenue par la droite, les socialistes et les libéraux.

« C’est une mauvaise mesure, l’Europe va devenir un patchwork en matière d’OGM, alors que nous avons besoin d’une approche commune », a dénoncé la coprésidente des Verts, Rebecca Harms. « La puissance publique européenne abdique. Aux multinationales d’ouvrir le bal. La porte est ouverte à Monsanto, Pionner and co », a protesté dans un tweet l’eurodéputé Vert français José Bové.

L’industrie OGM a déploré que le droit ait été laissé aux États de dire non « sur des bases non-scientifiques ». « C’est un signal d’arrêt à l’innovation européenne », a affirmé Jeff Rowe, un représentant d’EuropaBio.

Ces nouvelles règles étaient attendues par l’industrie semencière, alors que quatre maïs OGM, dont les emblématiques MON810 de Monsanto et TC1507 du groupe Pioneer, ont déjà reçu un avis favorable de l’Efsa.

Les premières cultures ne devraient concerner que quelques pays. Le MON810, seul OGM actuellement autorisé dans l’UE, est cultivé dans trois États: 110.000 hectares en Espagne, 9.000 au Portugal et 3.000 en République tchèque.

Dix-neuf États se sont opposés à la demande de culture du TC1507.

Selon une source européenne, les premières mises en culture interviendront en 2016, au vu des délais pour la mise en oeuvre de la nouvelle législation.

S’il ne tranche pas le débat entre pro et anti-OGM, qui divise les États membres et les opinions publiques, le nouveau cadre « permet tout de même d’instaurer enfin de la stabilité juridique pour toutes les parties concernées », a jugé pour le Parti populaire européen (PPE, droite) l’élue française Angélique Delahaye. L’enjeu était d’éviter une avalanche de recours des semenciers contre les pays prohibitionnistes, comme la France.

Mais « ce n’est qu’une première étape qui doit permettre de trouver à moyen terme une solution européenne », nécessaire « pour éviter les distorsions de concurrence entre agriculteurs européens », a-t-elle jugé.

Le socialiste belge Marc Tarabella s’est félicité que « les lobbies pro-OGM, menés par plusieurs multinationales et la Grande-Bretagne n’ont finalement pas eu gain de cause ». « Une recherche publique et neutre est indispensable » pour faire avancer le débat, a-t-il relevé.

La précédente directive contraignait la Commission européenne à donner son feu vert aux mises en culture si les États ne s’accordaient pas pour les interdire. L’exécutif européen jouait la montre, en retardant ses décisions, mais il avait été condamné par la Cour de justice européenne pour ces tergiversations.

cb/jlb/abk

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Un laser pour détecter à distance les gaz toxiques dans l’air

Ce sont des chercheurs de la Duke University, en collaboration avec l’U.S. Army, qui ont mis au point ce laser perfectionné. Conçu à l’origine pour déceler des traces d’ammoniac, de sulfure de carbone ou d’acide nitrique, le laser a comme but ultime de déterminer tout type de gaz quel qu’il soit.

Pour y parvenir, les scientifiques se sont servi d’un domaine de plus en plus exploité de nos jours : les teraherts, notamment utilisés pour « la surveillance de l’environnement, la détection de gaz ou de polluants ». Ce sont les ondes électromagnétiques s’étendant de 100 gigahertz (GHz) à 30 térahertz (THz).

Toutefois, les chercheurs ont encore du pain sur la planche pour perfectionner le laser. Ils souhaitent en effet réduire ses mensurations car vu son poids – ce dernier pèse une tonne – son déplacement semble difficilement envisageable. Quand pourrons-nous découvrir ce laser, plus compacte et capable de détecter avec précision n’importe quel gaz dans l’air, ce malgré la distance et la pression atmosphérique ? Les chercheurs de l’U.S. Army et de la Duke University n’ont pas encore répondu à cette question.

Par Sébastien Tribot

Sourcedailygeekshow.com

Et aussi dans les ressources documentaires :

Pollution: Paris « espère » interdire dès 2015 la circulation de certains véhicules

« La Ville de Paris propose de mettre en place, sans attendre la promulgation de la loi sur la transition énergétique et la croissance verte – qui ne permettrait pas de mise en oeuvre avant le 1er janvier 2017 sans doute-, une zone à circulation restreinte, en utilisant le Code général des collectivités territoriales », peut-on y lire.

Il s’agirait plus précisément d’interdire « la circulation des véhicules les plus polluants dans Paris intra-muros, hors bois (de Boulogne et de Vincennes, ndlr) et hors boulevard périphérique dans un premier temps, ceux-ci ayant éventuellement vocation à être intégrés au dispositif dès l’outil +zone à circulation restreinte+ prévu par la loi de transition énergétique opérationnel », est-il précisé.

L’interdiction « s’appuiera sur la classification des véhicules en fonction de leur niveau de pollution proposée par le ministère de l’Environnement », et se fera « de façon progressive ». Cette classification, définie par un arrêté du 3 mai 2012, distingue cinq catégories, du groupe une étoile, le plus polluant, jusqu’au groupe cinq étoiles.

Si « les modalités et le calendrier précis ne sont pas encore finalisés », « la Ville espère pouvoir mettre en place de premières mesures dès le courant de l’année 2015 ».

Les « premiers véhicules touchés » seraient fort logiquement « les plus polluants ». Ce pourrait être les camions et les autocars de tourisme, selon l’adjoint aux Transports Christophe Najdovski (EELV).

La temporalité des interdictions variera en fonction des catégories de véhicules: les voitures particulières, les utilitaires légers et les deux-roues les plus polluants ne pourront pas circuler les jours ouvrés; les cars de tourisme, bus et poids lourds concernés par la restriction seront interdits 7 jours sur 7 et 24 heures sur 24.

« Il ne s’agit pas d’empêcher les personnes qui se servent très peu de leur vieux véhicule de l’utiliser. Notre cible, ce sont les déplacements au quotidien qui génèrent beaucoup de pollution », a expliqué M. Najdovski.

La maire de Paris présentera son plan antipollution lors du prochain Conseil de Paris, les 9 et 10 février. Des « mesures d’accompagnement » visant à aider entreprises et particuliers à abandonner leur véhicules polluants seront soumises au vote des élus.

Ainsi la Ville proposera-t-elle « à tous les jeunes qui auront réussi leur permis de conduire d’avoir un an d’abonnement Autolib gratuit », avait indiqué Anne Hidalgo mercredi. Les Parisiens qui abandonneront leur véhicule se verront offrir « un an de passe Navigo gratuit ». Le stationnement rotatif et résidentiel sera gratuit pour les véhicules hybrides essence, comme pour les véhicules électriques.

Une aide financière à destination des artisans et commerçants sera également proposée.

Des dispositifs complémentaires sont également envisagés: « la mise en place de quelques voies à ultra basses émissions sur des axes particulièrement pollués », et la mise en place dans l’hypercentre de Paris d’une « zone à trafic limité » où seuls pourraient accéder les riverains, services d’urgence, livraisons, transports collectifs et taxis.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Londres accusée d’hypocrisie sur le changement climatique

En octobre, les États européens ont accepté de réduire leurs émissions de carbone de 40 % d’ici 2030. Depuis, le Royaume-Uni et la République tchèque ont cependant rédigé une proposition selon laquelle les réductions des émissions des États ne devraient être suivies que de loin par une Union au rôle diminué.

Ce document, qui n’a pas été publié, place la compétitivité des entreprises au même niveau de priorité que la réduction des gaz à effet de serre. Il préconise également de donner le même statut au nucléaire et aux techniques expérimentales de captage et stockage du dioxyde de carbone qu’aux énergies renouvelables, comme les énergies éolienne ou solaire.

« Il est très inquiétant que le gouvernement britannique s’efforce de mettre en place une réglementation européenne peu contraignante pour les objectifs pour 2030, estime l’eurodéputé Seb Dance dans un entretien accordé au Guardian. Dans le passé, le Royaume-Uni a été au premier rang de l’abandon du charbon dans le secteur énergétique, mais cela ne suffit pas, il faut combiner ces mesures au développement des énergies renouvelables et à des alternatives plus vertes. Ce document est une preuve supplémentaire, s’il en fallait, que le gouvernement conservateur a complètement abandonné l’idée de devenir le ‘gouvernement le plus vert de l’histoire’. »

La proposition de Londres implique un transfert des compétences en matière de climat. Celles-ci relèvent actuellement de l’UE, qui peut poursuivre les États en justice s’ils ne remplissent pas leurs engagements. Le Royaume-Uni voudrait donc que ces compétences reviennent aux États, qui décideraient ainsi de la manière de mettre en œuvre les politiques générales européennes.

« Le point de départ de notre réflexion est que le système de gouvernance devrait aider l’UE à coordonner les efforts déployés dans le but d’atteindre ses objectifs énergétiques et climatiques, tout en respectant la souveraineté des États membres », a déclaré un porte-parole du ministère de l’énergie et du changement climatique.

Si cette proposition était mise en place, l’UE perdrait la possibilité de réagir en cas de non-application des politiques climatiques par les États. La Commission rendrait compte des progrès de l’ensemble du bloc devant les dirigeants européens tous les trois ans environ. Le Parlement européen serait quant à lui simplement exclu de l’équation.

Une proposition contre-productive

En pratique, les pays disposeraient d’un veto au Conseil, ce qui leur permettrait de se débarrasser de leurs obligations, craignent les défenseurs des objectifs climatiques.

« La lutte contre le changement climatique est un énorme défi. Nous devons y répondre en régulant plus, pas moins, assène Brook Riley, porte-parole de l’organisation Les Amis de la Terre Europe. Le Royaume-Uni déclare d’un côté qu’une action urgente doit être mise en place pour lutter contre le changement climatique, mais d’un autre côté, le pays s’oppose aux politiques européennes communes nécessaires à cette action. C’est tout à fait hypocrite, surtout que le Royaume-Uni lui-même condamnera cette attitude de rejet de l’UE lors de la conférence de Paris fin 2015. »

Lors de cette conférence, l’Europe promettra une réduction de 40 % de ses émissions de gaz à effet de serre d’ici 2030. Au mois d’octobre prochain, le Royaume-Uni est parvenu à empêcher toute mesure contraignante en ce qui concerne les objectifs en matière d’énergie renouvelable et d’efficacité énergétique. L’absence de telles mesures, la façon dont cette réduction sera accomplie n’est pas claire.

Le document rédigé par le Royaume-Uni et la République tchèque propose également que l’UE soutienne les pays qui voudraient utiliser l’énergie nucléaire ou le captage et le stockage du dioxyde de carbone (CSC). Il appelle aussi la Commission à « présenter une nouvelle stratégie de CSC pour l’Europe le plus tôt possible » en 2015.

Le CSC, une méthode potentiellement rentable

Des entreprises comme Shell soutiennent largement le développement du CSC.  Ces méthodes impliquent le captage du dioxyde de carbone et son acheminement dans des canalisations vers des fissures souterraines. À l’heure actuelle, elles contribuent à l’extraction de combustibles fossiles et leur permettront de continuer d’exister pendant longtemps dans le 21e siècle.

Selon une étude de l’université de Durham, la récupération assistée du pétrole, réalisée grâce au CSC permettrait d’extraire l’équivalent d’environ 190 milliards d’euros de pétrole de la mer du Nord. Sans le CSC, ce pétrole n’aurait pas pu être extrait.

Pour le Groupe intergouvernemental sur l’évolution du climat de l’ONU, le CSC pourrait contribuer à hauteur de 22 % à la réduction des émissions au niveau mondial d’ici 2050. Toutefois, les plus grands spécialistes de l’énergie estiment que ces méthodes ne seront pas commercialement viables avant le milieu ou la fin des années 2020. Impossible donc de miser sur le CSC pour réduire les émissions de carbone d’ici là.

« Derrière la position du Royaume-Uni, on devine évidemment la présence d’entreprises comme BP, Shell, E.On et EDF, souligne l’eurodéputé vert Claude Turmes. Pourquoi laisserions-nous un gouvernement qui pourrait ne plus exister après le mois de mai nous dicter de mauvaises politiques énergétiques ? Quels sont leurs moyens de pression ? »

Pour lui, l’alliance de Londres avec un gouvernement tchèque considéré comme pro-charbon et anti-énergie renouvelable « montre bien que le gouvernement britannique n’a absolument aucun intérêt à mettre en place de meilleures politiques énergétiques, mais qu’il veut juste récupérer des compétences entre les mains de l’UE et détruire une stratégie [climatique] européenne forte ».

Source  : Euractiv, Arthur Neslentraduit

Eco-emballages investit 45 millions pour doubler la quantité de plastiques recyclés

Sur 5 millions de tonnes d’emballages ménagers mis sur le marché, 1 million de tonnes sont du plastique. Mais  seuls 23% de ces plastiques sont recyclés. Un chiffre insuffisant au regard d’Eco-emballages, entreprise privée agréée par l’Etat dont la mission est d’optimiser le tri et le recyclage des emballages plastiques en France. C’est pourquoi Eco-emballages s’est engagé dans un plan de relance du recyclage. En y mettant les moyens. Ce plan est doté d’une enveloppe de 90 millions d’euros sur 2 ans, dont la moitié est réservée au recyclage des plastiques.

Alors comment Eco-emballages compte agir ? Tout d’abord il leur a fallu identifier les raisons du trop faible taux de recyclage des déchets plastiques.  Le problème vient de la complexité de leur tri à cause de la grande variété de formes des emballages mais aussi de composition. Finalement, seules les bouteilles en PET et PeHD sont recyclables, ainsi que quelques pots et barquettes en PP, PE et PET. Cela représente seulement 54% de la totalité des emballages plastiques. Grâce à une première expérimentation menée de 2011 à 2013, Eco-emballages a pu tester l’extension des consignes de tri à tous les emballages plastiques. 51 collectivités et 34 centres de tri ont joué le jeu, ce qui couvre 3.7 millions d’habitants. Conclusions ? L’ambition de recycler tous les plastiques passe par la modernisation du parc de centres de tri français.

Les 54% des emballages plastiques composés de bouteilles et flacons PET, PeHD, pots et barquettes PP, PE et PET s’intègrent parfaitement dans les filières de recyclage existantes. En revanche, les 15% constitués de pots et barquettes en PET multicouches, PS, PVC et PSE présentent un flux « potentiellement recyclable », à condition de mener des actions d’éco-conception. Les 11% d’emballages plastiques que sont les films souples PeBD/PeHD pourraient aussi être mieux recyclé à condition d’en augmenter le volume, ce qui induirait le développement de nouvelles technologies. Parmi les 20% restants, les films souples en PP complexes ou trop petits et les pots et barquettes complexes ne pourront être correctement recyclés sans des modes de valorisation complémentaires. Bref, les centres de tri créés il y a vingt ans ne sont plus adaptés aux besoins actuels. L’expérimentation a aussi permit de constater qu’une réorganisation du maillage territorial était utile de façon à mieux correspondre aux densités de populations. Enfin, Eco-emballages sera soucieuse d’étendre les consignes de tri à l’ensemble des emballages plastiques de façon progressive. Après les 3.7 millions de personnes concernées par la première phase, 8 à 10 millions d’habitants seront touchés d’ici 2016. Ce n’est qu’en 2022 que ces nouvelles consignes couvriront l’ensemble du territoire.

Face à ces défis, Eco-emballages engage la 2ème phase et vient de débloquer 45 millions. Cet argent servira à poursuivre l’expérimentation en cours, à l’étendre à de  nouveaux centres et à aider à la modernisation du parc de centres de tri.

L’appel à candidatures auprès des collectivités volontaire est ouvert jusqu’au 15 mars 2015.

Par Audrey Loubens, journaliste scientifique

 

Et aussi dans les
ressources documentaires :

Le spécialiste français du textile connecté présente deux nouveautés phares pour les sportifs au CES 2015

Nouvelle version du D-Shirt™ : Rester connecté à ses performances

Présenté lors du CES 2014, la première mouture du Digital Shirt – D-Shirt™ a été un premier pas réussi dans le textile connecté qui permet à tout sportif de suivre ses performances : rythme cardiaque, vitesse, distance parcourue, etc.

Cette nouvelle version 2015 incorpore de nouveaux capteurs – GPS plus précis, accéléromètre 9 axes – et illustre les progrès réalisés par Cityzen Sciences dans l’intégration textile. L’application, quant à elle, permettra de suivre ses indicateurs en temps réel ou en différé, depuis son smartphone.

Le savoir-faire de Cityzen Sciences a notamment conduit cette startup lyonnaise à un accord avec la marque d’équipements de sport japonaise ASICS visant à développer et commercialiser un maillot connecté.

Dévoilée en avant-première à New York lors du CES Unveiled du 11 novembre dernier, cette version 2.0 du D-Shirt™ a reçu un prix dans 2 catégories : « Wearable Technologies » et « Fitness, Sports and Biotech ».

Un cuissard pour pédaler connecté

Cityzen Sciences a également dévoilé un nouveau produit qui devrait éveiller la curiosité de nombreux cyclistes puisqu’il s’agit d’un cuissard connecté. Ce vêtement leur permettra de suivre sans contrainte leurs performances (rythme cardiaque, vitesse, distance…), en intégrant les mesures spécifiques à ce sport : cadence de pédalage et temps en danseuse.

Ce nouveau vêtement, qui s’appuie sur la même technologie que le D-shirt™, illustre la capacité de Cityzen Sciences de transformer un vêtement en une source d’informations d’une richesse et d’une précision inégalables.

Chaque capteur peut en effet être placé à un endroit optimal : capteur de rythme cardiaque sur la poitrine, accéléromètre sur la jambe permettant de suivre la cadence de pédalage ou encore le temps en danseuse…

« Nous sommes ravis de compter parmi les entreprises françaises présentes à cet évènement incontournable dans l’univers des nouvelles technologies. 2014 fut un réel tremplin dans le développement de notre technologie. En 2015, des milliers de sportifs amateurs et professionnels vont pouvoir connaitre leurs performances et suivre les réactions de leur corps en direct grâce à nos produits. Mais ce n’est pas tout ! Nous travaillons déjà sur d’autres projets qui nous permettrons de proposer notre savoir-faire unique dans d’autres secteurs »,  commente Jean Luc Errant, CEO de Cityzen Sciences.

Une levée de fond de 100 millions d’euros pour accélérer sa croissance

Au vu des technologies déjà développées par la société et de l’évolution rapide de son l’environnement dans un marché de plus en plus demandeur, Cityzen Corp étudie les opportunités de levée de fonds pour un montant souhaité de 100 millions d’euros. Ce tour de financement lui permettra de soutenir son développement en saisissant de nouveaux marchés stratégiques, dans des industries exprimant le besoin d’obtenir et de mesurer des données, que ce soit dans l’univers du sport, de la santé mais également de la sécurité des personnes.

Repérée par Axelle Lemaire comme « l’une des pépites du CES 2015 », Cityzen Sciences espère donc rayonner sur de nouveaux marchés dans les 24 prochains mois en s’imposant parmi les leaders dans l’analyse du Big Data et dans l’univers connecté.

À propos de Cityzen Sciences et de Cityzen Data

Cityzen Sciences est une entreprise française créée en 2008, spécialisée dans la conception, la création et le développement de textiles connectés. Elle est le pilote d’un projet industriel textile, Smart Sensing, mené par un consortium d’entreprises, fortement soutenu par Bpifrance.

Cityzen Data assure la collecte et le stockage des données produites au sein d’une plateforme sécurisée et évolutive de gestion de données massives issues de capteurs. Cette expertise est l’une des pierres angulaires du projet Smart Sensing.

Fort d’une avancée technologique unique dans le domaine du recueil et de la gestion des données, Cityzen Sciences propose aux industriels de révolutionner leurs chaînes de valeurs des industriels via des solutions entièrement intégrées de capteurs innovants, de smart devices et de gestion connexe de Big Data.

Prix du pétrole: une « opportunité » pour certains pays pauvres

« Pour un certain nombre de pays importateurs de pétrole, des prix du brut plus bas offrent une opportunité d’améliorer leurs situations budgétaires plus rapidement », écrit l’institution de lutte contre la pauvreté dans un rapport.

Selon la BM, la chute des cours du brut devrait plus précisément permettre à ces pays de réduire leurs subventions énergétiques qui maintiennent les prix du carburant à de faibles niveaux mais grèvent leurs finances publiques.

« Les pays importateurs d’or noir devraient réduire ou supprimer les subventions au prix du fuel et reconstruire leur marge de manoeuvre budgétaire », assure le chef économiste de la Banque mondiale Kaushik Basu, cité dans un communiqué.

Selon le Fonds monétaire international, le coût des subventions énergétiques sur le globe s’élève à 1.900 milliards de dollars, soit 2,5% du produit intérieur brut mondial.

Ces ressources supplémentaires pour les pays en développement sont particulièrement utiles dans un contexte économique « incertain » et dans l’optique d’un prochain resserrement monétaire aux Etats-Unis qui risque de provoquer de fortes turbulences sur les marchés, écrit la Banque mondiale.

L’institution indique également, sans surprise, que la baisse des prix du brut va en revanche peser sur les finances et l’activité économique des pays exportateurs de pétrole.

Les cours mondiaux du brut ont chuté de plus de 50% depuis juin pour ramener le prix du baril sous la barre des 50 dollars.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Pour le climat, pétrole et charbon devront rester largement inexploités (étude)

Globalement, un tiers des réserves pétrolières, la moitié des réserves de gaz et plus de 80% du charbon devront rester sous terre jusqu’à 2050, soulignent les auteurs de cette étude intitulée « Quelle quantité d’énergies fossiles pouvons-nous exploiter? »

Ce sera le seul moyen d’atteindre l’objectif de l’ONU de limiter le réchauffement à +2°C par rapport à l’ère pré-industrielle, souligne Christophe McGlade, de l’Institute for Sustainable Resources du University College de Londres.

« Les hommes politiques doivent réaliser que leur instinct consistant à recourir aux énergies fossiles disponibles sur leur territoire, est incompatible avec leur engagement à tenir l’objectif de 2°C, » dit-il.

Les experts de l’Onu, qui ont publié en 2014 la plus vaste évaluation scientifique du changement climatique, estiment que pour atteindre ce but, l’homme devra limiter ses émissions de CO2 à environ 1.000 milliards de tonnes (gigatonnes), après en avoir déjà consommé 2.000. Les émissions que générerait l’usage des réserves d’énergies fossiles encore disponibles sont évaluées par l’étude à 3.000 gigatonnes.

« Les entreprises ont dépensé plus de 670 milliards de dollars (565 milliards d’euros) l’an dernier dans la recherche de nouvelles ressources fossiles », souligne Paul Ekins, co-auteur de l’étude. « Elles devront revoir ces budgets si des politiques sont mises en place pour soutenir la limite des +2°C ».

L’étude fait le point sur les réserves et leur localisation, avant d’estimer quelles quantités peuvent être exploitées jusqu’en 2050.

Les auteurs ont pris deux scénarios, l’un dans lequel le monde s’appuie sur un « vaste réseau » de capture et stockage du carbone — des systèmes dans les faits très peu développés encore –, et l’autre sans ces technologies.

– gagnants et perdants –

Même si les systèmes de capture du CO2 étaient répandus, il faudrait renoncer à plus de 430 milliards de barrils de pétrole.

Dans ce cas, le Moyen-Orient à lui seul devrait renoncer à plus de 260 milliards de barils, soit 38% de son stock (l’équivalent de huit années de production aux niveaux de 2013).

L’Amérique latine devrait renoncer à 58 milliards de barrils, le Canada à 39 milliards et les anciens Etats soviétiques à 27 milliards.

La Chine et l’Inde devront éviter d’exploiter près de 70% de leurs réserves de charbon, et l’Afrique presque 90%. L’Europe renoncera à 78%, les Etats-Unis à 92%.

« Ces résultats montrent qu’il faut transformer complètement notre compréhension de la disponibilité des énergies fossiles, » insiste l’étude.

La répartition inégale des réserves à ne pas toucher sera un défi dans la recherche d’un accord mondial sur le climat, espéré à Paris fin 2015, soulignent les experts du climat Michael Jakob et Jerôme Hilaire, dans une analyse jointe à l’étude.

« Seul un accord global qui compensera les pertes des uns et sera perçu comme équitable par tous, pourra imposer de strictes limites au recours aux énergies fossiles », ajoutent-ils.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Melomind, l’objet connecté star du Consumer Electronics Show

Parmi les innovations présentées au CES annuel de Las Vegas – grand rassemblement s’il en est des nouveautés high tech que l’on retrouvera peut-être dans quelques années – l’une d’entre elles aura généré pas mal de remous. Il s’agit du casque Melomind de la start-up parisienne myBrain Technologies, incubée à Agoranov et Ipeps.

Le produit, au croisement de deux tendances fortes, celle des objets connectés et celle du bien-être et de la santé, a pour objet de combattre le stress ou d’apprendre la relaxation, c’est comme on veut. Cela « représente aujourd’hui un enjeu majeur de santé publique » d’après Thibaud Dumas, cofondateur de myBrain et docteur en neurosciences. 

C’est d’ailleurs en partant de la constatation qu’une véritable souffrance physique liée au stress était ressentie par 248 millions d’américains, selon l’étude de l’American Psychological Association (APA), que les recherches ont été entreprises en collaboration avec l’institut du Cerveau et de la Moelle épinière de Paris (ICM).

Selon Thibaud Dumas, réaliser chez soi ou à son travail des sessions de relaxation de 15 minutes de temps en temps permettrait d’atteindre cet objectif. 

Comment se passent ces séances ? Et bien c’est simple, il suffit de porter le casque. Les électrodes présentes à ses bouts mesurent l’activité cérébrale et servent à évaluer le niveau de stress. En fonction de cela, le casque connecté en bluetooth à votre smartphone vous envoie une musique modulée selon votre état. Lorsque l’opération aura été répétée plusieurs fois, l’utilisateur pourra apprécier ses progrès en consultant son historique.

Le casque n’est encore qu’au stade de prototype, mais il est opérationnel et les visiteurs du CES peuvent d’ores et déjà le tester en avant-première. La commercialisation est prévue pour la fin 2015 au prix de 299 dollars et les pré-commandes sont possibles sur le site dès maintenant.

Par Sébastien Tribot

Le fructose est plus toxique que le sucre, mais uniquement pour les femmes

La toxicité du fructose est pointée du doigt depuis plusieurs années. Derrière l’avantage de moins impacter la glycémie que le sucre du fait d’un index glycémique plus faible, ce sucre très présent dans les fruits et le miel est soupçonné de favoriser l’obésité. Dans une étude à paraitre dans Journal of Nutrition des chercheurs ont constaté qu’un fort taux de fructose pouvait avoir d’autres conséquences. Ils ont travaillé avec deux groupes de souris. Les deux ont reçu une alimentation équilibrée mais avec 25% de calories provenant de sucres transformés. Pour le premier groupe il s’agissait  d’un mélange fructose-glucose, pour le deuxième de saccharose. Le résultat fut surprenant puisqu’aucune différence n’était notable chez  les mâles. En revanche, coté femelle c’est un autre constat. Celles ayant ingurgité le mélange fructose-glucose affichaient un taux de mortalité 1,87 fois supérieur aux femelles de l’autre groupe. De plus, les souris du premier groupe ont eu 26.4% moins de bébés. Cette étude confirme la dangerosité du fructose lorsqu’il est consommé à haute dose.

Les travaux des scientifiques de l’Université d’Utah s’ajoutent à d’autres études alertant sur les inconvénients du fructose, des plus bénins comme des ballonnements aux plus graves comme l’augmentation de risques cardio-vasculaires et de l’obésité.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Revue du web #74 : les vidéos les plus étonnantes de janvier 2015

Cette semaine dans la revue du Web : 

  • Impressionnant : une plate-forme de Stewart particulièrement habile ;
  • Remplir un ballon de baudruche avec du mercure ;
  • Folie : résoudre le plus grand Rubik’s Cube du monde (en 7 heures et demi) ;
  • Observer la Station Spatiale Internationale passer devant la Lune ;
  • Le gadget (inutile?) de la semaine : des explosifs « made in Crimea » ;
  • Et en bonus : des boules de neige dans la figure, en slow-motion.

Impressionnant : une plate-forme de Stewart particulièrement habile

Pour débuter notre soixante-quatorzième Revue du Web, laissons-nous bluffer par l’impressionnant sens de l’équilibre de la « plate-forme de Stewart » conçue par Full Motion Dynamics, une équipe universitaire américaine dont les deux têtes pensantes sont deux étudiants en ingénierie de l’université de San Diego, Tyler et Robert. L’équipe bicéphale a travaillé d’arrache-pied sur un projet de simulateur de course à partir d’une plate-forme de Stewart, un positionneur hexapode constitué de six actionneurs lui conférant six degrés de liberté.

Pour fignoler leur projet de fin de semestre et ainsi mieux appréhender les possibilités de cette plate-forme, les deux étudiants touche-à-tout se sont lancés dans la conception d’une plate-forme dont les talents d’équilibriste sont absolument fascinants. Il suffit de lui jeter en pâture une bille d’acier pour comprendre que le dispositif ne plaisante pas, et qu’il peut remettre dans le droit chemin cette sphère métallique si d’aventure elle s’aventurait hors des clous. Le terrain de jeu est constitué d’un écran tactile à technologie résistive monté sur la plate-forme pour repérer les moindres déplacements de la bille, un régulateur proportionnel intégral dérivé (PID) ainsi qu’un module Arduino et six servomoteurs pour imprimer le mouvement. Un vrai travail d’équilibriste !

Remplir un ballon de baudruche avec du mercure

Les expériences autour du mercure ont toujours quelque chose d’impressionnant, et le fait que cela soit le seul métal se présentant sous forme liquide dans les conditions normales de température et de pression n’y est probablement pas étranger. Le métal que l’on appelle également « vif argent » fait donc un bon client pour notre Revue du Web, comme le prouve la vidéo qui suit, postée par un internaute dont la passion pour le mercure le rend pour le moins… monomaniaque.

Cette fois-ci, notre scientifique en herbe désire comparer le comportement d’un ballon de baudruche rempli d’eau avec celui d’un ballon rempli de mercure. Première remarque : on ne peut pas remplir un ballon d’eau avec un entonnoir, alors que cela marche très bien avec du mercure, grâce au poids de ce dernier. Autre remarque : la déformation du ballon rempli de mercure et lâché à bonne hauteur est sensiblement plus grande que la déformation d’un ballon plein d’eau.

  • Jugez plutôt :

Si vous vous demandez toujours si on peut absorber du mercure liquide avec une éponge, la réponse se trouve ici. Si vous préférez par contre observer une goutte de mercure danser lorsqu’elle est soumise à différentes fréquences, c’est plutôt par là qu’il faut aller.

Folie : résoudre le plus grand Rubik’s Cube du monde (en 7 heures et demi)

Alors que l’idée d’être confronté à un Rubik’s Cube traditionnel pourrait donner de l’urticaire à un grand nombre d’entre nous, certains amateurs ne semblent jurer que par les modèles les plus larges du célèbre casse-tête d’origine hongroise. Kenneth Brandon, lui, fait définitivement partie des enthousiastes du cube de Rubik. Pour nous le prouver, il va s’attaquer à un monument : le plus grand Rubik’s Cube du monde, un monstre de « 17 par 17 par 17 » (contre « 3 par 3 par 3 » pour le modèle standard) imprimé en 3 D et conçu par le Hollandais Oskar van Deventer.

Mission accomplie pour Kenneth, qui réussit à se dépêtrer du puzzle en… sept heures et demi. Pour les sceptiques – et pour l’Histoire, avec un grand H – notre amateur de puzzles s’est filmé du début jusqu’à la résolution du cube, afin de nous livrer une première vidéo en accéléré, ainsi qu’une seconde vidéo, brute et sans montage, de l’exploit (près de huit trépidantes heures de labeur étalées sur cinq jours). Il faut évidemment s’armer de patience, ne serait-ce que pour mélanger les facettes de ce cube éléphantesque : pas moins de 25 minutes sont nécessaires pour insuffler un joyeux – et nécessaire – désordre coloré à l’ensemble.

La méthode de résolution employée est un classique du genre, baptisée « méthode de réduction », revenant à résoudre les centres avant de passer aux arêtes, afin de se retrouver avec l’équivalent d’un Rubik’s Cube « 3x3x3 » dont les centres seraient très larges, les arêtes allongées et les coins tous petits. Finalement, s’escrimer pendant moins de huit heures, ce n’est pas si mal, mais de l’aveu même du jeune prodige… pas besoin de regarder la vidéo brute en entier. On vous aura prévenu.

La vidéo « brute » :

Observer la Station Spatiale Internationale passer devant la Lune

Le photographe israélien Gadi Eidelheit est parvenu à capturer un joli moment le 28 décembre dernier. Braquant trois appareils en direction de la Lune, notre satellite n’était pourtant pas son unique proie en cette fin d’année…  puisque c’était après la Station Spatiale Internationale qu’il en avait. En utilisant les informations fournies par le site Heavens Above – qui permet de déterminer où et quand va passer l’ISS – et en s’armant d’une carte du ciel, il se rendit compte que la Station Spatiale allait virtuellement croiser le chemin de la Lune au dessus de sa tête ce jour-là.

Il va sans dire que les deux corps restent très éloignés l’un de l’autre, les 110 mètres de longueur de l’ISS se baladant aux alentours de 400 kilomètres d’altitude, alors que la distance moyenne nous séparant de notre satellite est de 384 400 kilomètres.

Le gadget (inutile?) de la semaine : des explosifs « made in Crimea » ?

On ne vous apprend rien en vous disant que détruire un bâtiment n’est pas une tâche à prendre à la légère. Ce n’est pas parce que certains le font très bien – comme pour la destruction de la tour de refroidissement de cette centrale polonaise, ou pour une destruction pleine de panache et de couleurs à Albany, dans l’Etat de New-York, dont nous vous parlions ici – qu’il faut penser que cela marche à tous les coups.

La ville de Sébastopol, en Crimée (encore il y a peu ukrainienne, désormais russe) l’a appris à ses dépens, lorsque la municipalité a voulu se débarrasser d’un bâtiment de 16 étages construit illégalement. Le monstre de béton aura chèrement vendu sa peau, puisqu’il aura fallu

  • ni une…

  • …ni deux…

  • mais bien trois tentatives pour le mettre à terre. Il nous reste à savoir une chose : faut-il engager le maître d’œuvre qui a réussi à construire un bâtiment aussi résistant, ou se défaire au plus vite de l’équipe de démolition ? A vous de juger !

Bonus : des boules de neige dans la figure, en slow-motion

Pour clôturer cette soixante-quatorzième Revue du Web, rien de tel que de se calfeutrer chez soi, de se mettre sous la couette, et de vivre par procuration le bel hiver avec une petite vidéo de saison. Qui dit hiver sous nos latitudes dit Noël, neige… et les incontournables boules de neige !

Pour célébrer la nouvelle année, l’agence de communication Exit10 nous offre la possibilité de nous rincer l’œil devant cette série de visages inconnus, mais réunis par la même et douloureuse attente, à savoir celle d’une boule de neige en pleine poire.

Bien que la vidéo soit en slow-motion, il ne faut pas patienter bien longtemps avant de voir une boule de neige s’inviter, puis les premiers minois se décomposer sous les assauts répétés de ces projectiles glacés. A voir !

Par Rahman Moonzur

Nanorider, le nouveau jeu pour apprendre le business des nanotechnologies

Comment initier les étudiants aux problématiques spécifiques des nanotechnologies et les aider à développer l’activité et l’emploi de ce secteur ? En les réunissant autour d’un jeu de plateau pardi. En effet, apprendre en jouant permet de contourner le côté rébarbatif d’une discipline pour en acquérir les fondements via le jeu.

Des étudiants de Grenoble Ecole de Management (GEM) ont travaillé à l’élaboration d’un jeu dédié à l’apprentissage des stratégies de développement, de commercialisation et de marketing du secteur des nanotechnologies.

Son inventeur, aidé de 2 game designers et de 2 game artists de l’Ecole supérieure d’infographie 2D 3D Web et jeux vidéos (ARIES) a ainsi fabriqué Nanorider. Il s’agit d’un jeu collaboratif pour 6 joueurs. Chacun joue un rôle particulier, celui du chercheur, du directeur marketing, du directeur juridique ou encore du directeur financier. Ce rôle permet de comprendre les fonctions clés de toutes les personnes impliquées dans le développement d’une technologie.

Pour un réalisme maximal, Nanorider intègre 42 technologies existantes du CEA.

Le succès du jeu est arrivé jusqu’aux oreilles de l’association of MBAs (AMBA), organisme britannique d’accréditation des MBA et des Masters. Séduits par Nanorider, ils lui ont décerné le deuxième prix des MBA Innovation Awards. C’est donc le 30 octobre qu’Hélène Michel, professeur à Grenoble Ecole de Management et titulaire de la chaire serious game and innovation, a eu l’honneur de recevoir le trophée.

GEM développe d’autres sérious game, comme The innovative manager, pour apprendre à motiver ses équipes dans une entreprise high-tech ainsi que des jeux virtuels pour apprendre à manager une équipe d’expert et apprendre à adapter son discours à son interlocuteur, qu’il s’agisse d’un expert, d’une association ou encore d’un journaliste.

Déjà utilisé dans les cours de Master en management de l’innovation, Nanorider a été édité à 1000 exemplaires et sera distribué par la Centrale des cas et médias pédagogiques à destination des étudiants de GEM mais aussi des entreprises du secteur de la nanotechnologie. Une version en anglais est prévue pour 2015.

Par Audrey Loubens

La cigarette électronique est une dépendance préférable au tabac

Pourquoi la cigarette électronique est-elle une « bonne » solution pour arrêter de fumer ?

On sait aujourd’hui que la cigarette électronique est une solution de sevrage tabagique qui marche. C’est un très bon substitut nicotinique notamment parce qu’il permet d’arrêter de fumer dans le plaisir. Quand les fumeurs découvrent qu’ils éprouvent du plaisir autrement grâce aux arômes plutôt qu’avec une cigarette, ils sont plus motivés pour arrêter. 

N’est-ce pas remplacer une dépendance par une autre ?

Si, tout à fait. Mais il ne faut pas confondre dépendance et addiction. L’addiction est une dépendance qui fait du mal. Si la cigarette électronique diminue les risques pour la santé, j’estime que c’est un bien pour l’individu. Pour moi la dépendance n’est pas un problème, le plus important c’est l’arrêt du tabac. Par ailleurs, il semble que la dépendance diminue avec le temps, selon les enquêtes réalisées chez les utilisateurs.

Certaines cigarettes électroniques contiennent de la nicotine. N’est-ce pas un problème pour la santé ?

Le plus nocif est l’inhalation de fumée de tabac, la nicotine ne tue pas. Les pouvoirs publics doivent soutenir la cigarette électronique qui doit rester un produit de consommation courante. Je ne dis pas que la cigarette électronique est sans risque, mais comparée à la cigarette elle est infiniment moins dangereuse.

Mais 2 études contredisent l’efficacité de la cigarette électronique dans l’arrêt du tabac ?

Ces deux études ont été réalisées avec des e-cig de 1ere génération que l’on sait inefficaces. Aujourd’hui on en est aux cigarettes de 3eme génération, bien loin de la 1ere génération et ses batteries qui duraient moins d’une heure. Une étude a été lancé l’année dernière, mais il faut attendre 1 ou 2 ans avant de connaitre les conclusions. 

La cigarette électronique s’est considérablement développée en très peu de temps. Pourtant peu d’études existent. Pourquoi ?

Les fonds publics sont difficiles à obtenir. A tel point que le Docteur Farsalinos, un cardiologue grec, doit recourir au financement participatif pour mener ses expérimentations ! Toutefois il existe de nombreuses études sur les cigarettes électroniques. L’AFNOR est en discussion avec les fabricants et distributeurs pour proposer ses normes qui devraient permettre un meilleur contrôle des produits.

Faut-il interdire de vapoter au travail ?

Il faut d’abord rappeler  que pour obtenir un taux de nicotine égal à celui d’une cigarette fumée en 5mn, il est nécessaire de vapoter entre une demi-heure et une heure, selon le vaporisateur utilisé. On comprend alors qu’imposer un délai de 2 heures entre deux pauses cigarette est insuffisant pour que le fumeur ait sa dose de nicotine uniquement avec la cigarette électronique. Pour ne pas avoir envie de fumer, le fumeur doit pouvoir vapoter régulièrement.

Certains mettent en avant la peur que le développement de la cigarette électronique séduise les jeunes qui deviendront ensuite fumeurs. 

Pour l’instant, l’ensemble des données infirment cette crainte. En Angleterre, aux Etats-Unis ou bien en France les jeunes utilisent de plus en plus la cigarette électronique et se détournent du tabac. C’est à se demander si l’on veut vraiment que les gens arrêtent de fumer !

Propos recueillis par Audrey Loubens

Le casse-tête du remplacement du Bisphénol A dans les contenants alimentaires

La loi est passée le 24 décembre 2012, laissant 2 années aux industriels pour se préparer au remplacement du bisphénol A (BPA) dans les emballages et contenants alimentaires. Interdit pour raisons de santé, le BPA est un perturbateur endocrinien. Une propriété qui lui a déjà valu d’être interdit dans les biberons. Le BPA sert de monomère pour la fabrication  de plastiques  comme le polycarbonate (PC) et des résines époxy (intérieur des boites de conserve, canettes). On en retrouve partout : dans les bombonnes d’eau, les biberons, les vaisselles en plastiques, les tickets de caisse, les retardateurs de flamme, les lunettes de soleil, les CD. Problème, le BPA a tendance à s’extraire de la matière pour se déposer sur la peau ou contaminer les aliments qu’il emballe, avec des conséquences pour la santé dangereuses telles que des troubles de la reproduction, le développement de cancers du sein, de la prostate et du foie, ainsi que des dysfonctionnements de la thyroïde.

Sauf que le BPA était un produit chouchou des industriels qui peinent à lui trouver un remplaçant. En effet, le BPA était un peu un matériau miracle, compatible avec de nombreux contenant, résistant aux PH les plus acides ou basiques. A ce jour, aucun substituant ne regroupe tous ces avantages. Les industriels doivent donc composer avec plusieurs matériaux en fonction des applications. Pour les aider, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a identifié 73 substituts possibles suivant l’utilisation voulue. Plus particulièrement, l’Anses en a identifié 21 pour les polycarbonates et 18 pour les résines époxy et 34 pour les papiers thermiques des tickets de caisse.

Les industriels ont pensé à substituer le BPA par un autre bisphénol, le bisphénol S (BPS). Sauf que le BPS serait lui aussi un perturbateur endocrinien, que l’Anses déconseille d’utilise. Toutefois, aucune loi n’interdit le BPS.

Depuis plus deux ans les fabricants de biberons ont dû plancher sur de nouvelles solutions. Leurs travaux les ont conduits à se tourner vers le polypropylène (PP), le polyesthersulfone (PES), le polyphénylsulfone (PPSU) et le copolyester. En novembre 2014, un rapport relatif aux substituts au BPA a été remis au parlement par le gouvernement. Il ressort que « […] les résultats sont satisfaisants pour la grande majorité des substituts utilisé […] » même si «Des difficultés sont mentionnées (corrosion, étanchéité, problèmes organoleptiques, industrialisation…) pour certains produits « agressifs » qui sont toujours en phase de test industriel. »

Toujours est-il que le consommateur trouvera encore du BPA dans les produits actuellement en vente. Il faudra attendre quelques mois avant d’écouler la totalité des articles contenant du BPA qui aura alors définitivement disparu du paysage français.

Par Audrey Loubens, journaliste scientifique

Le robot Philae devrait se réveiller en mars

La « saga Philae va se poursuivre » en 2015, a souligné M. Le Gall en présentant ses voeux à la presse. « On espère que dès le mois de mars l’éclairement du robot sur la comète lui permettra de recharger ses batteries et donc de recommencer son travail scientifique », a-t-il expliqué.

« On espère vivre en direct le passage de la comète à son périhélie (ndlr: position la plus rapprochée du Soleil) le 13 août, avec probablement des mois extrêmement intenses. » « Je suis convaincu qu’on va voir des choses qu’on n’imaginait pas, notamment lorsque la comète va passer près du Soleil », a dit le patron du Centre national d’études spatiales.

Le petit robot Philae, passager depuis plus de dix ans de la sonde spatiale européenne Rosetta, s’est posé le 12 novembre sur la comète Tchourioumov-Guérassimenko, après une descente de sept heures en chute libre, à plus de 510 millions de km de la Terre.

Après deux rebonds, Philae s’est retrouvé coincé entre des falaises, dans un endroit peu éclairé actuellement. Cela empêche ses batteries solaires de fonctionner suffisamment pour permettre au robot de poursuivre son travail. Philae est en mode « veille » depuis le 15 novembre.

« On sait calculer assez bien là où il est », mais « nous ne l’avons pas vu encore », a précisé à l’AFP Marc Pircher, directeur du Centre spatial de Toulouse. La caméra Osiris qui se trouve sur la sonde Rosetta « le cherche ».

« Cela nous intéresserait de savoir où il est de façon plus précise afin de mieux calculer sa date de réveil », a-t-il expliqué. « Nous ne savons pas très bien la hauteur des falaises autour de lui. » Or, suivant cette hauteur, il y aura plus ou moins d’éclairement, en raison des ombres, a souligné M. Pircher.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Défiez le silence de la chambre sourde

Besoin de calme et de tranquillité ? Prenez l’avion direction les Etats-Unis, plus précisément mettez le cap sur Minneapolis. C’est là que se trouve le laboratoire Orfield. Il héberge une chambre anéchoïque acoustique, l’endroit le plus silencieux sur Terre avec un bruit de -9,4 décibels à vide. Le silence absolu du point de vue de l’oreille humaine. Pour obtenir un tel niveau de bruit, son concepteur Steven Orfield a bâti une pièce isolée par une double paroi d’acier. 30 cm de béton y ont été coulé. Les murs intérieurs sont tapissés de cônes en fibre de verre d’1 mètre d’épaisseur et de mousses en polymères, de sorte que la chambre sourde absorbe 99.9% des sons émis en son sein. Si vous prenez place dans cette chambre, vos paroles ne subiront quasiment aucun écho. Mais un tel silence perturbe notre sens de l’équilibre et il est difficile d’y rester longtemps. Abandonnez l’idée d’y faire une sieste, le record de résistance d’une personne est de 45mn dans le noir. Au-delà, des hallucinations se font sentir puis c’est l’évanouissement.

De telles chambres servent à étudier les bruits en offrant un environnement idéal sans écho susceptible de perturber les mesures. Par exemple, Harley-Davidson l’a utilisé pour diminuer le bruit des moteurs de ses motos tout en conservant ses caractéristiques sonores chères à ses utilisateurs. La Nasa quand à elle possède ses propres chambres anéchoïques. Elle s’en sert pour étudier le comportement des hommes face l’absence de  bruit pour lutter contre le stress provoqué par le silence de l’espace sur les astronautes. Ces derniers y séjournent jusqu’à 45 mn.

Et vous ? Combien de temps pourriez-vous tenir sans bruit ?

Par Audrey Loubens, journaliste scientifique

La ceinture de Van Allen nous protège des électrons à haute énergie

La petite histoire. Depuis sa découverte en 1958, la ceinture de Van Allen conserve quelques mystères. Les observations qu’a pu tirer James Alfred van Allen des compteurs Geiger présents dans les satellites Explorer 1 et 3 ont permis d’affirmer que cette zone de la magnétosphère se composait de deux ceintures dites « ceinture intérieure » et « ceinture extérieure ».

Que la première, située entre 700 et 10 000 kilomètres était principalement constituée de protons à haute teneur en énergie, et que la seconde se trouvait entre 13 000 et 65 000 kilomètres d’altitude et renfermait plutôt des électrons à haute énergie. Puis plus rien jusqu’en 2012 et l’envoi des sondes Van Allen lancées pour étudier ces deux régions. 

Les deux sondes, nommées ainsi en l’honneur du physicien et astronome américain décédé en 2006, ont en effet permis d’éclaircir le questionnement des scientifiques sur le pourquoi les électrons ne venaient pas bombarder la Terre. Et l’explication en est toute simple. Le bord intérieur de la deuxième ceinture fait en quelque sorte figure de barrière protectrice infranchissable pour les particules; les repoussant et déviant leur trajectoire grâce à sa forte densité de charge si bien que ces particules ne peuvent s’approcher qu’à une certaine distance de la Terre, environ 12 000 kilomètres d’altitude.

Par Sébastien Tribot

La pollution aux particules augmente le risque de mortalité à court terme (étude)

En étudiant l’impact de la pollution atmosphérique sur les décès dans 17 villes françaises, les chercheurs ont montré qu’à chaque fois que la concentration de particules PM10 augmente de 10 microgrammes par mètre cube, même en dehors des pics de pollution, le risque de décès non accidentel augmente de 0,5% dans les cinq jours suivants.

L’augmentation atteint 1,04% chez les personnes de plus de 75 ans, fragilisées par des pathologies cardiovasculaires ou respiratoires existantes.

Les PM10 – baptisées ainsi parce que leur taille est inférieure à 10 microns – sont générées par les gaz d’échappement des véhicules, l’activité industrielle ou le chauffage au bois.

Elles pénètrent facilement dans le corps et augmentent le risque de développer des maladies comme l’asthme, le cancer du poumon ou certains troubles cardiovasculaires.

« Mais elles augmentent également le risque de décès à court terme chez des personnes déjà malades, notamment en été, lorsque la pollution vient se combiner avec la chaleur », indique Mathilde Pascale, épidémiologiste au sein du programme Air-Climat qui a participé à l’étude.

L’épidémiologiste rappelle qu’en matière de pollution, « il n’existe pas de seuil en-dessous duquel il n’y aurait pas d’effet sur la santé ».

Cette nouvelle étude « montre que l’impact des PM10 sur la mortalité est principalement dû au niveau de fond de la pollution et non pas aux pics », souligne-t-elle.

L’étude publiée dans le Bulletin épidémiologique hebdomadaire (BEH) note également qu’il existe un impact sur la mortalité, « même à des concentrations conformes à la réglementation de l’Union européenne (40µg/m3 en moyenne annuelle) et proches des valeurs guides de l’Organisation mondiale de la santé (20µg/m3) ».

Sur les 17 grandes villes françaises étudiées entre 2007 et 2010 et totalisant plus de 15 millions d’habitants, toutes avaient des concentrations moyennes annuelles de particules respectant la législation européenne.

Marseille avait le taux moyen annuel le plus élevé avec 31,8µg/m3 devant Lille (30,9), Paris arrivant en septième position avec 27 µg/m3 tandis que seule Dijon respectait le seuil de pollution admis par l’OMS (19,3µg/m3).

Le « seuil d’alerte » à la pollution aux particules est déclenché en France dès lors que le taux atteint une concentration de 80 microgrammes (µg) de particules fines par mètre cube. Ce seuil a été dépassé ces derniers jours dans plusieurs villes de l’ouest de France et dans la vallée d’Arve en Haute-Savoie.

En 2012, l’InVS avait déjà publié une étude sur l’impact à court et à long terme de la pollution sur la mortalité dans neuf villes.

Selon cette étude, 250 décès à court terme et un millier d’hospitalisations pourraient être évités chaque année grâce à une réduction des concentrations moyennes annuelles de PM10 au niveau de la recommandation de l’OMS.

En réduisant les niveaux de PM 2,5 (des particules encore plus fines d’un diamètre inférieur à 2,5 microns) sous le seuil de 10µg/m3 recommandé par l’OMS, ce sont 2.900 décès anticipés qui pourraient être évités dans ces neuf villes, selon la même étude.

« Les risques sont faibles au niveau individuel, mais dans la mesure où tout le monde peut être concerné, l’impact est loin d’être négligeable pour la santé publique et la société » souligne de son côté l’épidémiologiste qui insiste sur la nécessité de réduire les niveaux de pollution en agissant à la fois sur la pollution de fond et sur les pics.

« Et si les températures continuent à augmenter, l’impact de la pollution risque d’être encore plus grave à l’avenir » estime-t-elle.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La cellule photovoltaïque qui stocke son énergie

Stocker l’énergie générée par les panneaux solaires et autres formes de production intermittente verte (éolienne) est un problème que les scientifiques n’ont jamais résolu tout à fait. En tout cas pour les particuliers. Ceux qui disposent d’une installation revendent généralement l’électricité produite à l’état bien que le tarif de revente, autrefois préférentiel, ait bien diminué depuis quelques années. Bien entendu, il existe plusieurs autres méthodes, comme celle du stockage électrique sur des batteries au plomb, jusqu’ici très compétitive tant en durée de vie qu’au niveau du prix. Toutefois, toutes ces solutions connaissent le même problème : la déperdition d’énergie lors du transfert.

Le professeur de chimie et de biochimie à l’Université de l’Ohio Yiying Wu et son équipe ont donc mis au point un système combinant production d’électricité grâce aux cellules solaires et stockage de cette dernière sur une batterie d’un genre nouveau censée mettre fin au fléau de l’énergie solaire : son intermittence qui peut aussi se définir par l’impossibilité de prévoir la quantité d’énergie produite à cause de facteurs naturels (météo, climat).

Ce nouveau panneau solaire se distingue des autres car il ne fonctionne pas que sous l’effet du soleil, mais aussi grâce à l’air qu’il laisse traverser. Il est relié à une batterie interne que l’on désigne « batterie à respiration » étant donné que celle-ci consomme de l’oxygène lorsqu’elle se décharge et en expulse lors de sa charge. Tout cela est rendu possible par le tissage en titane qui compose le panneau solaire, perméable à l’air, et la rouille qui le recouvre. L’oxyde de fer permet en effet de doper les performances.

Étant relié à une batterie interne, les 20% de pertes habituelles ayant lieu lors du transfert des électrons seraient ainsi éliminées. Et les économies financières iraient de pair. Les travaux de Yiying Wu apportent assurément un coup de neuf à la technologie photovoltaïque même si le professeur reconnaît que pour l’heure, une telle installation revient assez cher.

Pour encourager leurs travaux, l’Université de l’Ohio s’est vu attribuer un chèque de 100 000 dollars, prix du Département Américain à l’Énergie. L’innovation est d’ores et déjà brevetée. La commercialisation pourrait donc commencer dans un avenir proche.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le projet fou de Google de connecter la Terre entière à internet devient réalité

Tout droit sortit du laboratoire secret de Google, le Google X Lab, le projet Loon consiste à développer une flotte de ballons dirigeables qui permettra de délivrer internet partout dans le monde, même dans les zones les plus reculées. En juin 2013, Google a lancé ses premiers ballons stratosphériques gonflés à l’hélium. Ces trente ballons font quinze mètres de diamètres et peuvent assurer la couverture internet d’une zone de 1200km², chaque ballon assurant à lui seul 40 km². Les ballons volent à haute altitude, plus de 20 km, et sont alimentés grâce à des panneaux solaires.

Ceux-ci  produisent environ 100W quand l’éclairement est maximal et sont inclinables de façon à optimiser le rendement même quand les journées sont courtes. De quoi recharger suffisamment les batteries pour assurer le fonctionnement des ballons la nuit. L’enveloppe gonflable de 15m de diamètre et 12m de haut  est en polyéthylène. Les Loons utilisent la technologie LTE (Long term evolution), communément appelée la 4G. 

Si la conception, bien qu’optimisable, semble être validée, il reste à contrôler la trajectoire des ballons soumis aux vents stratosphériques. Pour l’instant, le seul paramètre sur lequel Google peut agir est l’altitude du ballon, ce qui suppose de parfaitement connaître la vitesse et la direction des vents pour le diriger. Pour l’instant, la gestion de la trajectoire reste trop complexe pour être précise mais Google s’affranchi du problème en envoyant en l’air plusieurs ballons les uns à la suite des autres, chacun servant de joker au précédent s’il venait à trop dériver. L’idée est d’avoir suffisamment de ballons pour assurer la connexion internet en continue. Le géant américain vient d’ailleurs de signer avec le CNES, spécialiste de l’envoi de ballons stratosphériques, pour tester différents algorithmes censés permettre un meilleur contrôle des ballons.

Et si cela ne suffit pas, Google a encore un atout dans sa manche. Avec le rachat de Titan Aerospace, Google imagine compléter sa flotte de ballons par des drones solaires. Avec tout ça, il y a fort à parier que Google aboutira bel et bien à une solution pour connecter tous les humains, où qu’ils habitent, qu’ils le veuillent ou non…

Par Audrey Loubens

Le marché de l’impression 3D explose, dynamisant du même coup celui des matériaux

L’étude publiée par le cabinet Markets & Markets dévoile l’ampleur du phénomène. L’impression 3D, véritable technologie de rupture, est une véritable locomotive pour les marchés associés, notamment celui des matériaux d’impression 3D. Ainsi, le secteur de ces matériaux atteindra probablement  1.052 milliards de dollars en 2019. Aujourd’hui, ce marché est estimé à 400 millions de dollars, mais Markets & Markets table sur une progression annuelle de 20.4%. Une évolution cohérente avec celle du marché de l’impression 3D en général qui affiche lui aussi un dynamisme de 20% par an selon l’étude du cabinet Xerfi.

Si l’imprimante 3D peine à pénétrer les foyers, les industriels ont bien compris le potentiel exceptionnel de l’impression 3D. Aujourd’hui très utilisé dans le médical, l’aéronautique ou encore l’automobile, l’impression 3D profite des progrès liés aux procédés et aux matériaux. Les plus utilisés sont les plastiques, dont le marché devrait passer de 250 millions de dollars en 2014 à 671 millions en 2019. Les plastiques utilisés pour l’impression 3D sont principalement l’ABS et le PLA, mais on retrouve aussi des photo-polymères et du nylon. Les plastiques représentent 64% du marché des matériaux d’impression 3D, loin devant les métaux, les céramiques et les matériaux hybrides.

Les grands acteurs des matériaux 3D sont les américains 3D Systems Inc. et Stratasys Ltd., le suédois Arcam AB et l’allemand ExOne Gmbh.

D’après l’étude, les plastiques resteront les matériaux les plus utilisés dans les années à venir en impression 3D, une position dominante confortée par le développement futur des imprimantes personnelles. Un point de vue modéré par le cabinet Xerfi dont l’étude parue en octobre indiquait que ce secteur restait encore marginal et ne devrait pas connaitre d’évolution particulière. Pour preuves, en 2013, seulement 72500 imprimantes ont été vendues dans le monde.

En attendant le développement des applications privées, l’impression 3D séduit les industriels. L’industrie spatiale apprécie le faible coût de petites séries comparé à l’utilisation d’un moule et réfléchit à utiliser les imprimantes 3D pour fabriquer directement des pièces dans les stations spatiales, de son côté la médecine fabrique des prothèses auditives et dentaires par impression de façon standard, et récemment une voiture entière a été imprimée.

Par Audrey Loubens

Electronique grand public: dépenses mondiales +1% en 2014, incertitude pour 2015 (étude)

D’après une étude de l’institut GfK et de l’association américaine de l’électronique grand public CEA, les consommateurs ont dépensé 1.024 milliards de dollars dans le monde pour des smartphones, tablettes, ordinateurs, téléviseurs et autres consoles de jeux vidéo.

Lors d’une conférence de presse à Las Vegas, l’un des économistes de la CEA, Steve Koenig, n’a en revanche pas livré de prévision mondiale pour l’année à venir, où « nous avons un tableau de dépenses très mitigé », a-t-il commenté.

Certains marchés émergents qui contribuaient jusqu’ici à soutenir la croissance semblent partis pour ralentir: les dépenses en Amérique latine devraient ainsi baisser cette année de 5%, autant que sur les marchés plus matures d’Europe occidentale.

Une autre incertitude concerne la durée durant laquelle les appareils mobiles vont encore continuer à soutenir les dépenses. Smartphones et tablettes devraient encore représenter 46% des dépenses mondiales en électronique grand public cette année. Mais la croissance ralentit nettement sur ces deux marchés.

Les ventes de smartphones devraient ainsi progresser de seulement 19% à 1,51 milliard d’unités cette année, après encore +28% en 2014 et +49% en 2013. En termes de montants dépensés, la progression devrait être encore plus faible, de 9% à 406,7 milliards de dollars (après +13% en 2014 et +30% en 2013).

M. Koenig a notamment invoqué la baisse des prix unitaire des appareils, qui devraient tomber pour la première fois sous la barre des 300 dollars (à 275 dollars en moyenne) alors que les marchés émergents représentent une part croissante des débouchés, probablement 75% des unités vendues cette année selon l’étude de la CEA et du GfK.

Le même ralentissement se mesure dans les ventes de tablettes, où une hausse de 20% du nombre d’unités écoulées cette année, à 337 millions, ne devrait pas empêcher une baisse de 8% des revenus à quelque 61,9 milliards de dollars (après déjà -1% en 2014).

Le salon d’électronique grand public International CES ouvre officiellement ses portes à Las Vegas mardi, et durera jusqu’au 9 janvier.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »