Best of des IG Nobels… de physique

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de physique !

  • 2000 : prix décerné au Néerlandais Andre Geim (université de Nimègue, aux Pays-Bas) et au Britannique Sir Michael Berry (université de Bristol, au Royaume-Uni) pour avoir fait entrer une grenouille vivante en lévitation magnétique. Placée à l’intérieur d’un électroaimant de Bitter en position verticale, le batracien casse-cou est soumis à un champ magnétique de 16 teslas.

Le nom d’Andre Geim vous est quelque peu familier ? Le physicien d’origine russe est en effet connu et reconnu pour avoir reçu le prix Nobel de physique en 2010, Nobel qu’il partage avec Konstantin Novoselov pour avoir découvert l’un des matériaux stars de cette dernière décennie, le graphène. Andre Geim est à ce jour le seul lauréat d’un prix Nobel et d’un prix Ig Nobel.

 

  • 2001 : le prix d’astrophysique fut décerné à Jack et Rexella Van Impe, deux célèbres télévangélistes américains basés à Rochester Hills, dans le Michigan, pour avoir « découvert » que les trous noirs remplissent toutes les conditions techniques requises pour abriter… l’enfer. On n’en sait pas plus sur ces fameuses conditions.

 

  • 2005 : prix décerné à Thomas Parnell et à John Mainstone, pour leur rôle dans la célèbre « expérience de la goutte de poix », commencée en 1927 à l’université du Queensland de Brisbane, en Australie. Cette expérience – qui est l’expérience scientifique en cours la plus longue du monde, dont nous vous avions déjà parlé ici – a pour but de mesurer la viscosité de la poix, à l’aide de l’écoulement d’un de ses fragments. Démarrée en 1927 par le professeur Thomas Parnell, l’expérience a connu un nouveau rebondissement, en avril dernier… lorsque la neuvième goutte est enfin tombée, comme vous pouvez le voir ici.

John Mainstone, prêt de sa goutte, fier comme un Grand d’Espagne

 

  • A venir : le best of des IG Nobels… de psychologie

Par Rahman Moonzur

Best of des IG Nobels… de psychologie

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de psychologie !

  • 1995 : prix décerné aux Japonais Shigeru Watanabe, Junko Sakamoto, et Masumi Wakita, de l’université de Keio, pour avoir réussi à transformer des pigeons en esthètes. Là où encore un trop grand nombre d’êtres humains auraient échoué, les pigeons surentraînés par l’équipe japonaise furent capables de faire la différence entre des tableaux de Pablo Picasso et d’autres de Claude Monet, même parmi des tableaux observés pour la première fois. Sensibles à la notion de style, les pigeons…

 

  • 2000 : David Dunning (de l’université Cornell, État de New-York) et Justin Kreuger (de l’université de l’Illinois) furent récompensés pour leur étude brillamment intitulée « Incapables et inconscients de l’être : comment la difficulté de reconnaître sa propre incompétence mène à une surévaluation de soi ».

 

  • 2004 : prix remis aux Américains Daniel Simon et Christopher Chabris, de l’université Harvard, pour avoir démontré que les mécanismes complexes de la concentration peuvent nous permettre de faire abstraction de notre environnement, jusqu’à réussir à ne pas remarquer du tout une femme déguisée en gorille.

Photo tirée du compte-rendu de recherche. Copyright Daniel Simon/Christopher Chabris

 

  • 2012 : Pencher vers la gauche fait-il apparaître notre tour Eiffel nationale… plus petite  ? Trois chercheurs hollandais, Anita Eerland, Rolf Zwaan et Tulio Guadalupe, ont remporté l’Ig Nobel de psychologie cette année pour avoir étudier, à travers cette étrange question, si la posture du corps a une influence sur notre perception des quantités.

Scientifiques en plein travail / Copyright Jessica Rinaldi pour Reuters

 

  • 2013 : étudier les mécanismes complexes de l’ivresse et faire un lien avec ceux tout aussi complexes de l’estime de soi ? Dans leur étude intitulée de manière très transparente « Beauty is in the eye of the beer holder » (« la beauté est dans les yeux du buveur de bières »), une équipe du laboratoire inter-universitaire de psychologie de Grenoble laisse entendre qu’une personne pensant être ivre pense également être séduisante. Ce constat plein de sens leur a valu l’Ig Nobel de psychologie l’année dernière.

 

  • A venir : le best of des IG Nobels… en vrac

Par Rahman Moonzur

L’Irena craint que la baisse du pétrole ne gêne l’essor des énergies propres

La surproduction mondiale combinée à l’atonie de la demande dans un contexte de crise économique ont, entre autres facteurs, fait perdre au cours de l’or noir plus de la moitié de sa valeur depuis le mois de juin.

Selon le représentant koweïtien à la réunion de l’Irena, « la chute des prix du pétrole dans les années 80 avait été la principale cause de l’abandon de nombreux projets d’énergie renouvelable ». La baisse actuelle pose donc un « problème majeur », a ajouté Salem al-Hajraf.

Ces crainte s’inscrivent dans un contexte de hausse des investissements mondiaux dans les énergies renouvelables. Elles ont atteint 264 milliards de dollars (228,2 mds d’euros) en 2014, soit une augmentation de 50 milliards par rapport à l’année précédente, selon le directeur général de l’Irena, Adnan Amin.

Pour le vice-ministre italien du Développement économique, Claudio Vincenti, l’effondrement des cours pourrait « changer la donne » et modifier « l’équilibre » entre les sources de production d’énergie, notamment parce que la hausse des prix du pétrole avait contribué dans le passé à une augmentation des investissements dans les énergies propres.

Les énergies renouvelables sont indispensables pour atteindre les objectifs mondiaux de réduction des émissions de CO2. En décembre prochain, 195 pays se réuniront à Paris pour décider d’une réduction des émissions de gaz à effet de serre (GES), pour éviter que la hausse de la température de la planète n’atteigne des niveaux dangereux.

Parmi les participants à l’Assemblée générale de l’Irena -soit quelque 150 pays et 110 organisation internationales- se trouve une délégation d’Israël, pays qui n’a pas de relation diplomatique avec les Emirats arabes unis.

Cette réunion se déroule dans le cadre d’une semaine consacrée au développement durable à Abou Dhabi, où aura également lieu jusqu’au 24 janvier un sommet de l’énergie auquel le président égyptien Abdel Fattah al-Sissi prendra part, ainsi qu’un sommet international de l’eau, où la ministre française de l’Ecologie et de l’Energie Ségolène Royal sera présente.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Big Data et amélioration du système de santé

Comment les données de masse peuvent améliorer le système de santé ?

« Nous avons de nombreuses nouvelles biotechnologies qui nous permettent d’étudier un patient au niveau moléculaire. Un simple échantillon d’un patient à un instant T peut facilement générer des centaines de milliers de lectures possibles. Si vous avez 1.000 patients et 10 instants t, en une seule prise de données, vous avez plus d’un milliard de nombres à analyser. C’est pourquoi nous avons besoin de méthodes informatiques pour analyser les données individuelles. Tout cela conduit à une médecine personnalisée : pour établir un diagnostic ou une prédiction de l’évolution des conditions de santé d’un patient, vous avez besoin de données très volumineuses sur cet individu ».

Quelle en est l’utilisation actuelle en médecine ?

« On en est qu’au début, particulièrement dans les cas de cancer où on essaie de prédire, par exemple, si quelqu’un répondra à une certaine chimiothérapie. Mais on ne voit encore que la partie émergée de l’iceberg. La médecine personnalisée aura beaucoup plus d’applications cliniques dans les 10 à 20 prochaines années.

Un des tests que nous sommes en train de développer à PROOF [Prevention of Organ Failure] est de prélever un échantillon de sang d’un patient souffrant de maladie respiratoire obstructive chronique, au moment où le patient ressent les premiers symptômes pour essayer de prédire si cette personne va présenter un développement rapide de sa maladie ou une attaque pulmonaire dans les deux mois. Si un test comme celui-ci fonctionne, le clinicien pourrait commencer à donner au patient un traitement plus efficace, comme des stéroïdes, avant le déclenchement de l’attaque. Ceci pourrait éviter au patient d’être hospitalisé. En plus d’aider des patients, un tel test sanguin permettrait au système de santé de réaliser une économie substantielle.

Beaucoup de gens soulignent les problèmes concernant l’atteinte à la vie privée dans le recueil de telles données. Dans les recherches de santé, la vie privée des patients est d’une importance capitale. Tout ce travail se fait sous le couvert d’une éthique stricte. Au-delà du contexte de médecine spécialisée, des techniques très puissantes ont été développées, sous la bannière des recherches de données, ou de statistiques informatiques.

Nous avons les technologies pour collecter et analyser les données de masse, et nous devons avoir l’assurance que les structures de gouvernances sont là pour limiter les abus » conclut le Prof. Ng.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Messagerie instantanée sécurisée : suivez le guide !

L’ONG américaine EFF (Electronic Frontier Foundation), spécialiste de la vie privée sur Internet, a dressé une liste des logiciels de messagerie instantanée les plus sécurisés… et les moins sécurisés, aussi. Sur sa page comparative, elle a noté 39 logiciels et services de messageries, qui se décrivent comme étant “sécurisés”.

EFF se base sur 7 critères : le chiffrement des messages lors de l’envoi, l’accessibilité des messages envoyés par le fournisseur du service, la vérification d’identité des contacts, la sécurité des anciens messages en cas de vol des clefs de chiffrement, l’ouverture du code source, la documentation des mesures de sécurité et l’audit du code source.

Oubliez Skype et Google Hangouts

Si vous souhaitez discuter en ligne en toute sécurité et en toute confidentialité, depuis votre PC ou votre Mac, les logiciels libres tels que Pidgin et Adium – associés au plugin OTR (Off-the-Record) -, ou encore Cryptocat, figurent parmi les solutions les plus sûres et les plus respectueuses de votre vie privée. En effet, ces logiciels chiffrent vos communications, et les rendent totalement inaccessibles.

En revanche, oubliez la plupart des logiciels propriétaires “populaires”, que vous utilisiez peut-être, comme la plupart des internautes. Surprise, iMessage, le service de “chat” d’Apple, s’avère relativement sûr selon EFF, avec une note de 5 sur 7. Et pour cause, puisque le logiciel chiffre les messages lors de l’envoi et ne permet pas, normalement, à Apple d’accéder aux messages.

Mais iMessage fait figure d’exception confirmant la règle. Ainsi, des logiciels tels que Skype, Google Hangouts, AIM, Viber, Yahoo Messenger et FacebookChat se révèlent particulièrement peu sécurisés, avec des notes oscillant entre 1 et 2. Certes, les conversations sont chiffrées sur ces 6 logiciels. Mais les fournisseurs des services peuvent accéder à vos messages s’ils le désirent, et en cas de vol de clés, vos anciennes conversations sont susceptibles d’être accessibles.

WhatsApp et Snapchat parmi les bonnets d’âne

Si vous désirez utiliser un logiciel de messagerie instantanée avec votre smartphone, c’est le même cas de figure. Le client open source de “chat privé” Chatsecure, associée au plugin Orbot (qui fera transiter le trafic de l’appli à travers le réseau décentralisé Tor), s’avère la solution la plus sécurisée, selon EFF. CryptoCat, déjà cité plus haut, figure aussi parmi les meilleures applications Android et iOS.

Mais oubliez les applications les plus populaires, comme WhatsApp, Snapchat, ou même BlackBerry Messenger (BBM), qui ne font que chiffrer les communications lors de l’envoi, et rien d’autre. FaceTime, d’Apple, obtient une note de 5 sur 7 : si le chiffrement est présent, et si le fournisseur ne peut accéder à vos communications, l’identité de vos contacts n’est par contre pas vérifiable…

Parmi les applis pour smartphone les mieux notées par EFF, figurent aussi les solutions Silent text et Silent phone, ainsi que les applications RedPhone et Textsecure.

Conclusion : mieux vaut utiliser des services pas forcément connus, mais sûrs, plutôt que des logiciels utilisés en masse, mais peu sécurisés. Seul problème : si vous choisissez d’utiliser Chatsecure ou Cryptocat, il vous faudra aussi convaincre vos contacts de faire de même.

Par Fabien Soyez

Deux nouvelles planètes aux confins du système solaire? (étude)

En 2006, l’Union astronomique internationale a retiré à Pluton son statut de planète vu sa petite taille qui l’apparente maintenant à la catégorie des planètes naines, faisant tomber le nombre de planètes du système solaire à huit.

Cela n’a pas mis un terme au débat qui agite les astronomes du monde entier depuis des décennies: d’autres planètes existent-elles au-delà de Pluton?

Dans une étude publiée par le journal « Monthly notices of the Royal astronomical society letters », les chercheurs assurent « qu’au moins deux planètes » sont cachées derrière Neptune.

Les chercheurs basent notamment leur déduction sur l’étude du comportement orbital d’une douzaine d’objets trans-neptuniens extrêmes (ETNO).

Ils présentent « des paramètres orbitaux inattendus » qui « laissent croire que des forces invisibles altèrent leur distribution orbitale », a expliqué l’astrophysicien Carlos de la Fuente Marcos, à l’agence d’information scientifique espagnole Sinc.

« Nous considérons que l’explication la plus probable est que d’autres planètes inconnues existent au-delà de Neptune et Pluton », a estimé ce chercheur à l’université Complutense de Madrid et co-auteur de l’étude avec des scientifiques de l’Université de Cambridge.

« Leur nombre exact est inconnu, car nos données sont limitées, mais nos calculs suggèrent qu’il y a au moins deux planètes, et probablement plus, aux confins de notre système solaire », a-t-il ajouté.

Les auteurs de l’étude reconnaissent toutefois que leur théorie vient en contradiction avec les modèles couramment admis sur la formation du système solaire, selon lesquels il n’y a pas d’autres planètes en orbite circulaire derrière Neptune.

De plus, les calculs sont basés sur l’étude d’un petit nombre d’objets, mais les chercheurs assurent que d’autres résultats seront publiés dans les prochains mois, élargissant l’échantillon.

« S’ils sont confirmés, nos résultats pourraient révolutionner l’astronomie », considère M. la Fuente Marcos.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les médecins ont une vision positive des objets de santé connectés (sondage)

81% des médecins estiment que « la santé connectée est une opportunité pour la qualité de soins » et 91% jugent qu’elle est « une opportunité pour améliorer la prévention » des maladies chez les patients.

Cette enquête d’opinion, réalisée du 2 au 12 décembre par téléphone sur un échantillon de 399 médecins généralistes et spécialistes par l’institut Odoxa pour la société de télécoms Orange et l’assureur MNH, confirme l’intérêt des professionnels de santé pour ces nouveaux outils.

En plein développement, les objets de santé connectés recueillent des données sur les personnes qui les utilisent pour les transmettent par internet à des logiciels en vue d’une analyse et d’un traitement utiles à la santé des utilisateurs.

Il peut s’agir d’objets pour le grand public comme des pèse-personnes connectés ou des outils réservés à des malades et prescrits par les médecins comme des tensiomètres connectés.

Les médecins jugent que ces objets sont avant tout utiles pour ceux qui souffrent de maladies chroniques ou d’affections de longue durée (à 70%) et dans une moindre mesure pour les plus jeunes (37% de réponses positives), pour les personnes âgées fragiles (31%) et pour les « séniors actifs » (22%).

Les professionnels de santé estiment à 94% que ces objets contribuent à « l’éducation thérapeutique » de leurs patients pour leur permettre de mieux vivre avec leur maladie et à 93% qu’ils contribuent à la prévention des risques de santé comme l’obésité, le diabète ou l’hypertension.

Toutefois, environ la moitié des médecins pensent que ces objets constituent une menace pour le secret médical et un tiers jugent que ces objets menacent le libre choix des patients.

Une « infime minorité » de malades, évaluée à 5%, est équipée d’objets médicaux connectés selon un autre sondage réalisé par le même institut auprès de 406 personnes atteintes de maladies chroniques ou d’affections de longue durée (par exemple diabètes, insuffisances cardiaques graves, cancers ou maladie d’Alzheimer).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des antibiotiques respectueux de l’environnement

Pour cette raison, la DBU finance à hauteur de 460.000 euros l’Université Leuphana de Lunebourg (Basse-Saxe), qui souhaite développer un antibiotique biodégradable sans danger pour l’environnement. M. Bottermann recommande également de réduire au minimum l’utilisation des antibiotiques en médecine animale et humaine : les quantités utilisées sont trop importantes et entraînent l’apparition de bactéries résistantes aux antibiotiques.

L’étude de l’Université Leuphana de Lunebourg se concentre sur la ciprofloxacine, un antibiotique appartenant à la famille des fluoroquinolones, et qui est très souvent prescrit. La ciprofloxacine possède un large spectre d’efficacité et est utilisée dans le traitement des infections bactériennes et des inflammations. Contrairement à d’autres antibiotiques, la ciprofloxacine est très stable, donc difficilement dégradable, et efficace à de faibles concentrations. Elle se retrouve dans les eaux usées des hôpitaux, dans les stations d’épurations, dans les eaux de surface et dans les sols traités avec du lisier.

Klaus Kümmerer, de l’Institut pour une chimie durable et environnementale de l’Université Leuphana de Lunebourg, veut étudier la modification de la structure de la ciprofloxacine afin de la rendre biodégradable et empêcher sa présence dans l’environnement, tout en conservant son efficacité. « Nous voulons analyser le principe actif et le modifier à l’aide de modélisations numériques. Puis nous testerons à l’aide de modèles de calculs la biodégradabilité et les effets toxicologiques des différentes variantes obtenues » explique Kümmerer. Les molécules candidates devront ensuite être synthétisées en laboratoire. Une série de test sera ensuite conduite afin de prouver leur biodégradabilité et leur efficacité contre des germes résistants, mais aussi pour déceler de possibles effets secondaires.

Ce projet pourrait contribuer à résoudre le conflit entre l’efficacité des médicaments et la protection de l’environnement. Selon Bottermann, tout le cycle de vie des médicaments doit être pris en compte pour empêcher la création de résidus nuisibles pour l’environnement, depuis le développement de substances biodégradables jusqu’au développement de techniques spécifiques dans les stations d’épuration.

Source : bulletins-electroniques

Et aussi dans les
ressources documentaires :

Le commissaire à l’agriculture s’engage sur le maintien de l’étiquetage des OGM

Au moment de l’ouverture de la Green Week, le plus grand salon de l’agriculture au monde qui a lieu chaque année à Berlin, le commissaire européen Phil Hogan s’est clairement positionné en faveur de l’étiquetage des produits contenant des OGM.

Le responsable politique irlandais a déclaré qu’il n’accepterait aucun compromis concernant les normes de protection du consommateur. Phil Hogan, nommé commissaire en charge de l’agriculture en novembre, a accordé une interview au journal allemand Süddeutsche.

« Nous camperons sur nos positions », a-t-il insisté.

La promesse de Phil Hogan est survenue quelques jours seulement après le regain d’attention accordé au génie génétique en UE.

En effet, le 13 janvier, le Parlement européen a approuvé une nouvelle directive concernant les organismes génétiquement modifiés. Cette mesure permettra aux États membres de choisir une clause d’exemption et donc de pouvoir limiter ou interdire complètement la culture OGM sur leur territoire.

Jusqu’à présent, l’interdiction n’était possible que si le pays prouvait que la culture OGM entraînait des risques pour la santé ou l’environnement, a expliqué Vytenis Andriukaitis, commissaire européen en charge de la santé et de la sécurité alimentaire. La nouvelle directive donne davantage de libertés aux États membres de l’UE pour proscrire la culture OGM, a-t-il ajouté.

L’AECG et le TTIP menace l’interdiction des OGM

En Allemagne, le ministre de l’agriculture espère arriver à l’interdiction complète de la culture de produits alimentaires génétiquement modifiés. Cette position a été annoncée par Barbara Hendricks, ministre allemande de l’environnement et originaire du Parti social-démocrate (SPD).

Les craintes quant à la consommation de produits génétiquement modifiés demeurent solides. Les opposants voient les accords de libre-échange avec le Canada (AECG) et avec les États-Unis (TTIP) comme une menace pour l’interdiction des OGM.

C’est également l’avis du parti écologiste du Bundestag développé dans une étude appelée Accord de libre-échange – porte ouverte à l’agriculture transgénique. Cette étude, conduite par Christoph Then et qui s’appuie sur un texte de l’AECG, est une analyse des possibles conséquences du TTIP.

Sa conclusion est qu’avec le TTIP, « les normes de l’UE en matière de protection de l’agriculture sans OGM, telles que les mesures contre la contamination des semences propres par exemple, seront réduites à moyen-terme».  L’auteur prédit également des changements dans la procédure d’approbation des produits importés.

Phil Hogan se serait penché sur les inquiétudes des consommateurs, « car jusqu’à présent, les négociations n’ont pas été du tout transparentes » a-t-il commenté. Mais la commissaire en charge du commerce, Cecilia Malmström, est en passe de changer la donne, a-t-il assuré.

« Quand les gens auront compris ce qui est réellement négocié et quels arguments sont mis en avant, je suis sûr que leurs craintes se dissiperont, » a expliqué Phil Hogan, ajoutant au passage que les normes de protection du consommateur n’en seront pas ébranlées.

« Le sceau des spécialités régionales sera maintenu »

La Commission européenne est claire sur au moins un sujet : elle n’autorisera aucune dérogation concernant l’identification des produits génétiquement modifiés. Selon Phil Hogan, « L’identification d’un produit transgénique en scannant le code barre sur le paquet, comme le suggèrent les Américains, n’est pas l’idée que je me fais d’un étiquetage clair, et ne répond pas non plus aux règles existantes.»

Pour lui, la reconnaissance des spécialités régionales doit demeurer, même avec le TTIP. Il a pourtant rappelé que l’accord de libre-échange entre l’UE et les États-Unis ne menaçerait pas les « saucisses grillées de Nuremberg » ou le « jambon de la Forêt-Noire ».

« Notre système de protection des marques régionales restera tel quel, » a expliqué Phil Hogan, rajoutant que le TTIP n’était pas une menace mais plutôt une opportunité pour les producteurs de spécialités locales.

Les militants pour la protection du consommateur et le syndicat agricole ont vivement critiqué le projet au début de l’année. Face à cette réaction, Christian Schmidt, ministre allemand de l’agriculture, a déclaré que si l’on voulait établir le TTIP, toutes les sortes de saucisses ou de fromages ne pourraient pas être protégées.

Son porte-parole a vite corrigé le tir en soutenant que tant que le ministre serait à son poste, « il n’y aurait pas de saucisses grillées de Nuremberg fabriquées dans le Kentucky »

EurActiv.de Nicole Sagener traduit de l’anglais par Marion Candau
Source : euractiv.fr

 

USA: dans l’Atlantique, l’éolien a deux fois plus de potentiel que le pétrole

Selon cette recherche publiée mercredi, l’énergie éolienne offshore pourrait créer en 13 ans sur la côte atlantique américaine plus d’électricité que tous les forages pétroliers et de gaz offshore, soit l’équivalent de cinq milliards de barils de pétrole.

En outre, la prospection et la production pétrolière et de gaz envisagées au large des côtes de l’Atlantique menaceraient près de 1,4 million d’emplois et plus de 95 milliards de gains économiques engendrés par la pêche et le tourisme, en raison de son impact néfaste sur les écosystèmes océaniques, estime Oceana.

Le rapport d’Oceana remet en question de récentes projections de l’industrie pétrolière selon lesquelles le forage offshore sur la côte est des Etats-Unis contribuerait à rendre le pays indépendant en terme d’énergie, créerait des milliers d’emplois et engendrerait des millions de dollars de revenus pour les Etats.

En outre, selon Oceana, ces estimations s’appuient sur l’hypothèse de la récupération d’hydrocarbure et de gaz naturel qui ne sont pas économiquement exploitables.

« Il est temps que les Etats-Unis s’inspirent de ce qui se fait ailleurs dans le monde –notamment en Europe– depuis plus de vingt ans dans l’éolien offshore pour produire de l’énergie propre et renouvelable sur nos côtes », estime Andrew Menaqual, un analyste du secteur énergie d’Oceana auteur de ce rapport. Les Etats-Unis sont effectivement en retard dans ce domaine mais les projets se multiplient désormais.

L’Etat du Massachusetts (nord-est) a lancé en 2014 un appel d’offre pour la construction du plus grand parc éolien offshore jamais construit dans le pays, qui s’étendra sur 300.000 hectares au large de ses côtes.

Le Bureau de gestion de l’énergie océanique a déjà accordé sept concessions pour des projets du même type dans l’Atlantique au large du Delaware (est), du Rhode Island (nord-est), du Maryland et de la Virginie (est).

Dans l’Union européenne, le cap des 2.000 éoliennes offshore installées et des 6.500 mégawatts en fonctionnement a été franchi fin 2013.

Oceana estime également que les effets néfastes sur l’environnement marin de l’exploitation pétrolière commenceraient bien avant les forages eux-même.

En juillet 2014, l’administration Obama a décidé d’examiner l’utilisation de canons à air comprimé, qui produisent des déflagrations comme de la dynamite, pour détecter des dépôts de pétrole et de gaz au fond de l’Atlantique, dans une zone qui fait deux fois la superficie de la Californie, du Delaware à la Floride.

Selon le gouvernement, cette technique pourrait avoir des effets néfastes sur les poissons et 138.000 mammifères marins comme les baleines et les dauphins, selon Oceana.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La fusée Ariane 6 est prévue pour 2020 !

Depuis l’arrivée sur le marché spatial d’un acteur peu commun, la société américaine SpaceX dirigée par Elon Musk, les règles du jeu semblent avoir changé. Les prix sont cassés, « low-cost » peut-on lire parfois. Un lancement américain revient à 45 millions d’euros contre 130 pour Ariane 5. Il faut dire que la conception d’Ariane 5 remonte aux années 90 et comporte aujourd’hui quelques faiblesses dont la principale est son coût de lancement comme on le disait plus haut, très onéreux lorsqu’il est impossible d’envoyer deux satellites en même temps. À l’heure actuelle, la fusée lourde bénéficie d’une estime mondiale gagnée au fil du temps grâce à sa fiabilité, mais il n’est pas impensable que ses concurrents grignotent petit à petit des parts de marché jusqu’à obtenir le leadership dans ce domaine.

Pour cette raison, les Européens ont choisi de ne pas faire une version évoluée d’Ariane 5 mais de créer un nouveau lanceur économiquement compétitif et d’utilisation plus souple. Deux déclinaisons verront le jour (A62 et A64) afin de répondre aux différents besoins des clients. Si l’architecture des deux fusées sera plus ou moins identique – elle comportera trois étages et une coiffe sur une hauteur de 70 mètres – il y aura tout de même quelques variables. Par exemple, A62 ne pèsera que 500 tonnes et disposera de 2 boosters contre 800 tonnes et 4 boosters pour A64. L’ESA envisage de réaliser 12 lancements par an, dont 5 institutionnels.

Cela devrait permettre de rester dans la course à la conquête spatiale, et faire en sorte que l’Europe continue d’être un acteur majeur. Ce qui, selon Karim Michel Sabbagh, directeur exécutif de SES, l’opérateur de satellites de communication n’aurait pu être le cas sans cette décision : « l’Europe aurait eu un retard compétitif qu’elle n’aurait jamais pu rattraper ». Car ce n’est pas les récents exploits de la sonde Rosetta et du robot Philae déposé sur la comète Churyumov-Gerasimenko ou le redressage d’un des satellites du projet Galileo qui auraient suffi à donner le change.

Et les factures dans tout ça ? Une enveloppe de huit milliards d’euros sera consacrée à la construction des fusées spatiales ainsi qu’un centre de lancement en Guyane, plus quelques modifications d’Ariane 5. Les dépenses s’étaleront sur dix ans, ce qui signifie que chaque année, 800 millions d’euros serviront ce projet financé à moitié par la France et à moitié par les autres participants que sont l’Allemagne, la Belgique, l’Espagne, l’Italie, les Pays-Bas, la Suède et la Suisse.

Le développement d’Ariane 6 a été confié à la division Aibus Defense and Space ainsi qu’à son motoriste, le bien nommé Safran. Les deux industriels ont décidé de fonder une co-entreprise dédiée à la construction de la fusée modulaire : Airbus Safran Launchers, annoncée en juin 2014. Dès 2016, pas moins de 8 500 employés, répartis dans diverses usines en France et en Allemagne entre autres, entameront ce travail. Ils auront fort à faire puisque la date prévisionnelle de rendu des deux déclinaisons d’Ariane 6 est calculée pour 2020.

La nouvelle entité espère grâce à cette mise en commun créer une synergie et diminuer les coûts de production en réduisant le nombre d’interfaces commerciales. Mais plus important encore, cette alliance leur offre une marge de manoeuvre très aérée, une liberté d’action quasi totale, notamment pour le choix de tel ou tel matériau. Ce qui peut se révéler inquiétant pour certains puisque le Centre national d’études spatiales (CNES) ne pourrait plus exercer son droit de surveillance financière et technique qui lui permet de comprendre et mieux maîtriser les dépenses de l’argent public.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Sentient Technologie lève 143 millions pour développer la plus grosse IA jamais créée

« Le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité » s’alarmait Stephen Hawking lors d’un entretien sur la BBC il y a à peine quelques semaines. Sa crainte est qu’une telle intelligence puisse se développer de façon autonome et à grande vitesse tandis que nous autres, humains, n’évoluons qu’à la vitesse naturelle de la biologie, bien plus lente. Nous serions très vite dépassés, et pourquoi pas, dominés. Malheureusement, l’astrophysicien britannique n’est pas prêt d’être rassuré. La Start-up Sentient a décidé de fabriquer une intelligence artificielle distribuée, la plus importante capable de traiter l’ensemble des données d’internet à elle seule ! Cela représente 1022 octets, soit 10 zettaoctets, le tout répartis sur les différents serveurs, publics et privés.  L’objectif est de réussir à traiter la quantité colossale d’informations présentes sur les serveurs. Pour y arriver, Sentient doit installer sa technologie sur chaque centre de donnée. Ces derniers pourront alors communiquer entre eux et échanger des informations. Les fondateurs, Babak Hodjat et Nigel Duffy annoncent pouvoir alors résoudre n’importe quel problème en prenant les bonnes décisions basées sur l’analyse pertinente des connaissances relatives au sujet.

Par exemple, le domaine de la santé est un bon secteur d’application. Sentient est actuellement en phase de test avec le Laboratoire d’informatique et intelligence artificielle du MIR pour anticiper les risques éventuels de septicémie de 6000 malades. La pression artérielle de ces patients cobayes, un des marqueurs d’un début de septicémie,  est mesurée et analysée en temps réel.

Sentient commence donc à négocier au cas par cas avec les propriétaires des serveurs pour commencer à implanter ses programmes et toucher le plus grand nombre de microprocesseurs. Leurs fondateurs ont déjà annoncé un partenariat avec Tata communication, le géant indien des télécoms.

Nigel Duffy estime qu’en moins de 15 ans, leur IA sera suffisamment développée pour s’apparenter à une conscience artificielle. De quoi s’enthousiasmer ou  frémir.

Par Audrey Loubens, journaliste scientifique

La photo de la semaine #1

  • Mais qu’est-ce donc ?

Vous voulez tenter de découvrir ce que représente cette photo, obtenue à l’aide d’un microscope optique ?

Publiez vos propositions dans la zone « commentaires » ci-dessous.

 

  • La réponse sera donnée la semaine prochaine dans l’article La photo de la semaine #2

Comprendre les faiblesses des batteries lithium-ion

Superstar de l’électronique portable, la batterie lithium-ion occupe le haut du pavé depuis son introduction sur le marché au début des années 1990. Sollicité sans relâche par sa charge électrique, l’ion lithium se fraie invariablement un chemin entre l’anode et la cathode, jusqu’à l’épuisement. Pour améliorer le rendement de ces batteries, le professeur Reza Shahbazian-Yassar, chercheur à l’université technologique du Michigan, s’est mis en tête de cartographier le parcours des ions lithium dans l’un de ces accumulateurs, afin d’y déceler d’éventuels accrocs et comprendre comment y mettre son petit grain de sel.

Armé de son fidèle microscope électronique en transmission, le chercheur d’origine iranienne, spécialiste des nanotechnologies, serait parvenu à comprendre le triste sort de l’anode, à la merci des ions lithiums. Et lui a même trouvé un petit nom, le « brassage atomique ». « La structure en couches superposées de l’électrode évolue en même temps que les ions lithium la pénètrent, créant une structure en sandwich. La structure doit faire face à de nombreuses expansions et contractions très localisées », explique-t-il, ce qui permet au lithium de se frayer un chemin à travers l’électrode.

Les tensions locales provoquées par le passage répété des ions seraient donc en partie responsables des faiblesses de ce type de batterie. L’équipe de Shahbazian-Yassar cherche désormais à résoudre ce problème de « brassage atomique », en testant notamment une anode en antimoniure de zinc.

Par Moonzur Rahman

Reach/CLP : toute l’actualité de janvier

Bisphénol A : Entrée en vigueur de l’extension de l’interdiction à tous les contenants alimentaires

1er janvier 2015

Entrée en vigueur au 1er janvier 2015 de l’extension de l’interdiction du bisphénol A à tous les matériaux au contact alimentaire.

L’interdiction du bisphénol A dans tous les matériaux au contact alimentaire est entrée en vigueur au 1er janvier 2015.

Le bisphénol A (BPA) est un produit chimique utilisé couramment pour la fabrication industrielle de plastiques. Ces matériaux sont largement utilisés dans des produits de consommation courants comme les récipients pour l’eau et la nourriture. Ils rentrent notamment dans la composition de nombreux matériaux contenant des aliments, tels que les produits de consommation en polycarbonate (biberons, vaisselle, récipients destinés au four micro-ondes et boîtes pour la conservation des aliments) ou les emballages avec un film protecteur ou un revêtement époxy-phénolique (cannettes, boîtes de conserve et couvercles métalliques). Il est présent également sur certains tickets de caisse.

Cette substance est déjà interdite dans les biberons depuis juin 2010 en Europe, à la suite d’une action française, et dans les contenants alimentaires destinés aux nourrissons et enfants en bas âge depuis janvier 2013.

Une version actualisée de la brochure générale sur REACH

8 janvier 2015

Une version actualisée de la brochure générale sur REACH : « Maîtrisez les risques chimiques dans votre entreprise, REACH, votre atout Compétitivité-Sécurité » est en ligne sur le site du ministère de l’écologie, du développement durable et de l’énergie (MEDDE).

Nouvelle version de l’ePICIT-tool / outil disponible

12 janvier 2015

Rapports inclus dans ePIC : Les entreprises peuvent déclarer les quantités de produits chimiques assujettis au Règlement d’ePIC qui ont été exportés ou importés pendant 2014 .

Conformément à l’article 10 du règlement ePIC, au cours du premier trimestre de chaque année, les entreprises doivent déclarer les quantités réelles de produits chimiques assujettis au Règlement ePIC qui ont été exportés / importés au cours de l’ année civile précédente. Ils doivent également fournir des détails sur les entreprises dans les pays non membres de l’UE avec lesquels ils négocient ces produits chimiques. La date limite pour soumettre les informations ci-dessus est le 31 Mars de chaque année. L’ECHA souhaite encourager tous les exportateurs / importateurs d’effectuer cette tâche en temps utile.

Avec la sortie de Epic 1.1 le 8 Janvier 2015, les utilisateurs de l’industrie sont en mesure de générer et de soumettre ces rapports à leurs autorités nationales désignées pertinentes.

Dans la nouvelle version de l’épopée, pour la plupart des utilisateurs une version préliminaire des rapports est généré automatiquement et pré-rempli par l’ePIC – dans la mesure du possible – avec les données disponibles dans le système. Une fois que les rapports ont été finalisés, ils peuvent être envoyés aux autorités nationales désignées pour l’agrégation au niveau des pays .

A noter que dans le but de déployer la dernière version de l’épopée, le système ne sera pas disponible à partir du 7 Janvier 2015.

Par P.T

Et aussi dans les
ressources documentaires :

Pour Royal, il faut « programmer une nouvelle génération de réacteurs » nucléaires

« Dans la construction d’une économie décarbonée, le nucléaire est un atout évident » et « il faut penser la demande nucléaire de manière intelligente dans un contexte de mix énergétique », a estimé la ministre dans une interview au magazine spécialisé Usine Nouvelle.

EDF « doit être capable de vendre à la Pologne du nucléaire mais aussi du renouvelable », a ajouté Mme Royal tout en soulignant la nécessité de « sortir du +tout nucléaire+ » et d’accélérer « la montée en puissance des énergies renouvelables ».

Le projet de loi sur la transition énergétique porté par Mme Royal et en cours d’examen au Parlement prévoit une réduction de la part du nucléaire dans la consommation finale d’électricité de 50% à horizon 2025 contre 75% aujourd’hui.

Pendant la primaire socialiste en 2011, Mme Royal avait exprimé le souhait de ramener le nucléaire « à une énergie d’appoint » et s’était prononcée pour une sortie du nucléaire en France à « échéance de 40 ans maximum ».

Elle avait même promis d’abandonner la construction du futur réacteur EPR à Flamanville et d’en faire un site de recherche sur les techniques de démantèlement et les énergies renouvelables.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Facebook meilleur révélateur d’une personnalité que les proches

Avec suffisamment de « J’aime » à analyser, certains programmes informatiques spécialisés sont meilleurs que les amis ou les proches d’une personne pour déterminer ses véritables traits de caractère, et seul le ou la conjointe pourraient rivaliser avec l’ordinateur, expliquent les chercheurs de l’Université de Cambridge, en Grande-Bretagne, et de Stanford, en Californie, dont les travaux paraissent dans les Comptes rendus de l’Académie américaine des sciences (PNAS).

Pour cette recherche, un ordinateur a été plus perspicace pour prédire la personnalité d’un sujet que ses collègues de travail ou les membres de sa famille en analysant seulement dix « J’aime ».

Etant donné qu’un utilisateur moyen de Facebook compte environ 227 « J’aime », les chercheurs pensent que cette approche permet de mieux nous mettre à nu que quiconque.

Cette recherche s’est basée sur des travaux précédents de l’Université de Cambridge publiés en mars 2013 qui montraient qu’un ensemble de traits psychologiques et démographiques pouvaient être prédits avec une très grande exactitude en analysant les « J’aime » de Facebook.

Pour cette nouvelle étude, les auteurs ont utilisé un échantillon de 86.220 volontaires sur Facebook qui ont rempli un questionnaire portant sur les traits de leur personnalité et donné un accès à leur « J’aime ».

Les résultats fournissent un score sur cinq grands traits de caractères. Il s’agit de l’ouverture d’esprit (curiosité et imagination), l’extraversion (tendance à rechercher la compagnie des autres), la conscience (autodiscipline, respect des obligations), le fait d’être agréable (tendance à être compatissant et coopératif) et l’impulsivité (coléreux, instabilité émotionnelle).

Par ce biais, les chercheurs ont pu lire ces traits de personnalité dans les « J’aime » comme par exemple le fait d’aimer Salvador Dali ou la méditation, qui révèle selon eux un grand esprit d’ouverture.

Les auteurs ont aussi pu comparer ces résultats en interrogeant un ami de 17.622 des participants et deux proches de 14.410 autres.

« Dans l’avenir, les ordinateurs seront capables de déterminer nos traits psychologiques et de réagir en fonction, ce qui devrait ouvrir la voie à l’émergence de machines dotées d’intelligence socio-émotionnelle », selon Wu Youyou, une chercheuse du centre de psychométrie de l’Université de Cambridge, une des principaux auteurs de cette recherche.

Avec le développement des technologies, les résultats de ces travaux pourraient susciter des inquiétudes quant à la protection de la vie privée, relèvent aussi les auteurs.

Mais « la capacité de jauger la personnalité est un composant essentiel de la vie en société, que ce soit pour les décisions prises quotidiennement ou pour celles engageant sur le long terme comme le mariage, l’embauche de quelqu’un ou être élu président », explique David Stillwell, professeur à l’Université de Cambridge.

« L’analyse des résultats de cette recherche peut être très utile pour aider les personnes à prendre des décisions », ajoute-t-il.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le Parlement européen ouvre sous conditions l’UE à la culture des OGM

Le Parlement européen a ouvert mardi l’UE à la culture des OGM, en accordant aux États membres le droit de l’interdire sur leur territoire, un compromis critiqué tant par les écologistes que l’industrie.

Les députés européens ont adopté par 480 voix contre 159 un accord trouvé en décembre avec les gouvernements pour débloquer un dossier enlisé depuis quatre ans.

Les nouvelles règles fixant les modalités d’autorisation de culture des organismes génétiquement modifiés permettent aux États membres de l’interdire, même en cas de feu vert de l’Autorité européenne de sécurité des aliments (Efsa).

Les réfractaires pourront invoquer des raisons socio-économiques, environnementales ou liées à l’utilisation des terres agricoles.

Les États membres autorisant les culture devront aussi prendre des mesures pour prévenir la contamination des cultures non-OGM, en particulier dans les pays voisins.

« Cela va permettre aux États membres de prendre leurs décisions à partir du printemps 2015 », a souligné le commissaire européen à la Santé, Vytenis Andriukaitis.

Les Verts ont voté contre cette nouvelle législation, qui a été soutenue par la droite, les socialistes et les libéraux.

« C’est une mauvaise mesure, l’Europe va devenir un patchwork en matière d’OGM, alors que nous avons besoin d’une approche commune », a dénoncé la coprésidente des Verts, Rebecca Harms. « La puissance publique européenne abdique. Aux multinationales d’ouvrir le bal. La porte est ouverte à Monsanto, Pionner and co », a protesté dans un tweet l’eurodéputé Vert français José Bové.

L’industrie OGM a déploré que le droit ait été laissé aux États de dire non « sur des bases non-scientifiques ». « C’est un signal d’arrêt à l’innovation européenne », a affirmé Jeff Rowe, un représentant d’EuropaBio.

Ces nouvelles règles étaient attendues par l’industrie semencière, alors que quatre maïs OGM, dont les emblématiques MON810 de Monsanto et TC1507 du groupe Pioneer, ont déjà reçu un avis favorable de l’Efsa.

Les premières cultures ne devraient concerner que quelques pays. Le MON810, seul OGM actuellement autorisé dans l’UE, est cultivé dans trois États: 110.000 hectares en Espagne, 9.000 au Portugal et 3.000 en République tchèque.

Dix-neuf États se sont opposés à la demande de culture du TC1507.

Selon une source européenne, les premières mises en culture interviendront en 2016, au vu des délais pour la mise en oeuvre de la nouvelle législation.

S’il ne tranche pas le débat entre pro et anti-OGM, qui divise les États membres et les opinions publiques, le nouveau cadre « permet tout de même d’instaurer enfin de la stabilité juridique pour toutes les parties concernées », a jugé pour le Parti populaire européen (PPE, droite) l’élue française Angélique Delahaye. L’enjeu était d’éviter une avalanche de recours des semenciers contre les pays prohibitionnistes, comme la France.

Mais « ce n’est qu’une première étape qui doit permettre de trouver à moyen terme une solution européenne », nécessaire « pour éviter les distorsions de concurrence entre agriculteurs européens », a-t-elle jugé.

Le socialiste belge Marc Tarabella s’est félicité que « les lobbies pro-OGM, menés par plusieurs multinationales et la Grande-Bretagne n’ont finalement pas eu gain de cause ». « Une recherche publique et neutre est indispensable » pour faire avancer le débat, a-t-il relevé.

La précédente directive contraignait la Commission européenne à donner son feu vert aux mises en culture si les États ne s’accordaient pas pour les interdire. L’exécutif européen jouait la montre, en retardant ses décisions, mais il avait été condamné par la Cour de justice européenne pour ces tergiversations.

cb/jlb/abk

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Un laser pour détecter à distance les gaz toxiques dans l’air

Ce sont des chercheurs de la Duke University, en collaboration avec l’U.S. Army, qui ont mis au point ce laser perfectionné. Conçu à l’origine pour déceler des traces d’ammoniac, de sulfure de carbone ou d’acide nitrique, le laser a comme but ultime de déterminer tout type de gaz quel qu’il soit.

Pour y parvenir, les scientifiques se sont servi d’un domaine de plus en plus exploité de nos jours : les teraherts, notamment utilisés pour « la surveillance de l’environnement, la détection de gaz ou de polluants ». Ce sont les ondes électromagnétiques s’étendant de 100 gigahertz (GHz) à 30 térahertz (THz).

Toutefois, les chercheurs ont encore du pain sur la planche pour perfectionner le laser. Ils souhaitent en effet réduire ses mensurations car vu son poids – ce dernier pèse une tonne – son déplacement semble difficilement envisageable. Quand pourrons-nous découvrir ce laser, plus compacte et capable de détecter avec précision n’importe quel gaz dans l’air, ce malgré la distance et la pression atmosphérique ? Les chercheurs de l’U.S. Army et de la Duke University n’ont pas encore répondu à cette question.

Par Sébastien Tribot

Sourcedailygeekshow.com

Et aussi dans les ressources documentaires :

Pollution: Paris « espère » interdire dès 2015 la circulation de certains véhicules

« La Ville de Paris propose de mettre en place, sans attendre la promulgation de la loi sur la transition énergétique et la croissance verte – qui ne permettrait pas de mise en oeuvre avant le 1er janvier 2017 sans doute-, une zone à circulation restreinte, en utilisant le Code général des collectivités territoriales », peut-on y lire.

Il s’agirait plus précisément d’interdire « la circulation des véhicules les plus polluants dans Paris intra-muros, hors bois (de Boulogne et de Vincennes, ndlr) et hors boulevard périphérique dans un premier temps, ceux-ci ayant éventuellement vocation à être intégrés au dispositif dès l’outil +zone à circulation restreinte+ prévu par la loi de transition énergétique opérationnel », est-il précisé.

L’interdiction « s’appuiera sur la classification des véhicules en fonction de leur niveau de pollution proposée par le ministère de l’Environnement », et se fera « de façon progressive ». Cette classification, définie par un arrêté du 3 mai 2012, distingue cinq catégories, du groupe une étoile, le plus polluant, jusqu’au groupe cinq étoiles.

Si « les modalités et le calendrier précis ne sont pas encore finalisés », « la Ville espère pouvoir mettre en place de premières mesures dès le courant de l’année 2015 ».

Les « premiers véhicules touchés » seraient fort logiquement « les plus polluants ». Ce pourrait être les camions et les autocars de tourisme, selon l’adjoint aux Transports Christophe Najdovski (EELV).

La temporalité des interdictions variera en fonction des catégories de véhicules: les voitures particulières, les utilitaires légers et les deux-roues les plus polluants ne pourront pas circuler les jours ouvrés; les cars de tourisme, bus et poids lourds concernés par la restriction seront interdits 7 jours sur 7 et 24 heures sur 24.

« Il ne s’agit pas d’empêcher les personnes qui se servent très peu de leur vieux véhicule de l’utiliser. Notre cible, ce sont les déplacements au quotidien qui génèrent beaucoup de pollution », a expliqué M. Najdovski.

La maire de Paris présentera son plan antipollution lors du prochain Conseil de Paris, les 9 et 10 février. Des « mesures d’accompagnement » visant à aider entreprises et particuliers à abandonner leur véhicules polluants seront soumises au vote des élus.

Ainsi la Ville proposera-t-elle « à tous les jeunes qui auront réussi leur permis de conduire d’avoir un an d’abonnement Autolib gratuit », avait indiqué Anne Hidalgo mercredi. Les Parisiens qui abandonneront leur véhicule se verront offrir « un an de passe Navigo gratuit ». Le stationnement rotatif et résidentiel sera gratuit pour les véhicules hybrides essence, comme pour les véhicules électriques.

Une aide financière à destination des artisans et commerçants sera également proposée.

Des dispositifs complémentaires sont également envisagés: « la mise en place de quelques voies à ultra basses émissions sur des axes particulièrement pollués », et la mise en place dans l’hypercentre de Paris d’une « zone à trafic limité » où seuls pourraient accéder les riverains, services d’urgence, livraisons, transports collectifs et taxis.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Londres accusée d’hypocrisie sur le changement climatique

En octobre, les États européens ont accepté de réduire leurs émissions de carbone de 40 % d’ici 2030. Depuis, le Royaume-Uni et la République tchèque ont cependant rédigé une proposition selon laquelle les réductions des émissions des États ne devraient être suivies que de loin par une Union au rôle diminué.

Ce document, qui n’a pas été publié, place la compétitivité des entreprises au même niveau de priorité que la réduction des gaz à effet de serre. Il préconise également de donner le même statut au nucléaire et aux techniques expérimentales de captage et stockage du dioxyde de carbone qu’aux énergies renouvelables, comme les énergies éolienne ou solaire.

« Il est très inquiétant que le gouvernement britannique s’efforce de mettre en place une réglementation européenne peu contraignante pour les objectifs pour 2030, estime l’eurodéputé Seb Dance dans un entretien accordé au Guardian. Dans le passé, le Royaume-Uni a été au premier rang de l’abandon du charbon dans le secteur énergétique, mais cela ne suffit pas, il faut combiner ces mesures au développement des énergies renouvelables et à des alternatives plus vertes. Ce document est une preuve supplémentaire, s’il en fallait, que le gouvernement conservateur a complètement abandonné l’idée de devenir le ‘gouvernement le plus vert de l’histoire’. »

La proposition de Londres implique un transfert des compétences en matière de climat. Celles-ci relèvent actuellement de l’UE, qui peut poursuivre les États en justice s’ils ne remplissent pas leurs engagements. Le Royaume-Uni voudrait donc que ces compétences reviennent aux États, qui décideraient ainsi de la manière de mettre en œuvre les politiques générales européennes.

« Le point de départ de notre réflexion est que le système de gouvernance devrait aider l’UE à coordonner les efforts déployés dans le but d’atteindre ses objectifs énergétiques et climatiques, tout en respectant la souveraineté des États membres », a déclaré un porte-parole du ministère de l’énergie et du changement climatique.

Si cette proposition était mise en place, l’UE perdrait la possibilité de réagir en cas de non-application des politiques climatiques par les États. La Commission rendrait compte des progrès de l’ensemble du bloc devant les dirigeants européens tous les trois ans environ. Le Parlement européen serait quant à lui simplement exclu de l’équation.

Une proposition contre-productive

En pratique, les pays disposeraient d’un veto au Conseil, ce qui leur permettrait de se débarrasser de leurs obligations, craignent les défenseurs des objectifs climatiques.

« La lutte contre le changement climatique est un énorme défi. Nous devons y répondre en régulant plus, pas moins, assène Brook Riley, porte-parole de l’organisation Les Amis de la Terre Europe. Le Royaume-Uni déclare d’un côté qu’une action urgente doit être mise en place pour lutter contre le changement climatique, mais d’un autre côté, le pays s’oppose aux politiques européennes communes nécessaires à cette action. C’est tout à fait hypocrite, surtout que le Royaume-Uni lui-même condamnera cette attitude de rejet de l’UE lors de la conférence de Paris fin 2015. »

Lors de cette conférence, l’Europe promettra une réduction de 40 % de ses émissions de gaz à effet de serre d’ici 2030. Au mois d’octobre prochain, le Royaume-Uni est parvenu à empêcher toute mesure contraignante en ce qui concerne les objectifs en matière d’énergie renouvelable et d’efficacité énergétique. L’absence de telles mesures, la façon dont cette réduction sera accomplie n’est pas claire.

Le document rédigé par le Royaume-Uni et la République tchèque propose également que l’UE soutienne les pays qui voudraient utiliser l’énergie nucléaire ou le captage et le stockage du dioxyde de carbone (CSC). Il appelle aussi la Commission à « présenter une nouvelle stratégie de CSC pour l’Europe le plus tôt possible » en 2015.

Le CSC, une méthode potentiellement rentable

Des entreprises comme Shell soutiennent largement le développement du CSC.  Ces méthodes impliquent le captage du dioxyde de carbone et son acheminement dans des canalisations vers des fissures souterraines. À l’heure actuelle, elles contribuent à l’extraction de combustibles fossiles et leur permettront de continuer d’exister pendant longtemps dans le 21e siècle.

Selon une étude de l’université de Durham, la récupération assistée du pétrole, réalisée grâce au CSC permettrait d’extraire l’équivalent d’environ 190 milliards d’euros de pétrole de la mer du Nord. Sans le CSC, ce pétrole n’aurait pas pu être extrait.

Pour le Groupe intergouvernemental sur l’évolution du climat de l’ONU, le CSC pourrait contribuer à hauteur de 22 % à la réduction des émissions au niveau mondial d’ici 2050. Toutefois, les plus grands spécialistes de l’énergie estiment que ces méthodes ne seront pas commercialement viables avant le milieu ou la fin des années 2020. Impossible donc de miser sur le CSC pour réduire les émissions de carbone d’ici là.

« Derrière la position du Royaume-Uni, on devine évidemment la présence d’entreprises comme BP, Shell, E.On et EDF, souligne l’eurodéputé vert Claude Turmes. Pourquoi laisserions-nous un gouvernement qui pourrait ne plus exister après le mois de mai nous dicter de mauvaises politiques énergétiques ? Quels sont leurs moyens de pression ? »

Pour lui, l’alliance de Londres avec un gouvernement tchèque considéré comme pro-charbon et anti-énergie renouvelable « montre bien que le gouvernement britannique n’a absolument aucun intérêt à mettre en place de meilleures politiques énergétiques, mais qu’il veut juste récupérer des compétences entre les mains de l’UE et détruire une stratégie [climatique] européenne forte ».

Source  : Euractiv, Arthur Neslentraduit

Eco-emballages investit 45 millions pour doubler la quantité de plastiques recyclés

Sur 5 millions de tonnes d’emballages ménagers mis sur le marché, 1 million de tonnes sont du plastique. Mais  seuls 23% de ces plastiques sont recyclés. Un chiffre insuffisant au regard d’Eco-emballages, entreprise privée agréée par l’Etat dont la mission est d’optimiser le tri et le recyclage des emballages plastiques en France. C’est pourquoi Eco-emballages s’est engagé dans un plan de relance du recyclage. En y mettant les moyens. Ce plan est doté d’une enveloppe de 90 millions d’euros sur 2 ans, dont la moitié est réservée au recyclage des plastiques.

Alors comment Eco-emballages compte agir ? Tout d’abord il leur a fallu identifier les raisons du trop faible taux de recyclage des déchets plastiques.  Le problème vient de la complexité de leur tri à cause de la grande variété de formes des emballages mais aussi de composition. Finalement, seules les bouteilles en PET et PeHD sont recyclables, ainsi que quelques pots et barquettes en PP, PE et PET. Cela représente seulement 54% de la totalité des emballages plastiques. Grâce à une première expérimentation menée de 2011 à 2013, Eco-emballages a pu tester l’extension des consignes de tri à tous les emballages plastiques. 51 collectivités et 34 centres de tri ont joué le jeu, ce qui couvre 3.7 millions d’habitants. Conclusions ? L’ambition de recycler tous les plastiques passe par la modernisation du parc de centres de tri français.

Les 54% des emballages plastiques composés de bouteilles et flacons PET, PeHD, pots et barquettes PP, PE et PET s’intègrent parfaitement dans les filières de recyclage existantes. En revanche, les 15% constitués de pots et barquettes en PET multicouches, PS, PVC et PSE présentent un flux « potentiellement recyclable », à condition de mener des actions d’éco-conception. Les 11% d’emballages plastiques que sont les films souples PeBD/PeHD pourraient aussi être mieux recyclé à condition d’en augmenter le volume, ce qui induirait le développement de nouvelles technologies. Parmi les 20% restants, les films souples en PP complexes ou trop petits et les pots et barquettes complexes ne pourront être correctement recyclés sans des modes de valorisation complémentaires. Bref, les centres de tri créés il y a vingt ans ne sont plus adaptés aux besoins actuels. L’expérimentation a aussi permit de constater qu’une réorganisation du maillage territorial était utile de façon à mieux correspondre aux densités de populations. Enfin, Eco-emballages sera soucieuse d’étendre les consignes de tri à l’ensemble des emballages plastiques de façon progressive. Après les 3.7 millions de personnes concernées par la première phase, 8 à 10 millions d’habitants seront touchés d’ici 2016. Ce n’est qu’en 2022 que ces nouvelles consignes couvriront l’ensemble du territoire.

Face à ces défis, Eco-emballages engage la 2ème phase et vient de débloquer 45 millions. Cet argent servira à poursuivre l’expérimentation en cours, à l’étendre à de  nouveaux centres et à aider à la modernisation du parc de centres de tri.

L’appel à candidatures auprès des collectivités volontaire est ouvert jusqu’au 15 mars 2015.

Par Audrey Loubens, journaliste scientifique

 

Et aussi dans les
ressources documentaires :

Le spécialiste français du textile connecté présente deux nouveautés phares pour les sportifs au CES 2015

Nouvelle version du D-Shirt™ : Rester connecté à ses performances

Présenté lors du CES 2014, la première mouture du Digital Shirt – D-Shirt™ a été un premier pas réussi dans le textile connecté qui permet à tout sportif de suivre ses performances : rythme cardiaque, vitesse, distance parcourue, etc.

Cette nouvelle version 2015 incorpore de nouveaux capteurs – GPS plus précis, accéléromètre 9 axes – et illustre les progrès réalisés par Cityzen Sciences dans l’intégration textile. L’application, quant à elle, permettra de suivre ses indicateurs en temps réel ou en différé, depuis son smartphone.

Le savoir-faire de Cityzen Sciences a notamment conduit cette startup lyonnaise à un accord avec la marque d’équipements de sport japonaise ASICS visant à développer et commercialiser un maillot connecté.

Dévoilée en avant-première à New York lors du CES Unveiled du 11 novembre dernier, cette version 2.0 du D-Shirt™ a reçu un prix dans 2 catégories : « Wearable Technologies » et « Fitness, Sports and Biotech ».

Un cuissard pour pédaler connecté

Cityzen Sciences a également dévoilé un nouveau produit qui devrait éveiller la curiosité de nombreux cyclistes puisqu’il s’agit d’un cuissard connecté. Ce vêtement leur permettra de suivre sans contrainte leurs performances (rythme cardiaque, vitesse, distance…), en intégrant les mesures spécifiques à ce sport : cadence de pédalage et temps en danseuse.

Ce nouveau vêtement, qui s’appuie sur la même technologie que le D-shirt™, illustre la capacité de Cityzen Sciences de transformer un vêtement en une source d’informations d’une richesse et d’une précision inégalables.

Chaque capteur peut en effet être placé à un endroit optimal : capteur de rythme cardiaque sur la poitrine, accéléromètre sur la jambe permettant de suivre la cadence de pédalage ou encore le temps en danseuse…

« Nous sommes ravis de compter parmi les entreprises françaises présentes à cet évènement incontournable dans l’univers des nouvelles technologies. 2014 fut un réel tremplin dans le développement de notre technologie. En 2015, des milliers de sportifs amateurs et professionnels vont pouvoir connaitre leurs performances et suivre les réactions de leur corps en direct grâce à nos produits. Mais ce n’est pas tout ! Nous travaillons déjà sur d’autres projets qui nous permettrons de proposer notre savoir-faire unique dans d’autres secteurs »,  commente Jean Luc Errant, CEO de Cityzen Sciences.

Une levée de fond de 100 millions d’euros pour accélérer sa croissance

Au vu des technologies déjà développées par la société et de l’évolution rapide de son l’environnement dans un marché de plus en plus demandeur, Cityzen Corp étudie les opportunités de levée de fonds pour un montant souhaité de 100 millions d’euros. Ce tour de financement lui permettra de soutenir son développement en saisissant de nouveaux marchés stratégiques, dans des industries exprimant le besoin d’obtenir et de mesurer des données, que ce soit dans l’univers du sport, de la santé mais également de la sécurité des personnes.

Repérée par Axelle Lemaire comme « l’une des pépites du CES 2015 », Cityzen Sciences espère donc rayonner sur de nouveaux marchés dans les 24 prochains mois en s’imposant parmi les leaders dans l’analyse du Big Data et dans l’univers connecté.

À propos de Cityzen Sciences et de Cityzen Data

Cityzen Sciences est une entreprise française créée en 2008, spécialisée dans la conception, la création et le développement de textiles connectés. Elle est le pilote d’un projet industriel textile, Smart Sensing, mené par un consortium d’entreprises, fortement soutenu par Bpifrance.

Cityzen Data assure la collecte et le stockage des données produites au sein d’une plateforme sécurisée et évolutive de gestion de données massives issues de capteurs. Cette expertise est l’une des pierres angulaires du projet Smart Sensing.

Fort d’une avancée technologique unique dans le domaine du recueil et de la gestion des données, Cityzen Sciences propose aux industriels de révolutionner leurs chaînes de valeurs des industriels via des solutions entièrement intégrées de capteurs innovants, de smart devices et de gestion connexe de Big Data.

Prix du pétrole: une « opportunité » pour certains pays pauvres

« Pour un certain nombre de pays importateurs de pétrole, des prix du brut plus bas offrent une opportunité d’améliorer leurs situations budgétaires plus rapidement », écrit l’institution de lutte contre la pauvreté dans un rapport.

Selon la BM, la chute des cours du brut devrait plus précisément permettre à ces pays de réduire leurs subventions énergétiques qui maintiennent les prix du carburant à de faibles niveaux mais grèvent leurs finances publiques.

« Les pays importateurs d’or noir devraient réduire ou supprimer les subventions au prix du fuel et reconstruire leur marge de manoeuvre budgétaire », assure le chef économiste de la Banque mondiale Kaushik Basu, cité dans un communiqué.

Selon le Fonds monétaire international, le coût des subventions énergétiques sur le globe s’élève à 1.900 milliards de dollars, soit 2,5% du produit intérieur brut mondial.

Ces ressources supplémentaires pour les pays en développement sont particulièrement utiles dans un contexte économique « incertain » et dans l’optique d’un prochain resserrement monétaire aux Etats-Unis qui risque de provoquer de fortes turbulences sur les marchés, écrit la Banque mondiale.

L’institution indique également, sans surprise, que la baisse des prix du brut va en revanche peser sur les finances et l’activité économique des pays exportateurs de pétrole.

Les cours mondiaux du brut ont chuté de plus de 50% depuis juin pour ramener le prix du baril sous la barre des 50 dollars.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Pour le climat, pétrole et charbon devront rester largement inexploités (étude)

Globalement, un tiers des réserves pétrolières, la moitié des réserves de gaz et plus de 80% du charbon devront rester sous terre jusqu’à 2050, soulignent les auteurs de cette étude intitulée « Quelle quantité d’énergies fossiles pouvons-nous exploiter? »

Ce sera le seul moyen d’atteindre l’objectif de l’ONU de limiter le réchauffement à +2°C par rapport à l’ère pré-industrielle, souligne Christophe McGlade, de l’Institute for Sustainable Resources du University College de Londres.

« Les hommes politiques doivent réaliser que leur instinct consistant à recourir aux énergies fossiles disponibles sur leur territoire, est incompatible avec leur engagement à tenir l’objectif de 2°C, » dit-il.

Les experts de l’Onu, qui ont publié en 2014 la plus vaste évaluation scientifique du changement climatique, estiment que pour atteindre ce but, l’homme devra limiter ses émissions de CO2 à environ 1.000 milliards de tonnes (gigatonnes), après en avoir déjà consommé 2.000. Les émissions que générerait l’usage des réserves d’énergies fossiles encore disponibles sont évaluées par l’étude à 3.000 gigatonnes.

« Les entreprises ont dépensé plus de 670 milliards de dollars (565 milliards d’euros) l’an dernier dans la recherche de nouvelles ressources fossiles », souligne Paul Ekins, co-auteur de l’étude. « Elles devront revoir ces budgets si des politiques sont mises en place pour soutenir la limite des +2°C ».

L’étude fait le point sur les réserves et leur localisation, avant d’estimer quelles quantités peuvent être exploitées jusqu’en 2050.

Les auteurs ont pris deux scénarios, l’un dans lequel le monde s’appuie sur un « vaste réseau » de capture et stockage du carbone — des systèmes dans les faits très peu développés encore –, et l’autre sans ces technologies.

– gagnants et perdants –

Même si les systèmes de capture du CO2 étaient répandus, il faudrait renoncer à plus de 430 milliards de barrils de pétrole.

Dans ce cas, le Moyen-Orient à lui seul devrait renoncer à plus de 260 milliards de barils, soit 38% de son stock (l’équivalent de huit années de production aux niveaux de 2013).

L’Amérique latine devrait renoncer à 58 milliards de barrils, le Canada à 39 milliards et les anciens Etats soviétiques à 27 milliards.

La Chine et l’Inde devront éviter d’exploiter près de 70% de leurs réserves de charbon, et l’Afrique presque 90%. L’Europe renoncera à 78%, les Etats-Unis à 92%.

« Ces résultats montrent qu’il faut transformer complètement notre compréhension de la disponibilité des énergies fossiles, » insiste l’étude.

La répartition inégale des réserves à ne pas toucher sera un défi dans la recherche d’un accord mondial sur le climat, espéré à Paris fin 2015, soulignent les experts du climat Michael Jakob et Jerôme Hilaire, dans une analyse jointe à l’étude.

« Seul un accord global qui compensera les pertes des uns et sera perçu comme équitable par tous, pourra imposer de strictes limites au recours aux énergies fossiles », ajoutent-ils.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Melomind, l’objet connecté star du Consumer Electronics Show

Parmi les innovations présentées au CES annuel de Las Vegas – grand rassemblement s’il en est des nouveautés high tech que l’on retrouvera peut-être dans quelques années – l’une d’entre elles aura généré pas mal de remous. Il s’agit du casque Melomind de la start-up parisienne myBrain Technologies, incubée à Agoranov et Ipeps.

Le produit, au croisement de deux tendances fortes, celle des objets connectés et celle du bien-être et de la santé, a pour objet de combattre le stress ou d’apprendre la relaxation, c’est comme on veut. Cela « représente aujourd’hui un enjeu majeur de santé publique » d’après Thibaud Dumas, cofondateur de myBrain et docteur en neurosciences. 

C’est d’ailleurs en partant de la constatation qu’une véritable souffrance physique liée au stress était ressentie par 248 millions d’américains, selon l’étude de l’American Psychological Association (APA), que les recherches ont été entreprises en collaboration avec l’institut du Cerveau et de la Moelle épinière de Paris (ICM).

Selon Thibaud Dumas, réaliser chez soi ou à son travail des sessions de relaxation de 15 minutes de temps en temps permettrait d’atteindre cet objectif. 

Comment se passent ces séances ? Et bien c’est simple, il suffit de porter le casque. Les électrodes présentes à ses bouts mesurent l’activité cérébrale et servent à évaluer le niveau de stress. En fonction de cela, le casque connecté en bluetooth à votre smartphone vous envoie une musique modulée selon votre état. Lorsque l’opération aura été répétée plusieurs fois, l’utilisateur pourra apprécier ses progrès en consultant son historique.

Le casque n’est encore qu’au stade de prototype, mais il est opérationnel et les visiteurs du CES peuvent d’ores et déjà le tester en avant-première. La commercialisation est prévue pour la fin 2015 au prix de 299 dollars et les pré-commandes sont possibles sur le site dès maintenant.

Par Sébastien Tribot

Le fructose est plus toxique que le sucre, mais uniquement pour les femmes

La toxicité du fructose est pointée du doigt depuis plusieurs années. Derrière l’avantage de moins impacter la glycémie que le sucre du fait d’un index glycémique plus faible, ce sucre très présent dans les fruits et le miel est soupçonné de favoriser l’obésité. Dans une étude à paraitre dans Journal of Nutrition des chercheurs ont constaté qu’un fort taux de fructose pouvait avoir d’autres conséquences. Ils ont travaillé avec deux groupes de souris. Les deux ont reçu une alimentation équilibrée mais avec 25% de calories provenant de sucres transformés. Pour le premier groupe il s’agissait  d’un mélange fructose-glucose, pour le deuxième de saccharose. Le résultat fut surprenant puisqu’aucune différence n’était notable chez  les mâles. En revanche, coté femelle c’est un autre constat. Celles ayant ingurgité le mélange fructose-glucose affichaient un taux de mortalité 1,87 fois supérieur aux femelles de l’autre groupe. De plus, les souris du premier groupe ont eu 26.4% moins de bébés. Cette étude confirme la dangerosité du fructose lorsqu’il est consommé à haute dose.

Les travaux des scientifiques de l’Université d’Utah s’ajoutent à d’autres études alertant sur les inconvénients du fructose, des plus bénins comme des ballonnements aux plus graves comme l’augmentation de risques cardio-vasculaires et de l’obésité.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Revue du web #74 : les vidéos les plus étonnantes de janvier 2015

Cette semaine dans la revue du Web : 

  • Impressionnant : une plate-forme de Stewart particulièrement habile ;
  • Remplir un ballon de baudruche avec du mercure ;
  • Folie : résoudre le plus grand Rubik’s Cube du monde (en 7 heures et demi) ;
  • Observer la Station Spatiale Internationale passer devant la Lune ;
  • Le gadget (inutile?) de la semaine : des explosifs « made in Crimea » ;
  • Et en bonus : des boules de neige dans la figure, en slow-motion.

Impressionnant : une plate-forme de Stewart particulièrement habile

Pour débuter notre soixante-quatorzième Revue du Web, laissons-nous bluffer par l’impressionnant sens de l’équilibre de la « plate-forme de Stewart » conçue par Full Motion Dynamics, une équipe universitaire américaine dont les deux têtes pensantes sont deux étudiants en ingénierie de l’université de San Diego, Tyler et Robert. L’équipe bicéphale a travaillé d’arrache-pied sur un projet de simulateur de course à partir d’une plate-forme de Stewart, un positionneur hexapode constitué de six actionneurs lui conférant six degrés de liberté.

Pour fignoler leur projet de fin de semestre et ainsi mieux appréhender les possibilités de cette plate-forme, les deux étudiants touche-à-tout se sont lancés dans la conception d’une plate-forme dont les talents d’équilibriste sont absolument fascinants. Il suffit de lui jeter en pâture une bille d’acier pour comprendre que le dispositif ne plaisante pas, et qu’il peut remettre dans le droit chemin cette sphère métallique si d’aventure elle s’aventurait hors des clous. Le terrain de jeu est constitué d’un écran tactile à technologie résistive monté sur la plate-forme pour repérer les moindres déplacements de la bille, un régulateur proportionnel intégral dérivé (PID) ainsi qu’un module Arduino et six servomoteurs pour imprimer le mouvement. Un vrai travail d’équilibriste !

Remplir un ballon de baudruche avec du mercure

Les expériences autour du mercure ont toujours quelque chose d’impressionnant, et le fait que cela soit le seul métal se présentant sous forme liquide dans les conditions normales de température et de pression n’y est probablement pas étranger. Le métal que l’on appelle également « vif argent » fait donc un bon client pour notre Revue du Web, comme le prouve la vidéo qui suit, postée par un internaute dont la passion pour le mercure le rend pour le moins… monomaniaque.

Cette fois-ci, notre scientifique en herbe désire comparer le comportement d’un ballon de baudruche rempli d’eau avec celui d’un ballon rempli de mercure. Première remarque : on ne peut pas remplir un ballon d’eau avec un entonnoir, alors que cela marche très bien avec du mercure, grâce au poids de ce dernier. Autre remarque : la déformation du ballon rempli de mercure et lâché à bonne hauteur est sensiblement plus grande que la déformation d’un ballon plein d’eau.

  • Jugez plutôt :

Si vous vous demandez toujours si on peut absorber du mercure liquide avec une éponge, la réponse se trouve ici. Si vous préférez par contre observer une goutte de mercure danser lorsqu’elle est soumise à différentes fréquences, c’est plutôt par là qu’il faut aller.

Folie : résoudre le plus grand Rubik’s Cube du monde (en 7 heures et demi)

Alors que l’idée d’être confronté à un Rubik’s Cube traditionnel pourrait donner de l’urticaire à un grand nombre d’entre nous, certains amateurs ne semblent jurer que par les modèles les plus larges du célèbre casse-tête d’origine hongroise. Kenneth Brandon, lui, fait définitivement partie des enthousiastes du cube de Rubik. Pour nous le prouver, il va s’attaquer à un monument : le plus grand Rubik’s Cube du monde, un monstre de « 17 par 17 par 17 » (contre « 3 par 3 par 3 » pour le modèle standard) imprimé en 3 D et conçu par le Hollandais Oskar van Deventer.

Mission accomplie pour Kenneth, qui réussit à se dépêtrer du puzzle en… sept heures et demi. Pour les sceptiques – et pour l’Histoire, avec un grand H – notre amateur de puzzles s’est filmé du début jusqu’à la résolution du cube, afin de nous livrer une première vidéo en accéléré, ainsi qu’une seconde vidéo, brute et sans montage, de l’exploit (près de huit trépidantes heures de labeur étalées sur cinq jours). Il faut évidemment s’armer de patience, ne serait-ce que pour mélanger les facettes de ce cube éléphantesque : pas moins de 25 minutes sont nécessaires pour insuffler un joyeux – et nécessaire – désordre coloré à l’ensemble.

La méthode de résolution employée est un classique du genre, baptisée « méthode de réduction », revenant à résoudre les centres avant de passer aux arêtes, afin de se retrouver avec l’équivalent d’un Rubik’s Cube « 3x3x3 » dont les centres seraient très larges, les arêtes allongées et les coins tous petits. Finalement, s’escrimer pendant moins de huit heures, ce n’est pas si mal, mais de l’aveu même du jeune prodige… pas besoin de regarder la vidéo brute en entier. On vous aura prévenu.

La vidéo « brute » :

Observer la Station Spatiale Internationale passer devant la Lune

Le photographe israélien Gadi Eidelheit est parvenu à capturer un joli moment le 28 décembre dernier. Braquant trois appareils en direction de la Lune, notre satellite n’était pourtant pas son unique proie en cette fin d’année…  puisque c’était après la Station Spatiale Internationale qu’il en avait. En utilisant les informations fournies par le site Heavens Above – qui permet de déterminer où et quand va passer l’ISS – et en s’armant d’une carte du ciel, il se rendit compte que la Station Spatiale allait virtuellement croiser le chemin de la Lune au dessus de sa tête ce jour-là.

Il va sans dire que les deux corps restent très éloignés l’un de l’autre, les 110 mètres de longueur de l’ISS se baladant aux alentours de 400 kilomètres d’altitude, alors que la distance moyenne nous séparant de notre satellite est de 384 400 kilomètres.

Le gadget (inutile?) de la semaine : des explosifs « made in Crimea » ?

On ne vous apprend rien en vous disant que détruire un bâtiment n’est pas une tâche à prendre à la légère. Ce n’est pas parce que certains le font très bien – comme pour la destruction de la tour de refroidissement de cette centrale polonaise, ou pour une destruction pleine de panache et de couleurs à Albany, dans l’Etat de New-York, dont nous vous parlions ici – qu’il faut penser que cela marche à tous les coups.

La ville de Sébastopol, en Crimée (encore il y a peu ukrainienne, désormais russe) l’a appris à ses dépens, lorsque la municipalité a voulu se débarrasser d’un bâtiment de 16 étages construit illégalement. Le monstre de béton aura chèrement vendu sa peau, puisqu’il aura fallu

  • ni une…

  • …ni deux…

  • mais bien trois tentatives pour le mettre à terre. Il nous reste à savoir une chose : faut-il engager le maître d’œuvre qui a réussi à construire un bâtiment aussi résistant, ou se défaire au plus vite de l’équipe de démolition ? A vous de juger !

Bonus : des boules de neige dans la figure, en slow-motion

Pour clôturer cette soixante-quatorzième Revue du Web, rien de tel que de se calfeutrer chez soi, de se mettre sous la couette, et de vivre par procuration le bel hiver avec une petite vidéo de saison. Qui dit hiver sous nos latitudes dit Noël, neige… et les incontournables boules de neige !

Pour célébrer la nouvelle année, l’agence de communication Exit10 nous offre la possibilité de nous rincer l’œil devant cette série de visages inconnus, mais réunis par la même et douloureuse attente, à savoir celle d’une boule de neige en pleine poire.

Bien que la vidéo soit en slow-motion, il ne faut pas patienter bien longtemps avant de voir une boule de neige s’inviter, puis les premiers minois se décomposer sous les assauts répétés de ces projectiles glacés. A voir !

Par Rahman Moonzur

Nanorider, le nouveau jeu pour apprendre le business des nanotechnologies

Comment initier les étudiants aux problématiques spécifiques des nanotechnologies et les aider à développer l’activité et l’emploi de ce secteur ? En les réunissant autour d’un jeu de plateau pardi. En effet, apprendre en jouant permet de contourner le côté rébarbatif d’une discipline pour en acquérir les fondements via le jeu.

Des étudiants de Grenoble Ecole de Management (GEM) ont travaillé à l’élaboration d’un jeu dédié à l’apprentissage des stratégies de développement, de commercialisation et de marketing du secteur des nanotechnologies.

Son inventeur, aidé de 2 game designers et de 2 game artists de l’Ecole supérieure d’infographie 2D 3D Web et jeux vidéos (ARIES) a ainsi fabriqué Nanorider. Il s’agit d’un jeu collaboratif pour 6 joueurs. Chacun joue un rôle particulier, celui du chercheur, du directeur marketing, du directeur juridique ou encore du directeur financier. Ce rôle permet de comprendre les fonctions clés de toutes les personnes impliquées dans le développement d’une technologie.

Pour un réalisme maximal, Nanorider intègre 42 technologies existantes du CEA.

Le succès du jeu est arrivé jusqu’aux oreilles de l’association of MBAs (AMBA), organisme britannique d’accréditation des MBA et des Masters. Séduits par Nanorider, ils lui ont décerné le deuxième prix des MBA Innovation Awards. C’est donc le 30 octobre qu’Hélène Michel, professeur à Grenoble Ecole de Management et titulaire de la chaire serious game and innovation, a eu l’honneur de recevoir le trophée.

GEM développe d’autres sérious game, comme The innovative manager, pour apprendre à motiver ses équipes dans une entreprise high-tech ainsi que des jeux virtuels pour apprendre à manager une équipe d’expert et apprendre à adapter son discours à son interlocuteur, qu’il s’agisse d’un expert, d’une association ou encore d’un journaliste.

Déjà utilisé dans les cours de Master en management de l’innovation, Nanorider a été édité à 1000 exemplaires et sera distribué par la Centrale des cas et médias pédagogiques à destination des étudiants de GEM mais aussi des entreprises du secteur de la nanotechnologie. Une version en anglais est prévue pour 2015.

Par Audrey Loubens

La cigarette électronique est une dépendance préférable au tabac

Pourquoi la cigarette électronique est-elle une « bonne » solution pour arrêter de fumer ?

On sait aujourd’hui que la cigarette électronique est une solution de sevrage tabagique qui marche. C’est un très bon substitut nicotinique notamment parce qu’il permet d’arrêter de fumer dans le plaisir. Quand les fumeurs découvrent qu’ils éprouvent du plaisir autrement grâce aux arômes plutôt qu’avec une cigarette, ils sont plus motivés pour arrêter. 

N’est-ce pas remplacer une dépendance par une autre ?

Si, tout à fait. Mais il ne faut pas confondre dépendance et addiction. L’addiction est une dépendance qui fait du mal. Si la cigarette électronique diminue les risques pour la santé, j’estime que c’est un bien pour l’individu. Pour moi la dépendance n’est pas un problème, le plus important c’est l’arrêt du tabac. Par ailleurs, il semble que la dépendance diminue avec le temps, selon les enquêtes réalisées chez les utilisateurs.

Certaines cigarettes électroniques contiennent de la nicotine. N’est-ce pas un problème pour la santé ?

Le plus nocif est l’inhalation de fumée de tabac, la nicotine ne tue pas. Les pouvoirs publics doivent soutenir la cigarette électronique qui doit rester un produit de consommation courante. Je ne dis pas que la cigarette électronique est sans risque, mais comparée à la cigarette elle est infiniment moins dangereuse.

Mais 2 études contredisent l’efficacité de la cigarette électronique dans l’arrêt du tabac ?

Ces deux études ont été réalisées avec des e-cig de 1ere génération que l’on sait inefficaces. Aujourd’hui on en est aux cigarettes de 3eme génération, bien loin de la 1ere génération et ses batteries qui duraient moins d’une heure. Une étude a été lancé l’année dernière, mais il faut attendre 1 ou 2 ans avant de connaitre les conclusions. 

La cigarette électronique s’est considérablement développée en très peu de temps. Pourtant peu d’études existent. Pourquoi ?

Les fonds publics sont difficiles à obtenir. A tel point que le Docteur Farsalinos, un cardiologue grec, doit recourir au financement participatif pour mener ses expérimentations ! Toutefois il existe de nombreuses études sur les cigarettes électroniques. L’AFNOR est en discussion avec les fabricants et distributeurs pour proposer ses normes qui devraient permettre un meilleur contrôle des produits.

Faut-il interdire de vapoter au travail ?

Il faut d’abord rappeler  que pour obtenir un taux de nicotine égal à celui d’une cigarette fumée en 5mn, il est nécessaire de vapoter entre une demi-heure et une heure, selon le vaporisateur utilisé. On comprend alors qu’imposer un délai de 2 heures entre deux pauses cigarette est insuffisant pour que le fumeur ait sa dose de nicotine uniquement avec la cigarette électronique. Pour ne pas avoir envie de fumer, le fumeur doit pouvoir vapoter régulièrement.

Certains mettent en avant la peur que le développement de la cigarette électronique séduise les jeunes qui deviendront ensuite fumeurs. 

Pour l’instant, l’ensemble des données infirment cette crainte. En Angleterre, aux Etats-Unis ou bien en France les jeunes utilisent de plus en plus la cigarette électronique et se détournent du tabac. C’est à se demander si l’on veut vraiment que les gens arrêtent de fumer !

Propos recueillis par Audrey Loubens