L’éolienne flottante commence à se dresser au large de Fos-sur-mer

Vertiwind est un projet d’éolienne innovant. Fini l’éolienne avec un mât vertical surplombé d’un moteur avec trois pâles. Cette nouvelle éolienne offshore, développée par la start-up lilloise Nenuphar en partenariat avec EDF Energies nouvelles et Technip, doit apporter un second souffle au développement de l’éolien en France. L’objectif du Grenelle de l’environnement vise les 8000 éoliennes en service d’ici 2020, soit 25 000 MW dont 6 000 MW fournis par des éoliennes installées en mer. Un objectif ambitieux sachant qu’en 2012, les sources d’énergies renouvelables dont l’éolien  (hors hydraulique) atteignaient péniblement 4,6% de la production totale. Toutefois, l’éolien est l’énergie renouvelable qui progresse le plus. 

L’éolien offshore devrait aider à respecter les engagements du Grenelle. Surtout que la limite maximale des 35m de profondeurs d’eau est en passe d’être levée. En effet, Vertiwind a été conçu justement pour pouvoir être implantée quelle que soit la profondeur. Pour y parvenir, le secret de cette éolienne réside dans son architecture avec un axe vertical et le moteur positionné « en bas ».Ce faisant, le centre de gravité est abaissé en comparaison d’une éolienne classique, le système est moins haut et plus compact, de quoi assurer une stabilité suffisante pour laisser flotter l’éolienne à la surface de l’eau. Du coup, plus besoin de fixer l’éolienne au fond. Cela ouvre des perspectives d’implantations nouvelles. Autre avantage, les ouvriers de maintenance n’auront plus à grimper aussi haut pour travailler sur les pâles ou le moteur.

Fos-sur-Mer, commune des Bouches-du-Rhône située à 40 km à l’Ouest de Marseille,  est plutôt connue pour ses industries et les activités liées au raffinage. Pourtant, depuis quelques années, des sources d’énergie renouvelables s’imposent dans le paysage et des éoliennes fleurissent parmi les cuves et les cheminées. Une évolution cohérente avec l’implantation d’un démonstrateur d’éolienne flottante au large des côtes fosséennes.

D’après le calendrier de Vertiwind, les premiers essais de l’éolienne flottante s’effectueront dès 2015. Les premiers tests se feront proche de rivage puis de plus en plus loin, jusqu’à 20 km au large. Si le succès est au rendez-vous, c’est tout un parc de 13 éoliennes flottantes qui sera bâti au large de Fos-sur-mer, chacune avec une puissance allant jusqu’à 3 MW.

Par Audrey Loubens

Le Laser Anti-drone chinois a été testé avec succès

Les drones ont du souci à se faire. Désormais, il existe une arme capable de les dézinguer sans pitié avec une efficacité redoutable : le laser anti-drone.

Car si la France semble indécise et impuissante face à la multiplication de petits drones dans des espaces interdits de survol, les chinois n’ont pas tant d’états d’âmes et ont développé un laser spécialement dédié à la destruction de drones en plein vols. Révélé par l’agence de presse chinoise Xinhua, le projet menée  par la China Academy of Engineering Physics (CAEP) est un succès. 

L’arme fabriquée est capable de neutraliser des drones se déplaçant jusqu’à 180 km/h, à une altitude de 500 mètres tout en restant à une distance de 2 km. Testée la semaine dernière, le laser aurait abattu 30 drones affichant un taux de réussite de 100%. La Chine développe ce système pour se créer un bouclier anti-drone mobile. Le Laser peut être placé sur un véhicule et servir pour différentes missions comme la sécurisation de manifestations sportives par exemple, même si en France on imagine déjà comment un tel système pourrait protéger l’espace aérien des centrales nucléaires récemment survolées à plusieurs reprises par des drones.

Si un laser dédié aux drones civils de petite taille et volant à basse altitude est une première, les Etats-Unis ont déjà élaboré un laser anti-drones mais pour les aéronefs militaires à haute altitude. Les lasers de la société Raytheon testés l’année dernière au large des côtes californiennes ont carbonisé leurs cibles en quelques secondes.

Gros ou petits, à basse ou haute altitude, civils ou militaires, les drones vont devoir se faire discrets s’ils ne veulent pas finir explosés en vol.

Par Audrey Loubens

Exposition : Portraits d’ingénieurs singuliers

Les deux protagonistes de ce travail nous présentent leur projet en vidéo :

« Le  projet de recherche dont cette exposition constitue un des fruits – le plus visible sans doute – a pour ambition de répondre à  certaines questions restées en suspens dans mes travaux  passés. […] Dans cette nouvelle recherche, je me suis intéressée à l’éthique en actes plutôt  qu’en paroles ou opinions, j’ai analysé des destins  et  des trajectoires d’individus plutôt que la culture et les valeurs de  leur groupe », explique Christelle Didier, docteure en sociologie.

« Que perçoit-on d’une personne lorsqu’on met de côté son statut social,  son métier ? Comment tenter de se définir en-dehors  de ces critères ? Je cherche, à travers ses images, à rendre compte de la réalité sensible de chaque rencontre, de la réalité de l’échange qui s’est opéré entre moi et la personne photographiée. D’après Gilles Deleuze, l’élaboration d’un «percept» permet de créer «un  ensemble de perceptions et de sensations qui survivent à celui qui les éprouve». C’est ici le moteur de mon travail », commente Delphine Lermite, photographe.

inge

Bilan inédit de l’éolien en France

On se souvient que dans le cadre de la transition énergétique, les professionnels de la filière éolienne en France s’étaient engagés à développer le secteur en proposant aux pouvoirs publics un « Pacte Éolien pour la Compétitivité et l’Emploi ». C’est dans ce cadre que France Énergie Éolienne (FEE), association qui regroupe la très grande majorité des acteurs de l’éolien en France, a lancé son « Observatoire de l’Éolien » en partenariat avec le cabinet de conseil BearingPoint. Cet observatoire se veut être un instantané à la fois précis et ambitieux de la filière en France jusqu’à la fin de l’année 2013, s’appuyant sur un recensement à grande échelle inédit auprès des professionnels du secteur. Des chiffres donc, mais aussi des cartes et des graphiques pour y voir plus clair et faire de cet Observatoire « un outil de pilotage annuel pour le développement industriel français ».

Stabilisation des effectifs

Première information de ce tableau de bord, la stabilisation des emplois éoliens malgré le net ralentissement de l’activité depuis 2010. Le secteur comptait fin 2013 10840 emplois répartis sur près de 760 entreprises, dont l’implantation en région se fait à travers plus de 1600 établissements. La FEE et Bearing Point dépeignent une filière mure qui devrait connaître un regain d’activités en 2014, notamment grâce à de nouveaux chantiers et à la structuration de la filière éolienne offshore.
Le secteur remonterait effectivement la pente, à en croire le Commissariat Général au Développement Durable (CGDD), laissant espérer une croissance des effectifs pour l’année en cours.

Une répartition homogène selon les différents secteurs

Autre enseignement, la répartition des emplois se fait de manière relativement homogène : en tête arrive le secteur « Études et développement », qui réunit presque 30 % des emplois répartis sur 340 entreprises (du bureau d’étude au bureau de contrôle en passant par les développeurs). Quelques 170 entreprises se partagent la fabrication de composants, générant 2810 emplois (représentant 26 % du total). Le secteur de l’ingénierie et de la construction n’arrive pas loin derrière avec ses 2670 emplois (24 %) répartis sur environ 230 entreprises actives maîtrisant l’assemblage, le génie civil, le génie électrique, le montage ou encore le raccordement au réseau. Enfin, 2230 personnes travaillent à l’exploitation et à la maintenance du réseau (21 % du total), un secteur appelé à croître avec l’expansion de la filière et du parc éolien.

Création d’emplois un peu partout en France

La carte de France de l’éolien laisse entrevoir un pays plutôt bien quadrillé, avec cinq principaux bassins d’emplois qui se dessinent : un axe Nord-Est au fort développement, le Grand-Ouest qui bénéficie de la forte implantation sur la façade Atlantique, les régions Rhône-Alpes et Bourgogne qui tirent leur épingle du jeu dans la fabrication de composants, le Bassin parisien qui aimante la part la plus importante des sièges d’entreprise, et enfin la Méditerranée, cœur historique de l’industrie éolienne.

(crédits : FEE / Bearing Point)

Un dynamisme retrouvé…

L’Observatoire de l’Éolien réalise également un état des lieux du marché de l’éolien en France, et force est de constater que le secteur reprend du poil de la bête en 2014. Les trois dernières années furent placées sous le signe de la morosité, qui était intimement liée au durcissement du cadre juridique (zones de développement, loi Littoral, loi Grenelle 2) et à l’incertitude qui planait sur le tarif de rachat de l’électricité produite par les éoliennes – un tarif de rachat supérieur à celui du marché, un temps contesté par l’Union Européenne, qui a finalement considéré que le dispositif de soutien était compatible avec les règles de l’UE en matière d’aide d’État. La levée de cette incertitude ainsi que l’assouplissement du cadre juridique entrepris depuis 2012 semblent faire mouche, avec le raccordement de pas moins de 410 MW éoliens au premier semestre 2014, portant la capacité éolienne cumulée dans l’hexagone à 8,2 GW.

En violet la capacité installée dans l’année, en rouge la capacité cumulée (crédits : FEE / Bearing Point).

… dans un secteur hautement concurrentiel

Les quatre constructeurs principaux – trois entreprises allemandes, Enercon, Senvion, Nordex, et le géant danois Vestas –se partagent aujourd’hui 75 % de la puissance éolienne cumulée, mais leurs plus petits concurrents devraient redoubler d’efforts pour s’octroyer une plus grosse part du gâteau, rendant à nouveau plausibles les objectifs fixés au niveau national, pour l’horizon 2020 : 19 GW en éolien terrestre et 6 GW en éolien offshore.

La France compte actuellement 730 parcs pour près de 4800 éoliennes. L’expansion de ce parc éolien représente évidemment une aubaine pour la petite centaine d’exploitants actifs répartis sur notre territoire, avec en tête GDF et ses filiales, qui gèrent ensemble plus de 1000 MW, suivi par EDF Énergies Nouvelles (650 MW) et EoleRES (380 MW gérés).

Une production dopée par les progrès technologiques et par la croissance du parc

En 2013, une éolienne installée en France a une puissance unitaire moyenne de 2,2 MW, pour un mât de 85 mètres de hauteur et un rotor de 90 mètres de diamètre. Les mensurations et les caractéristiques des éoliennes ont bien sûr beaucoup évolué, contribuant à toujours baisser les coûts de production du MW, ainsi qu’à rendre exploitable des sites où le vent est plus faible.

Le profil des parcs a lui aussi évolué : alors que la moitié des parcs actuellement raccordés ont une puissance moyenne comprise entre 10 et 15 MW, la moitié des parcs en cours d’instruction peuvent tabler sur une puissance moyenne comprise entre… 15 et 30 MW. Ce nouveau profil, ainsi que la croissance du parc hexagonal et les progrès technologiques, ont dopé la production éolienne, qui a atteint 15,9 TWh en 2013, soit près de 3,4 % de la consommation électrique en France.

Nul doute que le prochain état des lieux sera très instructif… et très attendu.

Par Moonzur Rahman

Best of des IG Nobels… de la paix

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de la paix.

  • 1993 : pour avoir lancé dans l’archipel une campagne promotionnelle complètement ratée en 1992, l’Ig Nobel 1993 de la paix revint à Pepsi-Cola Philippines. Une loterie à succès dans un pays où la fièvre du jeu est grande, des numéros sous chaque capsule, des prix allant jusqu’à un million de pesos… Près de 31 millions de personnes auraient participé au jeu, soit plus de la moitié de la population. Problème : plus de 800 000 vainqueurs, à cause d’un gros cafouillage. Les émeutes qui suivirent firent trois morts, plus de 40 camions de la compagnie américaine furent incendiés et un grand nombre des dirigeants locaux durent quitter le pays.

Quelques capsules du jeu concours

 

  • 1996 : c’est un de nos anciens présidents de la République qui remporte l’Ig Nobel de la paix, pour avoir eu la bonne idée de célébrer le cinquantième anniversaire des bombardements américains sur Hiroshima et Nagasaki en autorisant une dernière campagne d’essais nucléaires sur les atolls de Moruroa et de Fangataufa, en Polynésie Française. Oui, Jacques Chirac a bien eu droit à son (Ig) Nobel.

 

  • 1999 : les Sud-Africains Charl Fourie et Michelle Wong ont reçu la récompense parodique pour avoir mis au point Blaster, un antivol pour voitures tout à fait particulier. Face aux problèmes grandissants d’insécurité et de car-jacking que connaît le pays, rien de tel qu’un bon coup de lance-flammes pour se mettre en confiance, surtout lorsque le bouton-gâchette se trouve tout près de la pédale d’accélérateur. Dans un pays où l’usage de la « force mortelle » est autorisé dans le cadre de la légitime défense, plusieurs centaines d’exemplaires ont été vendus (chiffres datant de 2001), et seulement quelques Blasters seraient encore en circulation.

 

  • 2002 : cette édition a couronné les Japonais Keita Sato (président du fabricant de jouet Takara), Matsumi Suzuki (président du laboratoire acoustique du Japon) et Norio Kogure (responsable de l’hôpital vétérinaire Kogure), pour avoir développé un appareil de traduction chien – homme, assurant ainsi « la paix et l’harmonie entre espèces ». Le nom du gadget ? Le « Bow-lingual », dont le fonctionnement suivrait (selon les dires des concepteurs) le principe d’un analyseur émotionnel, classant les aboiements de nos chers animaux de compagnie en six catégories émotionnelles standardisées et distinctes. Pour savoir si notre ami à quatre pattes est heureux, triste, frustré ou encore s’il est en manque d’affection, « Bow-lingual » enregistre l’aboiement et le compare avec un bon millier d’autres aboiements présents dans la banque de données de l’appareil.

Une version pour chat, le « Meowlingual », toujours développée par le fabricant japonais Takara, est même sortie en 2003 :

 

  • 2006 : cette année, c’est le Britannique Howard Stapleton qui peut se targuer d’avoir remporté l’Ig Nobel de la paix, pour avoir mis au point le tristement célèbre « Mosquito », ce dispositif de harcèlement acoustique émettant des sons à très hautes fréquences, destinés à disperser les attroupements indésirables. Selon le concepteur, le son serait insupportable pour toute personne de moins de 25 ans (y compris pour un fœtus dans le ventre de sa mère, ainsi que pour les bébés…), du fait de la dégradation de l’audition avec l’âge. Howard Stapleton aurait d’ailleurs confessé avoir utilisé ses cinq enfants comme cobayes, puisqu’il était incapable d’entendre seul l’appareil…

Ce « répulsif sonore anti-jeunes » divise toujours autant aujourd’hui :

 

  • 2008 : l’Ig Nobel de la paix est venu récompenser le comité d’éthique sur la biotechnologie non-humaine de la Confédération suisse, ainsi que les citoyens suisses, pour avoir adopté légalement l’idée que les plantes avaient une dignité. Un temps d’avance, les Suisses.

 

  • 2011 : c’est ensuite au sémillant maire de Vilnius, Arturas Zuokas, que reviennent ces parodiques lauriers de la paix. Le maire de la capitale lituanienne est récompensé pour sa gestion extrêmement intelligente et mesurée du problème de stationnement illégal en ville. En effet, il avait été filmé à bord d’un char d’assaut, hilare, écrasant littéralement une voiture mal garée pour mener à bien sa campagne médiatique. Jugez plutôt :

 

  • A venir : le best of des IG Nobels… de médecine

Par Rahman Moonzur

Revue du web #69 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • La Royal Institution de Londres nous offre une petite lévitation quantique d’Halloween ;
  • La guerre des étoiles n’aura pas lieu (ou alors à Argonay) ;
  • 24 machines qui façonnent notre quotidien ;
  • La mitrailleuse qui tire des avions en papier ;
  • Le gadget (inutile?) de la semaine : la deuxième vie de Ratjetoe, alias le rat volant ;
  • Et en bonus : la joueuse de tympanon, merveilleux automate hors du temps.

Lévitation quantique d’Halloween

Halloween, ses bonbons, ses citrouilles et… ses Jack-o’-Lantern en lévitation quantique ! Pour débuter notre soixante-neuvième Revue du Web, célébrons la fête païenne avec un petit groupe de chercheurs de la Royal Institution de Londres qui s’est fendu d’une petite vidéo où l’on peut voir l’une de ces fameuses têtes de citrouille en pleine lévitation quantique au-dessus d’un circuit circulaire composé d’aimants. Le disque est composé d’un demi-millimètre de verre saphir, un saphir synthétique notamment utilisé comme verre de montre, recouvert d’une couche de céramique d’environ un micron. Ce disque est ensuite placé dans son petit écrin-citrouille, grimé comme une Jack-o’-Lantern.

Le disque n’a pas de propriété supraconductrice à température ambiante, mais la donne change une fois qu’il est immergé dans de l’azote liquide, laissant à la supraconductivité tout le loisir de s’exprimer. Le disque peut alors conduire l’électricité sans résistance ni déperdition d’énergie.

Contrairement à l’effet Meissner (exclusion totale de tout flux magnétique à l’intérieur d’un supraconducteur), le champ magnétique pénètre le supraconducteur en raison de sa grande finesse, sous forme de tubes de flux magnétique. À l’intérieur de chacun de ces tubes, la supraconductivité est détruite localement, raison pour laquelle les tubes sont circonscrits au niveau des points faibles du disque. Chaque mouvement du disque fait bouger les tubes, ce que le supraconducteur essaie d’éviter en restant bloqué, piégé en l’air, donnant cette impression de lévitation.

La guerre des étoiles n’aura pas lieu (ou alors à Argonay)

Vous possédez de bons réflexes, vous êtes fans de modélisme et vous ne jurez que par Star Wars ? Alors la course organisée dans la commune d’Argonay est faite pour vous ! Dans l’esprit des courses poursuites effrénées de Pod-Racer de la célèbre saga américaine imaginée par George Lucas, la première édition de cette course organisée par l’association « Airgonay » a réuni plus d’une vingtaine de compétiteurs en Haute-Savoie le mois dernier, dont le seul objectif était d’en découdre coûte que coûte sur le terrain.

Assis bien confortablement dans leurs quartiers, la tranquillité des pilotes contraste quelque peu avec le rythme endiablé qu’impriment les petits bolides, taillés pour les 150 mètres de la course. Alors qu’habituellement un pilote de drone ne doit pas le quitter du regard, ici le pilote ne voit plus sa machine, qu’il est obligé de suivre à l’aide d’un dispositif vidéo et d’une caméra embarquée… avec un rendu génial assez proche d’un jeu vidéo en FPV (« First Person View », ou vol en immersion). Truffé d’obstacles, le parcours représente un vrai challenge pour ces pilotes pourtant aguerris.

24 machines qui façonnent notre quotidien

Ce n’est un secret pour personne : la majeure partie des denrées alimentaires transformées l’est de manière industrielle. Sans nécessairement se positionner par rapport à la qualité des produits finis, qui ne s’est jamais demandé comment sont fabriqués les bretzels ? Comment sont fourrés certains biscuits ? Comment sont fabriquées les pâtes industrielles ? En parallèle, qui ne s’est jamais demandé comment est fabriqué un ressort de suspension ? Comment sont réalisées les dalles de carrelage ? Comment est « imprimé » le pas de vis sur un bocal ?

La vidéo qui suit ne répondra pas vraiment à toutes ces questions, mais vient seulement nous montrer à travers l’enchaînement d’une vingtaine de séquences le degré de perfectionnement et d’ingéniosité atteint par certaines machines, le plus souvent pour réaliser une tâche en apparence facile.

La mitrailleuse qui tire des avions en papier

Alors que la possibilité d’imprimer en 3D des armes à feu est légitimement sujette à de nombreuses controverses et inquiétudes, voici une « arme » qui risque de ne pas troubler la sécurité intérieure et de satisfaire le plus grand nombre. Le Youtuber « Papierfliegerei », en bon bricoleur du dimanche, est parvenu à réaliser un dispositif de pliage d’avions en papier à la chaîne, qu’il a décidé de sobrement baptiser « mitrailleuse à avions en papier ».

La plus grande partie des pièces nécessaires à la construction de cette arme inoffensive sort d’une imprimante 3D, le reste des composants aurait été acheté en ligne ou proviendrait d’une quincaillerie de quartier. La mitrailleuse dispose d’un magasin pour stocker les munitions, à savoir un paquet de feuilles de papier au format A4. Un système ingénieux permet de faire avancer la feuille tout en la pliant étape par étape, jusqu’à son envol et la propulsion hors du canon, le tout en seulement quelques secondes. Seul bémol : le bruit, désagréable au possible.

Le gadget (inutile?) de la semaine : la deuxième vie de Ratjetoe, alias le rat volant

Lorsqu’un animal de compagnie vient à mourir, certaines personnes sont prêtes à tout pour perpétuer la mémoire de leur défunt compagnon poilu. Le gadget (inutile?) de la semaine vient de « l’autre pays du fromage », les Pays-Bas, où habite Pepeijn Bruins. Atterré par la perte de Ratjetoe (« Ratatouille » en batave…), son rat de compagnie, le jeune Hollandais s’est mis en tête de lui offrir une seconde vie, une vie à la hauteur de l’estime et de l’amour qu’il portait pour son rat domestique, décédé d’un cancer il y a peu.

Épaulé par deux inventeurs et artistes hollandais, le jeune Pepeijn Bruins a accompagné Ratjetoe dans sa dernière mue, transformant le petit rongeur en un tricoptère téléguidé du meilleur goût.

Personne ne sera surpris d’apprendre que les deux inventeurs qui se cachent derrière ce rat volant ne sont autres que Arjen Beltman et Bart Jansen, déjà tristement célèbres pour avoir transformé le chat de Jansen en… « chatcoptère », il y a plus de deux ans.

Ce n’est d’ailleurs pas leur unique fait d’arme. Les deux compères s’étaient déjà retrouvés l’année dernière pour mettre au point quelque chose de plus gros, une « autruchecoptère », puisque l’idée du chat-volant leur avait semblé franchement bonne. Le gros oiseau, incapable de voler de son vivant, a eu droit à un baptême de l’air posthume. Les deux loustics seraient en train de peaufiner leur « Sharkjet »… on vous laisse deviner ce que cela peut bien être.

Bonus : la joueuse de tympanon, merveilleux automate hors du temps

Si vous êtes un lecteur assidu de notre Revue du Web, le patronyme « Roentgen » ne devrait pas vous être complètement étranger. Pour conclure cette soixante-neuvième Revue, jetons un œil dans le rétroviseur avec l’une des créations emblématiques de David Roentgen, ébéniste émérite ayant notamment fait ses armes à la cour du roi Louis XVI, artisan jalousé par toute la corporation pour son travail inventif et soigné dont nous vous avions déjà parlé ici pour son fabuleux secrétaire aux rangements escamotables.

Cette fois-ci, place à la « joueuse de tympanon », un merveilleux automate du XVIIIe siècle, passé entre les mains de Marie-Antoinette avant qu’elle ne finisse par en faire don à l’Académie des Sciences. Conçu en collaboration avec l’horloger allemand Peter Kinzing, cet automate emprunte ses traits et son accoutrement à une élégante musicienne dont la robe ample vient ici cacher le mécanisme, un cylindre en laiton entraîné par un remontoir à ressort. La rotation du cylindre permet d’actionner des cames qui contrôlent à la fois les mouvements de la tête et des bras. Conservée au musée des arts et métiers à Paris, la joueuse de tympanon se porterait plutôt bien pour son âge, bien qu’elle ait quelque peu perdu de sa virtuosité.

Par Moonzur Rahman

Philae: « trois bonnes nouvelles » et un « check up » en cours

« Philae a passé la nuit sur la comète et nous avons eu trois bonnes nouvelles: la première, c’est que Philae est posé sur le noyau de la comète. Deuxièmement, Philae reçoit de l’énergie, ses panneaux solaires sont allumés et lui permettent donc d’envisager un futur. Et troisièmement, nous sommes en contact permanent avec Philae puisque Philae émet et envoie des informations à Rosetta et ensuite Rosetta, qui est en orbite, nous les retransmet », a déclaré le président du CNES (Centre national d’études spatiales) Jean-Yves Le Gall sur Europe 1.

« La liaison radio fonctionne, on est en direct avec Philae », a-t-il ajouté.

Interrogé sur l’arrimage du robot sur le sol de la comète « Tchouri » et le fonctionnement des harpons, M. Le Gall a souligné que « l’information la plus importante, c’est qu’on est bien posé. Ensuite, on va voir ce qu’on fait sur les harpons. On est en train de faire une sorte de check up de Philae. On est en contact, et c’est ça le plus important ».

« Et surtout, on a de l’énergie », a souligné M. Le Gall. « On avait la pile qui permettait de vivre de façon autonome pendant quelques dizaines d’heures mais maintenant, les panneaux solaires fonctionnent », a -t-il ajouté, précisant que « les panneaux solaires laissent envisager une vie beaucoup plus longue, au-delà des 60 heures ».

« Tous les systèmes fonctionnent bien », a-t-il assuré.

Concernant la forme du noyau de la comète, « toutes les théories » disaient que c’était « une boule de neige sale, plutôt compacte. On s’est rendu compte que ce n’est pas du tout sphérique, avec une surface totalement tourmentée », a-t-il dit.

« Là où on a attendait du mou, on a eu de la glace », a encore indiqué M. Le Gall

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les dermatologues dénoncent une épidémie d’allergies provoquée par la méthylisothiazolinone

Allergène de l’année  2013. Voilà le titre peu glorieux décroché par la méthylisothiazolinone (MIT) aux Etats-Unis. En effet, cette substance chimique est responsable de nombreuses allergies de contacts, un phénomène qui prend une ampleur inquiétante. Dans un communiqué du 23 octobre, la Société française de dermatologie (SFD) s’alarme de la recrudescence des cas d’allergie, une explosion des cas étant visible en France mais aussi dans d’autres pays européens.

La MIT est un biocide et un conservateur. On le retrouve dans les produits cosmétiques pour lesquels il permet de contrôler la croissance microbienne, ainsi que dans les produits ménagers et professionnels comme les peintures à l’eau ou des enduits.

Depuis quelques années, la MIT est utilisée dans les cosmétiques en remplacement du paraben, substance chimique servant de conservateur mais identifié comme toxique.

Le 3 mai 2011, l’Assemblée nationale  avait d’ailleurs adopté une proposition de loi visant à interdire l’utilisation du paraben en France, loi qui n’est toutefois pas encore entrée en vigueur. 

La SFD s’alerte du fait que les premières victimes sont les bébés et les jeunes enfants. En effet,  la MIT est souvent présente dans les lingettes, les laits ou encore les gels douches à destination des tout-petits.  Des publications scientifiques ont pourtant mis en évidence l’aspect allergisant de la MIT, révélant « […] des cas de sensibilisation chez de jeunes enfants, principalement à type d’eczéma du visage et du siège déclenché par l’utilisation de lingettes nettoyantes, avec parfois une réactivation lors de l’exposition aéroportée à la MI des peintures à l’eau murale. ». 

L’étude REVIDAL-GERDA (Réseau de Vigilance en Dermatologie Allergologie rattaché au Groupe d’Etude et de Recherche en Dermatologie Allergologie)  a montré le triplement des tests positifs à la MIT entre 2010 et 2012, ce qui représente un taux de sensibilisation de 5.6%. Une situation comparable à l’Allemagne et au Royaume unis où les taux de sensibilisation sont passée respectivement de 1.9% à 6% et de 0.5% à 5.7%.

Face à ce qu’elle qualifie de véritable épidémie, la SFD regrette qu’aucun texte officiel de recommandations n’existe et  invite les autorités à se saisir du cas de la MIT.

Par Audrey Loubens

Arkema mise sur son polyamide bio

Arkema est le seul à produire un polyamide d’origine renouvelable à partir d’huile de ricin. Il s’agit de sa gamme nommée Rilsan, dont le PA 11 est le fer de lance.  Depuis, la gamme s’est étendue et Arkema commercialise plusieurs dérivés comme l’adhésif Platamid®, le Pebax Renew®, version bio du Pebax fabriqué à partir du pétrole, ou encore le Rilsan G120 qui a la propriété d’être transparent et trouve des applications en lunetterie. Dernier né des polyamides verts, le Rilsan HT® tire son nom de sa résistance aux hautes températures puisqu’il reste opérationnel jusqu’à 220°C, bien mieux que les 150°C intermittents supportés par le reste de la gamme.

Le Rilsan HT peut donc être utilisé au plus près des moteurs automobiles, comme vanne EGR par exemple. De plus, le Rilsan HT est à 70% renouvelable. « Le Rislan HT tient vraiment bien la température tout en étant flexible, ce qui en facilite grandement le montage » précise José Teixeira Pires, General manager pour les polyamides longues chaines à Arkema. Ainsi, malgré un coût à l’achat supérieur au métal, il permet des économies de process significatives.

Aujourd’hui, Arkema mise clairement sur le biosourcé et poursuit des efforts pour étendre son leadership dans le domaine.  En effet, un tel PA répond aux besoins des marchés, à savoir des matériaux de plus en plus techniques, respectueux de l’environnement et permettant d’abaisser les coûts. 

Les polyamides techniques représentent « seulement » 200 000 tonnes produites chaque année, à comparer aux quelques 8 millions de tonnes de polyamides au total. Les PA biosourcés bénéficient d’une forte demande dans les secteurs du transport et de l’exploration pétrolière. Côté automobiles et camions, ils permettent de gagner en poids, en performance et en coût. Les PA techniques représentent une solution alternative au métal. En revanche, pour la recherche de pétrole ces polyamides sont la seule solution pour explorer au large des côtes, sur des plateformes de type « bateau » et donc mobiles. Les tubes métalliques ne permettent pas  de suivre les mouvements du navire, d’où l’utilisation de tubes mixtes associant métal et plastique. Ainsi, tels les tuyaux de douche, ils acquièrent la flexibilité nécessaire à l’exploration pétrolière sur plateforme mobile.

En parallèle, le chimiste français cherche à s’imposer dans les pays émergents. En 2012, Casda Biomaterials et Hipro Polymers tombent dans son escarcelle. Le premier est leader de l’acide sébacique, un acide issu de l’huile de ricin, tandis qu’Hipro est producteur de polyamides bio-sourcés, plus particulièrement du PA 10.10.

En pratique, Casda achetait l’huile de ricin et Hipro lui achètait le monomère nécessaire pour fabriquer des polymères biosourcés. « Cette acquisition […] présente de formidables relais de croissance pour nos polyamides de haute technicité et nous positionne comme le seul producteur au monde disposant de la gamme complète des polyamides 10, 11 et 12 »s’est alors félicité Thierry Le Hénaff, Président-Directeur général d’Arkema. 

Dans cette même  logique, les frenchies se rapprochent aussi de l’Inde, premier producteur mondial d’huile de ricin, et viennent de prendre une participation de 25% dans le capital de la société Ihsedu Agrochem, producteur indien d’huile de ricin.

Par Audrey Loubens

Le robot Philae en route pour la comète « Tchouri »

L’atterrisseur a été largué par la sonde européenne Rosetta vers 10H00 (heure locale, 09H00 GMT). « Ca a bien marché. Nous sommes tous heureux. Cela s’est passé sans problème », a déclaré Andrea Accomazzo, directeur de vol de la mission Rosetta au Centre européen d’opérations spatiales (ESOC) de l’ESA à Darmstadt.

« Philae est parti – il est en train de descendre vers la comète », a-t-il ensuite tweeté.

L’annonce de la séparation a été saluée par des applaudissements et des embrassades.

Les responsables de la sonde européenne Rosetta, qui navigue depuis 10 ans dans l’espace, avaient donné tôt mercredi matin le dernier feu vert au largage de son petit robot laboratoire de 100 kg.

Lâché à environ 20 km de la surface de la comète, Philae va mettre sept heures de chute libre avant de tenter de se poser sur le noyau de la comète Tchourioumov-Guérassimenko. Le site retenu pour cet atterrissage périlleux, baptisé Agilkia, est une zone d’environ 1 km2 située sur le petit lobe du noyau de la comète.

Cet atterrissage représente un véritable défi technologique. Le petit robot va devoir se poser sur une comète très peu « coopérative », à la forme torturée et au relief accidenté, et alors même que la nature du sol reste une inconnue.

Si Philae arrive à s’ancrer comme prévu sur le noyau de la comète, et s’il parvient à communiquer avec Philae, la confirmation du premier atterrissage jamais réalisé sur une comète devrait parvenir sur Terre vers 16H02 GMT (17H02 heure de Paris), avec une plage d’incertitude d’une quarantaine de minutes.

« Maintenant il faut s’en remettre aux lois de la physique (…) Je n’ai plus d’ongles à ronger de toute façon », a lancé Mark Mc Caughrean, conseiller scientifique à l’ESA.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un million d’humains pour peupler Mars d’ici 100 ans ?

Le phénomène Elon Musk, a fait part dans une interview accordée pour le magazine digital Aeon d’une envie que l’on pourrait aisément qualifier d’inhabituelle et d’ahurissante. En effet, le cofondateur de Paypal, SpaceX, Tesla Motors et initiateur du projet de train subsonique Hyperloop verrait bien un million d’êtres humains sur Mars d’ici une centaine d’années. Rien que ça. Un projet hors du commun, bien sûr, mais qui ne surprend qu’à moitié vu que l’idée vient de lui et qu’elle est à la hauteur de sa réputation.

Mais avant de se questionner sur la faisabilité d’envoyer un million de personnes sur Mars, et de les y faire vivre – un voyage retour étant exclu – voyons déjà les raisons exposées par M. Musk expliquant l’intérêt, ou plutôt le besoin impérieux, de fonder une colonie martienne. En fait, il s’agit ni plus ni moins de la survie de l’humanité qui est en jeu. Parce que l’homme d’affaires a confiance en l’humanité et foi dans la civilisation, il pense qu’il est « crucial d’aller sur Mars ». En prévision de catastrophes potentielles, qu’elles soient naturelles (objets spatiaux venant percuter la Terre) ou liées au facteur humain (conflits,  pollution, pillage des ressources, épidémies…).

Ce genre de projet provoque invariablement scepticisme, hypothèses et controverses. D’après une étude réalisée par des scientifiques du MIT, il serait impossible de survivre plus de 68 jours sur Mars. En tout cas, dans les conditions affichées dans le cadre du projet Mars One de l’ingénieur Néerlandais Bas Lansdorp. Les ressources en oxygène feraient défaut et conduiraient à l’asphyxie pure et simple des « colons ». D’un point de vue technique, également, une telle mission ne serait pas envisageable actuellement. Il faudrait une quantité de matériel énorme pour poser les bases d’une colonie et assurer sa maintenance, et en conséquence de très nombreux voyages pour les pièces nécessaires. La facture est estimée à 4,5 milliards de dollars.

Elon Musk compte sur le développement de SpaceX, les progrès technologiques à venir et ceux dont les tests doivent encore confirmer leurs capacités. Selon ses dires, il aurait les plans d’un engin spatial capable de transporter une centaine de personnes. Donc si l’on s’en tient à sa volonté d’emmener un million de personnes sur la planète Mars, cela donne pas moins de 10 000 voyages… Qu’il faudra multiplier par 10 pour les effets personnels des futurs « colons » ainsi que tous les autres équipements.

Musk fait-il preuve de trop d’optimisme selon vous ? Son discours est-il défendable ou n’est-il qu’une rêverie digne d’un film de science-fiction ? Si on peut légitimement  se poser ce genre de question, l’homme témoigne pourtant d’un certain réalisme en ce qui concerne la faisabilité, conscient que fonder une colonie sur Mars ne se fera à priori pas de son vivant. Et avec les moyens dont disposent le milliardaire et la pugnacité dont il fait preuve, on se demande tout de même si on peut le prendre au sérieux.

Par Sébastien Tribot

Tecknisolar présente son drone maritime autonome !

La nouvelle invention de Tecknisolar, entreprise de recherche et développement française, est un drone complètement autonome. Il fonctionne avec des capteurs solaires innovants, développés en interne, qui lui permettent d’avancer, qu’il y ait de la pluie ou du brouillard. Pour être sûr qu’il ne tombe pas en panne et qu’il continue à avancer la nuit, il est également doté de deux batteries qui se rechargent en mouvement, comme dans les voitures, lui assurant une autonomie parfaite.

Avec ses 2,5 mètres de long, ses 44 cm de large et ses 10 kg à vide, le drone peut embarquer jusqu’à 30 kg d’équipements et se déplacer entre 8 et 10 noeuds. Sa taille est optimisée au maximum : les panneaux solaires couvrent 2,2 m de sa longueur et ses 44 cm de large. Il est composé de carbone et de fibres d’aramide pour réduire au maximum l’épaisseur de sa coque et son poids. S’il chavire à cause d’une tempête trop importante, il retrouvera sa position initiale une fois le calme revenu, grâce à sa quille de 60 cm de longueur et d’un poids précis confidentiel. Il repartira ensuite automatiquement vers son cap programmé.

Du côté des applications en vue, Tecknisolar voit grand. « Ce drone peut embarquer des équipements électroniques pour faire de la surveillance maritime ou du brouillage radio, embarquer une antenne-relai, des émetteurs pour envoyer des images de caméra thermique ou numérique, des charges explosives, ou même faire de la détection accoustique sous-marine, des contrôles anti-pollution, de la recherche d’épaves... », prévient Pascal Barguirdjian, gérant de l’entreprise Tecknisolar.

Une véritable sentinelle maritime

Dans un premier temps, le drone serait particulièrement intéressant pour des applications militaires et des missions de surveillance maritime. Il s’agira d’une véritable « sentinelle maritime« , annonce Pascal Barguirdjian. Piloté et programmé à distance via un ordinateur relié à un satellite, il permettra notamment de lutter contre le pillage des poissons par les bateaux usines asiatiques en Afrique de l’Ouest. « Les pays pauvres qui n’ont pas les moyens d’avoir des frégates ou des patrouilleurs pourront en mettre quelques dizaines sur l’eau et dès qu’ils détecteront un bateau, prévenir les gardes côtes », imagine le gérant. Le prix reste confidentiel,« mais ce n’est pas très cher« , assure-t-il.

Grâce à ses charges explosives, le drone pourra également protéger une zone d’infiltration en cas  de guerre. « Comme il est indétectable et au ras de l’eau, il est capable de faire office de missile ou d’arme dissuasive », divulgue-t-il.

Il pourra aussi être utilisé par les civils pour vérifier la qualitéde l’eau au large. « Si un pétrolier dégaze en mer, il pourra aller prélèver de l’eau et l’analyse se fera àterre« , prévient Pascal Barguirdjian. Le drone enregistrera la positions exacte du prélèvement et pourra aussi ramener des images.

Présenté pour la première fois il y a une dizaine de jours, puis exposéau salon Euroval, du 27 au 31 octobre, plusieurs négociations sont d’ores et déjà en cours. Le ministère français de la défense serait d’ailleurs intéressé. La commercialisation devrait débuter d’ici mars 2015.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Et les 7 minéraux les plus toxiques sont…

Chalcantite

Sous des aspects bleutés séduisants parfois nuancés de vert, la chalcantite est en fait du sulfate de cuivre hydraté. Translucide, ce minéral est souvent sous forme d’agrégats, stalactitiques ou fibreux. Attention, le sulfate de cuivre est nocif en cas d’ingestion et irritant en cas de contact.  Cette dangerosité lui a valu le surnom de vitriol de Chypre. 

Cinabre

La formule du Cinabre est simple : HgS. Vous aurez reconnu du sulfure de mercure, le minerai de mercure le plus commun dont les gisements sont malgré tout exploités depuis des millénaires. La présence du mercure, métal neurotoxique et néphrotoxique en font un poison redoutable. Pas étonnant qu’il soit aussi rouge que la pomme croquée par Blanche-neige.

Orpiment

Après le mercure, voilà l’arsenic. L’orpiment n’est rien d’autre que du trisulfure d’arsenic, avec des traces de mercure, de germanium et d’antimoine. De couleur jaune, les cristaux peuvent atteindre 10 cm. Véritable cocktail de minéraux toxiques, il n’est plus utilisé comme pigment. L’industrie s’en sert dans les semi-conducteurs.

Pharmacolite

Ce cristal blanc est un arséniate de potassium et de fer hydraté. Le nom de ce gypse signifie « pierre-poison », en référence à l’arsenic qu’elle contient. 

Réalgar

Encore de l’arsenic dans ce sulfure de formule  As4S4.  Sous l’effet de la lumière, le réalgar devient du pararéalgar, parfois confondu avec de l’orpiment (As2S3) du fait d’une structure similaire. La teinte de ce minéral est rouge et il était utilisé comme pigment jusqu’à la fin du 19ème. Le réalgar tient son nom de son autre utilisation plus radicale en tant que mort-aux-rats.

Hutchinsonite

Non, le nom de ce minéral n’est pas un hommage à la série américaine Starsky et Hutch mais au minéralogiste anglais Arthur Hutchinson. L’hutchinsonite est composée de sulfure de plomb, thallium et arsenic avec des traces d’argent et d’étain. Sous forme de cristaux, on en trouve dans des veines hydrothermales, ces circulations de fluides chauds en lien avec la cristallisation d’un magma ou une fin d’éruption volcanique.

Kryptonite

Cette pierre d’origine extra-terrestre peut prendre différentes couleurs, mais les plus dangereuses sont les vertes, rouges, bleues et dorées. Cette roche peut même être mortelle en cas d’exposition prolongée. Heureusement, sa toxicité n’affecte que les kryptoniens.

Par Audrey Loubens

L’évaluation de la toxicité des pesticides repose quasi-exclusivement sur les données des industriels

Et si les industriels écartaient sciemment de leurs dossiers les études publiques portant sur les pesticides dont ils demandent la mise sur le marché ? C’est le doute posé par l’ONG Pesticides Action Network (PAN) et l’association française Générations futures. Elles viennent de publier un rapport sur la façon dont les autorisations de mise sur le marché tiennent compte de l’ensemble des travaux existant. D’après leur étude, il apparait que les évaluations européennes reposent majoritairement sur les données fournies par l’industriel lui-même.

Un conflit d’intérêt évident qui devait être limité par l’article 8 du règlement 1107/2009 du 21/10/09 concernant la mise sur le marché des produits phytopharmaceutiques précisant que « L’auteur de la demande joint au dossier la documentation scientifique accessible, […], validée par la communauté scientifique et publiée au cours des dix dernières années […], concernant les effets secondaires sur la santé, sur l’environnement et sur les espèces non visées de la substance active et de ses métabolites pertinents. ».

Depuis 5 ans, les travaux scientifiques ayant fait l’objet d’une publication récente doivent donc faire partie du dossier et participer à la décision. Pourtant, l’enquête pointe deux défaillances majeures du processus d’évaluation. Tout d’abord, l’obligation de joindre les publications publiques n’est pas systématiquement respectée par les industriels, sans que cela soit sanctionné ou même seulement corrigé. Concernant les 7 cas de pesticides ciblés par l’ONG et l’association, 434 études publiques sont accessibles via PubMed, le site de référence des publications scientifiques en ligne, mais seuls 23% d’entre elles ont effectivement été présentées dans les dossiers. Pire, aucune n’a été jugée pertinente. En effet, l’évaluation de la toxicité d’un pesticide hiérarchise la pertinence des données connues, il s’agit de la classification Klimish. Celle-ci attribue un coefficient compris entre 1 et 4 selon que l’étude est jugée fiable ou non.

Pour les auteurs du rapport il s’agit ni plus ni moins d’une façon habile d’écarter les résultats potentiellement gênants des études publiques.  D’autant que pour les 7 cas étudiés, les seuils de toxicité recommandés dans ces publications sont inférieurs de 20 à 1500 fois ceux validés dans le cadre de l’autorisation de mise sur le marché.

Des résultats qui ont le mérite de poser la question de l’efficacité du protocole d’évaluation de toxicité des pesticides, des substances dont on sait aujourd’hui qu’une faible exposition chronique présente un danger pour la santé.

Par Audrey Loubens

Japon: feu vert local au redémarrage de 2 réacteurs nucléaires (officiel)

Le plus haut responsable des autorités locales, qui a le dernier mot, a approuvé cette relance dans l’après-midi (heure du Japon) sur la base des garanties offertes par la compagnie exploitante, Kyushu Electric Power, et par le gouvernement disposé à relancer toutes les installations jugées sûres.

« Tenant compte de divers facteurs dans leur ensemble, j’ai jugé que le redémarrage des unités 1 et 2 de Sendai était inévitable », a déclaré le gouverneur Yuichiro Ito lors d’une conférence de presse.

Avant qu’il ne prenne la décision finale, l’assemblée préfectorale réunie vendredi matin avait suivi l’orientation favorable donnée la veille au soir par un comité spécial.

La municipalité de Satsumasendai, qui héberge la centrale, avait auparavant aussi donné son accord et le gouverneur avait décidé de ne pas consulter les autres agglomérations alentour, la loi ne l’y obligeant pas.

Pour Sendai, la prochaine étape sera le « oui » du gouvernement de droite de Shinzo Abe, approbation assurée qui sera suivie de quelques procédures techniques encore inachevées mais qui devraient avoir lieu début 2015.

Les écologistes avaient dénoncé par avance la décision de Kagoshima.

Quelque 16.000 personnes avaient manifesté en septembre à Tokyo contre le redémarrage de réacteurs nucléaires et les sondages indiquent que la majorité de la population y est opposée.

kap/anb/jr

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La Nasa va effectuer le 4 décembre le premier vol d’essai de la capsule Orion

« Il s’agit du premier pas dans notre voyage vers Mars », a lancé William Hill, administrateur adjoint de la NASA, lors d’une conférence de presse.

Le premier vol d’Orion avec des astronautes à bord n’est pas prévu avant 2021.

La capsule qui rappelle la forme du vaisseau Apollo de la conquête de la Lune en 1969, est construite par le groupe aérospatial américain Lockheed Martin.

C’est le premier vaisseau spatial développé depuis trente ans aux Etats-Unis. Le précédent, la navette avait volé pour la première fois avec des astronautes en 1981 et effectué son dernier vol en juillet 2011.

Le lancement est prévu à bord d’une fusée Delta 4 de la société United Launch Alliance (ULA) depuis la station de l’US Air Force de Cap Canaveral en Floride (sud).

Pour ce premier vol d’essai de 4,5 heures, Orion effectuera un périple de 5.800 kilomètres au-dessus de la Terre de façon à pouvoir effectuer un retour dans l’atmosphère à plus de 32.000 km/h avant de se poser dans l’océan Pacifique, freinée par des parachutes.

Ce vol est destiné à tester principalement le bouclier thermique de la capsule qui doit résister à des températures de 2.200 degrés, ses parachutes et ses ordinateurs de bord.Il y a aussi 1.200 capteurs pour mesurer les vibrations, le niveau de bruit et la température.

William Hill a précisé que ce vol d’essai d’Orion coûtait environ 375 millions de dollars sans compter le coût de la capsule.

Le coût du programme Orion devrait atteindre 15 milliards de dollars sans compter le système de lancement, « Space Launch System » actuellement en développement, également estimé à quinze milliards.

Ce vol d’essai est annoncé une semaine après deux accidents impliquant deux sociétés spatiales privées américaines. Le 28 octobre, une fusée Antares de la firme Orbital Sciences transportant une capsule non-habitée avec du fret à destination de la Station spatiale internationale pour le compte de la Nasa, a explosé quelques secondes après le lancement du centre spatial Wallops sur la côte de Virginie.

Vendredi dernier, l’avion sub-orbital SpaceShipTwo de la firme Virgin Galactic fondée par le milliardaire britannique Richard Branson s’est disloqué en vol tuant le co-pilote et infligeant un sérieux revers au tourisme spatial naissant dont Virgin est le leader.

« Nous n’avons rien changé à nos plans…ces accidents nous rappellent le risque des activités spatiales », a lancé Mark Geyer, le responsable du programme Orion lors de cette même conférence de presse au Centre spatiale Kennedy près de Cap Canaveral.

« Les activités spatiales sont difficiles comme l’a montré ce qui s’est passé la semaine dernière », a aussi déclaré William Hill.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les découvertes les plus inutiles et absurdes en… biologie

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur la biologie…

  • 1991 : le tout premier Ig Nobel de biologie fut décerné au généticien américain Robert Klark Graham, pour avoir été à l’origine de la « Repository of Germinal Choice » (le « dépôt pour le choix germinal »), une banque du sperme fleurant bon l’eugénisme. Cette banque avait pour mission de n’accepter que les dépôts de lauréats de Prix Nobel, de champions olympiques, ou de n’importe quel autre « surhomme ». La banque ferma en 1999, mais 218 enfants auront tout de même pu naître sous cette drôle d’étoile.
  • 1998 : c’est Peter Fong, de l’école technique de Gettysburg, Pennsylvanie, qui remporte ce prix très convoité pour avoir découvert que le Prozac avait une influence positive sur les comportements reproductifs des palourdes et des moules zébrées. Pas un mot sur une éventuelle dépression qui toucherait ces deux espèces. L’année suivante, l’Ig Nobel vint récompenser le docteur Paul Bosland, directeur de l’Institut du piment (université de l’État du Nouveau-Mexique, à Las Cruces), qui peut se vanter d’être l’heureux papa d’un piment jalapeño – une fameuse variété mexicaine de piment – qui respecte les papilles des plus sensibles d’entre nous. Un piment non pimenté, vous avez bien compris.
  • 2001 : l’ingénieux Buck Weimer, de Pueblo, dans le Colorado, put être fier d’avoir remporté un Ig Nobel cette année pour avoir conçu une gamme de sous-vêtements non seulement étanches, mais également équipés d’une poche à charbon, dont la fonction première est de venir à bout des mauvaises odeurs qui pourraient avoir la mauvaise idée de se faire la malle.

  • 2003 : l’heureux vainqueur du prix cette année est C.W. Moeliker du Natuurmuseum de Rotterdam, pour son rapport sur le premier cas scientifiquement observé de nécrophilie homosexuelle chez le canard colvert. Pour ne rien gâcher – et pour la science – il a pensé à prendre quelques photos.

  • 2004 : le prix fut décerné aux Canadiens Ben Wilson et Lawrence Dill, à l’Écossais Robert Batty, au Danois Magnue Wahlberg et au Suédois Hakan Westenberg, pour avoir démontré que les pets étaient l’un des vecteurs de communication des harengs.
  • 2008 : cette édition a vu la victoire des Français Marie-Christine Cadiergues, Christel Joubert et Michel Franc, de l’École nationale vétérinaire de Toulouse, pour avoir comparé les performances de saut de Ctenocephalides canis – la puce du chien – avec celles de Ctenocephalides felis – la puce… du chat. Les puces du chien l’emportent haut la main.
  • 2010 : ce sont Libiao Zhang, Min Tan, Guangjian Zhu, Jianping Ye, Tiyu Hong, Shanyi Zhou, Shuyi Zhang et Gareth Jones qui raflent cette fois la mise, pour avoir publié une étude sur la pratique de la fellation chez certaines espèces de chauves-souris.

 

  • A venir : le best of des IG Nobels… de la paix

Par Rahman Moonzur

Attirer vers soi un objet grâce à des ondes sonores

Parues dans la revue Physical Review Letters, les expériences des chercheurs de l’université écossaise de Dundee aidés de ceux de l’Université Wesleyan de l’Illinois pourraient bien les faire basculer du côté obscure de la force.

En effet, ils ont fabriqué un véritable rayon tracteur fonctionnant avec des ondes acoustiques selon le principe suivant : la matière est attirée vers la partie la plus intense de l’onde. C’est ainsi qu’ils ont pu attirer des objets de plus d’un centimètre de long, une performance à ce jour inégalée.

Pour déplacer ces petits objets, il aura fallu une force de quelques millinewton. Mais la forme de l’objet est un facteur limitant. S’il leur a été « aisé » d’attraper un objet de forme triangulaire, la base étant la face arrière, leur expérience montre qu’un tel système ne fonctionne pas sur les objets plats. Enfin, pour les amateurs de science-fiction, impossible d’utiliser ce rayon tracteur pour capturer un vaisseau spatial puisque les ondes sonores ne se propagent pas dans le vide.

De tels dispositifs pourraient être utilisés en médecine pour soigner des plaies aigües ou des plaies chroniques comme des ulcères et des esquarres. Certains didspositifs existent déjà, la Haute Autorité de santé s’y était d’ailleurs intéressée en 2011, sans avoir été convaincue. Leur réserve portait notamment sur l’absence de précision de la dépression appliquée. Mais ce rayon tracteur va plus loin et pourrait servir à déplacer des cellules ou d’opérer des caillots ou des kystes de façon non invasive.

Par Audrey Loubens, journaliste scientifique

Mieux courir grâce aux mathématiques

Il confirme en outre un fait bien connu des sportifs : varier sa vitesse permet de mieux dépenser son énergie et de courir plus longtemps. Les mathématiques offrent ainsi l’opportunité aux coureurs de passer de simples outils de mesures statistiques au conseil sportif personnalisé. Ces travaux, disponibles sur l’archive ouverte HAL, seront présentés le 16 mai 2014 lors du forum Futurapolis à Toulouse, dont le CNRS est partenaire, puis publiés dans la revue SIAM J.Applied Maths.

Ce modèle mathématique prend tout d’abord en compte l’énergie du coureur, notamment sa consommation maximale d’oxygène (VO2max) et son stock d’énergie anaérobie, en les faisant intervenir dans un système d’équations différentielles reliant la vitesse, l’accélération, la force de propulsion et les forces de frottement. Ce système est couplé à des conditions initiales de départ de la course, vitesse nulle et quantité d’énergie donnée, et des contraintes : l’énergie et la force de propulsion doivent être positives (le coureur ne peut pas reculer). Les chercheurs sont capables avec ce modèle de prédire le comportement que doit avoir le sportif tout au long de sa course au moyen d’un bilan instantané déterminant à la seconde près la vitesse optimale du coureur et l’énergie dépensée depuis le départ.

Leur résultat principal montre ainsi que varier sa vitesse permet de dépenser moins d’énergie et de courir plus longtemps. De plus, en comparant ces résultats avec ceux d’athlètes professionnels, les scientifiques peuvent également préciser quels paramètres physiologiques les coureurs doivent développer pour s’améliorer en répondant par exemple aux questions suivantes : quels seront les résultats d’un champion s’il avait le poids et la consommation maximale d’oxygène d’un coureur amateur ? Quels sont alors les paramètres que le sportif amateur peut améliorer pour s’approcher des résultats habituels du champion ? Peut-il améliorer sa capacité respiratoire ou son énergie anaérobie ?

Les applications de ce modèle concernent deux types de publics. Dans le cas des coureurs « semi-professionnels » qui n’ont pas l’opportunité de travailler avec un entraîneur ou dans le cadre de cours d’éducation physique et sportive à l’école, les chercheurs imaginent un logiciel capable de créer des programmes d’entrainements personnalisés qui indiquent les paramètres physiologiques à développer en priorité et de réaliser des stratégies précisant les vitesses optimales à atteindre à chaque moment de la course. Pour les « coureurs du dimanche », le système d’équations étant adaptable à toutes les variables intéressantes pour le sportif (et pas seulement la vitesse), ces derniers pourront, par exemple, connaitre instantanément le nombre exact (et non pas une simple moyenne comme pour les autres outils) de calories perdues lors de la course et comment améliorer leur perte de poids.

Les chercheurs souhaitent désormais améliorer leur modèle mathématique en intégrant au système d’équations de nouveaux paramètres comme l’altitude ou l’effet du vent et l’appliquer à d’autres sports d’endurance comme le cyclisme, la natation ou le canoé kayak.

Source : Ecole Polytechnique

Vidéo : le projet Ara se dévoile un peu plus

De l’eau a coulé sous les ponts depuis ce mois d’octobre 2013, date à laquelle nous parlions pour la première fois du projet « Phonebloks » du designer néerlandais Dave Hakkens. Rappelez-vous, il s’agissait de ce smartphone évolutif et modulaire, fonctionnant un peu comme un jeu lego.

À l’époque, l’idée originale du jeune homme avait suscité un emballement remarquable, tant sur les réseaux sociaux que sur la plateforme de crowdspeaking Thunderclap. La vidéo de présentation postée sur Youtube avait même atteint 20 millions de vues en un temps record. Si bien que la branche de Motorola (appelée Motorola Mobility) rachetée en 2011 par Google s’était emparé du projet pour continuer de le développer. Devenant alors le « projet Ara » de Google.

Or depuis ce rachat, l’avancement du fameux smartphone révolutionnaire, censé lutter contre l’obsolescence programmée et tenir toute la vie comme le titrait Arion McNicoll pour CNN, semble s’accélérer. Dans une nouvelle vidéo mise en ligne, on peut en effet voir un prototype fonctionnel du « phonebloks » conçu par la société d’ingénierie NK Labs. On y découvre un design quelque peu changé, assez coloré. Mais surtout on apprend que les modules ne sont plus clipsables comme prévu originellement mais qu’ils s’emboîtent par un système de glissement; et ce même lorsque l’appareil est allumé. Désormais, on sait que l’ossature du « phonebloks » se compose d’au moins huit éléments dont une batterie, un micro-processeur, un écran LED, un port de charge USB, des haut-parleurs et un appareil photo. La base étant de concevoir selon ses goûts le smartphone idéal.

De nombreux détails restent encore à parfaire. Pour l’heure, le mobile fonctionne avec « l’ancienne » version du système d’exploitation Android Jelly Bean. À priori, il n’est donc pas aussi puissant que les prochains smartphones disposant de Lollipop. La modularité quant à elle présenterait également un défaut que les ingénieurs de NK Labs souhaitent corriger : celui de prendre la moitié de l’espace du prototype. Le but serait donc de rendre ces composants moins encombrants tout en améliorant leurs performances.

À en croire Paul Eremenko, en charge de l’avancée du projet, les objectifs devraient être respectés selon le calendrier fixé. Ainsi Google devrait normalement dévoiler une nouvelle mouture du prototype fonctionnel, appelé Spiral 2 avec probablement de nouveaux modules lors d’une conférence prévue pour le 14 janvier prochain à Mountain View. Et la commercialisation pourrait avoir lieu en avril 2015. Nous devrions donc en savoir plus à ce moment au sujet de la viabilité du modèle économique…

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Comment réussir une paroi perspirante ?

Un matériau perspirant a la propriété de laisser passer l’humidité à travers son épaisseur de façon à ce qu’elle s’évapore une fois arrivée de l’autre côté. Tout l’enjeu est de réussir à évacuer l’eau sans qu’elle condense le long de la paroi ou à l’intérieur du mur.  Pour cela, une paroi perspirante se décompose en plusieurs matériaux positionnés du moins perméable au plus perméable, le moins perméable étant le plus proche de l’intérieur. Ainsi, quand l’air intérieur est plus humide qu’à l’extérieur, l’excédent de vapeur d’eau est absorbé par la paroi, puis exfiltré de l’habitat jusqu’au mur extérieur. Idéalement, la réciproque est vraie. Si l’air intérieur est trop sec, la paroi perspirante rend de la vapeur d’eau, rajoutant l’humidité nécessaire au sein de l’habitat.

Une telle régulation de l’hygroscopie est réputée renforcer le confort des résidents. Mais pour bien fonctionner, de telles parois doivent à tout prix empêcher l’humidité de s’accumuler dans le mur, sous peine d’y faire apparaitre des moisissures. En période de grand froid, le risque va même jusqu’à l’apparition de fissures du fait du gel de l’eau stagnante.

La réussite de cet équilibre nécessite la mise en place d’un pare vapeur, c’est-à-dire  une couche qui va garantir l’étanchéité de l’air tout en laissant s’échapper l’eau. Car une paroi perspirante n’est pas qu’un régulateur d’humidité, celle-ci doit en parallèle se montrer étanche à l’air. Ce pare vapeur, souvent appelé frein vapeur, présente un facteur de diffusion de la vapeur d’eau  inférieur à 10 et garanti l’isolation du mur. Celui-ci doit être parfaitement jointé sur la totalité de la surface intérieure de la paroi. La moindre fuite pourrait être source d’une concentration de particules d’eau. Un pare vapeur peut être constitué de feuilles de kraft paraffinées renforcé à la fibre de verre.

Les matériaux utilisés pour créer une paroi perspirante peuvent être la laine de mouton qui se caractérise par une importante capacité d’absorption. Les panneaux en fibres de bois présentent aussi une bonne absorption. Les isolants dérivés du bois tels que la laine de bois, la ouate de cellulose ou encore les panneaux OSB font des pare-pluie efficaces. Enfin, on optera pour des panneaux de plâtre vers l’intérieur pour répondre aux besoins d’une bonne stabilité au feu.

A noter qu’une paroi perspirante diminue les dépenses énergétiques  globales du bâtiment, mais ne dispense pas de ventiler l’air intérieur.  Ceci en fait une solution privilégiée de l’éco-habitat.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

A quoi est due l’instabilité du marché énergétique européen?

La 16e édition de l’Observatoire européen des marchés de l’énergie met en garde contre l’instabilité des marchés de l’électricité. Selon ce rapport, les épisodes où les prix de gros de l’électricité sont négatifs se sont multipliés, les centrales à gaz ferment faute de rentabilité et les prix de vente au détail augmentent. Le problème serait particulièrement important en Allemagne.

Le développement des énergies renouvelables en cause?

Il est courant que les médias attribuent principalement les difficultés actuelles du marché aux énergies renouvelables. Mais sont-elles aussi coupables que cela ?

Rien n’est moins sûr. Rappelons qu’en France, le développement des énergies renouvelables est prévu par arrêté ministériel. Les trajectoires jusqu’en 2020 sont prévues depuis le Grenelle de l’environnement et n’ont pas été dépassées.  » Nous sommes même en dessous du point de passage prévu pour 2012 « , prévient Damien Mathon, Délégué Général du Syndicat des énergies renouvelables.

En réalité, le problème serait ailleurs. Le développement des énergies renouvelables est programmé par RTE à partir des programmations pluriannuelles des investissementsde production d’électricité (PPI). Suite au bilan prévisionnel de RTE en 2007, les investisseurs avaient prévu la construction de nouvelles centrales au gaz. La PPI de 2009 prévoit que ces constructions soient accompagnées de la fermeture de centrales au charbon : passage de 6,9 GW installés en 2009 à 3,3 GW en 2016. Mais entre temps, la crise économique a fortement impacté la consommation d’électricité. De plus, le développement du gaz de schiste en Amérique du Nord, accompagné d’importations de charbon à bas prix en Europe, a fait diminuer la compétitivité des centrales à gaz face au charbon.

En France, entre 2008 et 2012, les capacités installées en cycle combiné gaz (CCG) ont dépassé les prévisions initiales : près de 4 gigawatts (GW) de CCGet 1 GW de turbines à gaz ont été installées. Mais le parc n’a perdu que 292,5 MW de centrales au charbon et 750 MW de centrales au fioul. Le déclassement programmé de centrales à fioul et charbon n’a pas eu lieu dans le même temps et a commencé entre 2012 et 2013, mais moins vite que le déploiement de nouvelles capacités de gaz. Selon le bilan életrique RTE de 2013, entre 2012 et 2013, le parc de production installé en France a perdu 1,6 GW de centrales aucharbon, 607 MW de centrale au fioul et 71 MW de centrale au gaz. Fin 2013, la France comprenait donc encore 5,3 GW de centrales au charbon. Le résultat est que nous sommes en surcapacité de production d’origine fossile, ce qui destabilise forcément le marché.

Avec l’application de la directive européenne sur les grandes installations de combustion, qui demande la fermeture de 15,8 GW de capacité de charbon d’ici fin 2015, ce déclassement devrait s’achever l’année prochaine pour atteindre une capacité finale installée de 3,3 GW. En complément, la directive relative aux émissions industrielles (IED) entraînera la fermeture de 65 à 70 GW de centrales au charbon en Europe d’ici 2020-2023. Ces deux directives devraient contribuer à rééquilibrer le marché à l’avenir. Mais sur le court-terme, le problème n’est pas résolu.

Mais alors, quel rôle jouent les énergies renouvelables dans la destabilisation du marché ? En France, pas grand chose. Les PPI prévoient la trajectoire de développement des énergies renouvelables.  » On est en dessous des objectifs de la PPI fixés en 2009 et en dessous du point de passage prévu de 2012 « , rappelle Damien Mathon. En France, les énergies renouvelables variables représentent moins de 5% de la production d’électricité.  » Dire qu’elles sont à l’origine des problèmes du marché est un peu exubérant « , déplore Damien Mathon.

Néanmoins, la situation française diffère de la situation européenne et notamment allemande, en raison de son parc nucléaire important et du faible développement, pour le moment, des énergies renouvelables intermittentes.

La situation est-elle différente en Allemagne ?

En Allemagne, le bilan est plus mitigé, mais les choses évoluent. L’Allemagne a été le premier pays à s’engager dans la voie de la transition énergétique, avec un développement massif des énergies renouvelables. Résultat : le pays doit construire de nouvelles lignes haute-tension, les subventions aux énergies renouvelables ont explosé et les prix de l’électricité ont sensiblement augmenté. Les centrales nucléaires situées dans le sud du pays sont remplacées, dans le nord du pays, par des installations solaires photovoltaïques décentralisées et des éoliennes, nécessitant de nouvelles lignes électriques. Le pays se heurte également au développement du charbon au détriment du gaz.

Pour prévenir les hausses de prix dues à sa transition énergétique, l’Allemagne a réagi en adoptant en avril 2014 une nouvelle loi sur les énergies renouvelables. Celle-ci prévoit notamment de muter graduellement d’un système de tarif d’achat classique à une vente directe sur le marché, accompagnée d’une prime pour compenser l’écart par rapport au prix du marché. Cette évolution semble vertueuse, avec une réduction des périodes de prix négatifs sur le marché de gros de l’électricité. Notons qu’en France, le dernier épisode de prix négatif remonte à Juin 2013; la situation est donc loin d’être récurrente dans notre pays.

Au final, en Europe, la baisse de la demande et la concurrence du charbon ont entraîné la perte de rentabilité des centrales au gaz et la fermeture deplus de 10 GW de centrales au gaz en 2013.De plus, la faiblesse du prix des quotas de CO2, qui ne joue plus son rôle pour orienter l’industrie vers une production moins polluante, ajoute de la complexité au problème.

Un réseau en manque d’investissements ?

À plus long terme, l’Agence internationale de l’énergie (AIE) estime que malgré une croissance lente de la demande d’électricité (11% d’ici à 2035), l’Europe aura besoin de 740 GW de capacité supplémentaire d’ici 2035 pour remplacer l’infrastructure vieillissante. En effet, 40 % de la capacité des centrales thermiques doit être remplacée à cet horizon. Cela représente 2 200 milliards de dollars d’investissements, dont 70 % pour les centrales électriques et 30 % pour les réseaux. Capgemini estime que le prix de l’électricité devrait augmenter de 10% dans la prochaine décennie pour réaliser ces investissements nécessaires.

Un manque de gaz à prévoir ?

Le rapport de Capgemini s’intéresse aussi à la sécurité d’approvisionnement en gaz de l’Europe. La crise russo-ukrainienne pourrait entraîner des coupures d’approvisionnement en gaz dans certains pays dès cet hiver. Cela pourrait créer d’importantes tensions. En effet, 30 % du gaz utilisé en Europe provient de Russie et la moitié de ce gaz transite par l’Ukraine. Dans ce contexe, l’importation de gaz de schistes dans les pays qui ont commencé son extraction (Angleterre, Pologne et Roumanie) ne suffirait pas à satisfaire la demande. De plus, en raison de la baisse de la demande en gaz, les investissements concernant des gazoducs contournant la Russie, l’amélioration des capacités de stockage ou des importations de gaz naturel liquéfié ne se sont pas matérialisés.

On vous l’accorde, en réalité, la question de l’instabilité du marché de l’énergie est bien plus complexe qu’une simple question d’énergies renouvelables !

Par Matthieu Combe, journaliste scientifique

Voyage au coeur d’un système solaire triple en formation

Si les découvertes observationnelles récentes ont démontré l’existence de nombreuses planètes autour des étoiles doubles, leur formation se heurtait au problème des instabilités gravitationnelles engendrées par la nature binaire de ces astres. Les observations d’étoiles jeunes binaires sont encore trop rares pour fournir une image détaillée de ces processus. Jusqu’à très récemment, GG Tau A, située à près de 450 années-lumière de la Terre dans la constellation du Taureau, était connue comme une étoile binaire avec deux composantes Aa et Ab. Mais des mesures infrarouges récentes réalisées avec les instruments du VLT et du VLTI (ESO) ont révélé que GG Tau A est en fait un système stellaire triple1 : GG Tau Ab est elle-même une étoile binaire. L’étoile centrale Aa est suffisamment éloignée du couple Ab pour être entourée d’un disque circumstellaire, observé dès 2011 avec l’interféromètre de l’IRAM.

Autour de ce système stellaire triple, les chercheurs ont déjà mis en évidence un disque de gaz et de poussières en rotation, évidé en son centre par les effets de marée gravitationnels. En tournant les unes autour des autres, les trois étoiles créent en effet une zone gravitationnellement instable appelée cavité, où la matière ne peut que transiter avant de tomber sur les étoiles centrales. Plus loin, là où réside l’anneau externe de matière, le champ gravitationnel n’est plus perturbé et la matière en rotation peut s’organiser en une structure stable. L’existence d’une cavité centrale autour de GG Tau A, connue dès les années 1990 grâce aux observations de l’interféromètre de l’IRAM, confirmait en partie ces prédictions théoriques. Dans les années 2000, on a détecté la présence de gaz dans cette cavité, mais la dynamique précise de ce gaz, pierre essentielle à la compréhension des mécanismes d’accrétion donnant naissance aux planètes, restait largement méconnue.

Dans cette nouvelle étude, des observations du monoxyde de carbone (CO sous forme gazeuse) et de l’émission des grains de poussière autour de GG Tau A ont été obtenues de manière complémentaire avec les interféromètres ALMA (Chili) et IRAM (Alpes françaises). Elles ont permis de lever une partie du voile sur la répartition de la matière et sur la dynamique à l’intérieur de la cavité, avec une précision encore jamais atteinte dans ce domaine. Les images montrent en effet un filament de gaz provenant de l’anneau externe tombant vers les étoiles centrales. La quantité de gaz ainsi transportée se révèle suffisante pour alimenter le disque interne autour de GG Tau Aa. Les mouvements de gaz observés confirment ainsi les prédictions des simulations numériques antérieures. Ils démontrent que la matière provenant de l’anneau externe est capable de nourrir le disque interne autour de GG Tau Aa pendant assez longtemps pour éventuellement permettre la formation des exoplanètes.

Si ce résultat était attendu, le suivant l’était moins : les deux cartes de l’émission du CO révèlent une surbrillance remarquable sur le bord externe de l’anneau autour du système stellaire triple. Son étude détaillée montre qu’elle est deux fois plus chaude que le milieu environnant et qu’il pourrait s’agir de la signature d’une jeune exoplanète géante en cours de formation. Cette planète serait en train de creuser un fin sillon dans le disque externe, mais la détection d’une telle structure reste pour l’heure hors de portée des instruments. La mise en service prochainement des antennes NOEMAde l’IRAM sur le plateau de Bure sera, sans nul doute, un atout majeur pour en savoir plus sur GG Tau, un système de soleils jeunes qui n’a pas fini de livrer ses mystères.

Source : CNRS

Angle mort à droite avec les lunettes Google, selon une étude

Les effets sur la vision de ces lunettes sont encore largement inconnus, précisent les auteurs de cette étude parue dans le Journal of the American Medical Association (JAMA).

Certaines montures de lunettes traditionnelles peuvent aussi réduire le champ visuel, créant parfois des angles morts. Or les lunettes Google ont une branche sur le côté droit très large, expliquent ces chercheurs, dont le Dr Tsontcho Ianchulev de l’Université de Californie à San Francisco.

Ces ophtalmologues ont effectué des tests de vision périphérique avec trois personnes ayant une acuité visuelle de 20 sur 20.

Les participants ont d’abord chaussé des lunettes Google et suivi les instructions du fabricant, qui prévoit une période d’acclimatation de 60 minutes.

Les chercheurs ont mesuré leur champ de vision périphérique, avant d’effectuer le même test sur ces trois participants avec des lunettes normales, dotées de montures similaires.

Les auteurs ont aussi évalué comment les gens portaient les lunettes Google, en analysant des photos de personnes avec ces lunettes faisant face à l’objectif.

Les résultats ont montré des angles morts importants chez les trois participants qui portaient les lunettes Google, créant de facto une obstruction clinique significative de la vision dans la partie droite supérieure du champ visuel.

Selon ces chercheurs, ces angles morts résultent de la conception des montures mais pas d’une distraction créée par le système d’affichage d’informations qui se trouve sur le verre droit.

Une analyse de 132 photographies de personnes avec ces lunettes ont montré qu’un grand nombre les portaient près ou chevauchant l’axe de leurs pupilles –ligne perpendiculaire à la surface de la cornée passant au centre de la pupille–, ce qui peut induire des angles morts.

Les auteurs admettent que les résultats de cette recherche sont limités par le petit nombre de sujets et suggèrent d’effectuer des essais avec davantage de participants.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Dépenses de recherche: l’effet d’entraînement du CIR s’accentue (étude)

« L’intensité en recherche et développement de l’industrie française est supérieure à celle de l’Allemagne et figure parmi les plus élevées d’Europe », note le cabinet de conseil Acies dans son 3ème Observatoire du CIR.

L’intensité en recherche et développement globale des entreprises tous secteurs d’activité confondus « a augmenté fortement depuis 2008 pour atteindre 1,44% du produit intérieur brut 2013, son maximum historique », précise-t-il. Elle reste pour sa part inférieure à celle de l’Allemagne (1,96%).

Le CIR « a contribué à un effort annuel supplémentaire de recherche et développement des entreprises chiffré à 5,3 milliards entre 2007 et 2012, et a permis l’embauche de 28.000 chercheurs depuis 2008 » dans les entreprises, affirment les auteurs de l’étude réalisée en « regroupant plus d’une vingtaine d’indicateurs basés sur les seules données officielles ».

Cet effort annuel supplémentaire de 5,3 milliards est 1,51 fois supérieur à la dépense supplémentaire en CIR (3,53 milliards). Ce ratio était en 2011 de 1,20.

Les dépenses de recherche des entreprises sont évaluées à 24,75 milliards pour 2007 et 30,07 milliards pour l’année 2012. Ces chiffres sont de 1,80 milliard et 5,33 milliards respectivement pour les dépenses de l’Etat liées au CIR.

Le CIR « aurait toutefois besoin d’être prolongé par de nouvelles mesures favorisant l’industrialisation sur le territoire français des résultats de la recherche », estime Franck Debauge, directeur associé d’Acies Consulting Group et animateur de l’Observatoire du CIR.

« Grâce au CIR, qui permet de réduire de 25% le coût du chercheur pour l’entreprise, ce dernier est l’un des plus faibles d’Europe. Sans le CIR, il serait l’un des plus élevés. Le CIR a fait de la France l’un des pays les plus compétitifs en la matière, devant les États-Unis, l’Allemagne ou le Canada », constate l’étude, selon laquelle le nombre de chercheurs employés dans le secteur public a également progressé de 3,2%, avec 3.100 emplois supplémentaires.

En 2012, 2.981 entreprises ont externalisé des travaux de recherche et développement à des institutions publiques de recherche, presque deux fois plus qu’en 2008, explique l’étude.

Le nombre annuel de projets d’investissements étrangers dans des centres de recherche et développement en France a été multiplié par 2,5 depuis 2008, année où ce dispositif a été renforcé.

« Grâce au CIR, la France est l’un des pays européens les plus attractifs pour les activités de recherche et développement, avec le Royaume-Uni et l’Allemagne », affirme l’observatoire.

« La France a connu depuis le début des années 2000 une désindustrialisation croissante de son économie. Avec un ratio de 12,8% (de la valeur ajoutée brute totale en 2013, contre 25,5% en Allemagne, NDLR), elle est aujourd’hui l’un des pays les moins industrialisés de l’Union européenne ».

« Depuis 2010, le déclin industriel semble néanmoins enrayé. Il est même observé une amorce de réindustrialisation depuis 2012 », avec une progression du taux de 12,5% à 12,8%, indique l’étude.

Créé en 1983 et relancé en 2008, le CIR permet aux entreprises de déduire de l’impôt sur les sociétés (IS) 30% de leurs investissements recherche et développement, dans la limite de 100 millions d’euros d’investissements (5% au-delà). 20.441 entreprises ont déclaré du CIR en 2012. Cette année-là, 60,2% du crédit est allé aux industries manufacturières, 37,8% aux services, dont 1,7% du total aux banques et assurances, selon l’étude, qui se fonde sur les chiffres du ministère de l’Education et de la recherche.

Acies précise avoir « joué un rôle actif, au plus haut niveau, dans les différentes modifications du CIR depuis 2002 ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Micro-technologies et outils connectés au service de la Santé

Production et montage : Bruno Decottignies

La substitution des produits dangereux dans les résines : cas des époxy

Production et montage : Bruno Decottignies

La mesure in situ dans le sol et l’eau : les plateformes de 3 Insituts Carnot

Production et montage : Bruno Decottignies

Les cinéastes d’Interstellar réussissent la première représentation d’un trou noir

Quand Christopher Nolan sollicite Kip Throne, scientifique habitué des studios hollywoodiens, ce dernier accepte sans se douter un seul instant des avancées scientifiques à venir. Sa mission sera d’accompagner les équipes graphiques dans la représentation des décors spatiaux. Le prestigieux réalisateur travaille en effet sur son dernier film, Interstellar, qui retrace les aventures d’hommes partis à la conquête de l’espace à la recherche d’une nouvelle Terre.

Grâce à un trou de ver, une sorte de raccourci à travers l’espace temps composé d’un trou noir accolé à un trou blanc, les astronautes peuvent voyager au-delà de notre galaxie, et découvrir de nouveaux mondes.  Les effets spéciaux sont donc un élément clé du film, et Christopher Nolan souhaite les effets spéciaux les plus réalistes possibles. 

Sauf que personne n’a jamais vu de trou noir ni à quoi ressemble les mondes au-delà de notre galaxie. Un trou noir est un objet ultra compact, le reste d’étoiles massives effondrées sur elles-mêmes à la fin de leur vie,  dont l’intensité gravitationnelle emprisonne la matière mais aussi la lumière en l’empêchant de ressortir. Les trous noirs seraient donc invisibles. Seule solution, utiliser la simulation. Kip Thorne a donc fourni de nombreuses informations aux équipes techniques, dont des équations sur la théorie des trous noirs. Ces données ont alimenté les logiciels utilisés pour la réalisation des effets spéciaux, dont le résultat des calculs a abouti à une représentation d’un trou noir.

Il aura fallu une année de travail pour aboutir à ce résultat, Kip Thorne ayant écrit une partie des équations. Il ressort que le trou noir tourne sur lui-même à une vitesse proche de celle de la lumière, formant un anneau lumineux courbé autour de lui.  Contre toute attente, la déformation de l’espace provoquée par le trou noir affecte aussi le halo à la forme désormais connue.

L’astrophysicien a indiqué préparer deux articles scientifiques relatant ce travail.

  • Interstellar, 2h43, sortie le 5 novembre
Par Audrey Loubens