Le robot en métal liquide de « Terminator 2 » inspire une nouvelle imprimante 3D

Le chimiste Joseph DeSimone a présenté à la conférence TED de Vancouver (Canada, ouest) une machine capable d’imprimer en 3D des créations comme si elles émergeaient d’un métal liquide, rappelant le redouté robot T-1000 de « Terminator 2 » surgissant d’une flaque argentée.

« Nous nous sommes inspirés de la scène du T-1000 dans Terminator 2 », a expliqué M. DeSimone. « Pourquoi ne pourrions-nous pas avoir un objet qui naît d’une flaque en temps réel sans faire pratiquement aucun déchet ? »

DeSimone et son équipe ont développé une technologie qu’ils ont appelée Continuous Liquid Interface Production ou « Clip » (production par interface de liquide continu, ndlr) qui exploite les pouvoirs de la lumière et de l’oxygène, permettant à l’imprimante de donner rapidement vie à des objets à partir d’un matériau élastique avec des propriétés sophistiquées.

Imprimer des parties de l’objet à la vitesse d’un fabricant classique « change la donne », a-t-il confié à l’AFP.

Les imprimantes tri-dimensionnelles fonctionnent avec des couches successives de matériaux, qui construisent lentement les objets, pendant plusieurs heures. Ce qui suppose qu’on ne peut pas utiliser de la résine, car elle aura changé chimiquement de consistance avant la fin de l’impression.

« L’impression en 3D est en fait un terme inapproprié; c’est en fait une impression en 2D qui imprime encore et encore », a noté M. DeSimone. « Il y a des champignons qui poussent plus rapidement que les impressions en 3D », selon lui.

Or le système Clip est 25 à 100 fois plus rapide que celui des imprimantes tri-dimensionnelles actuelles. Il utilise en outre de la résine synthétique, aux propriétés mécaniques particulièrement solides, pour fabriquer les dernières parties, a souligné M. DeSimone.

Cette technologie pourrait transformer le mode de fabrication des voitures, des avions et des turbines jusqu’à celle des implants dentaires pour mieux les adapter aux patients.

Ce système Clip a été testé par un constructeur automobile; un fabriquant de vêtements de sport, un studio de design d’Hollywood et un laboratoire de recherche, selon ses inventeurs.

DeSimone et son équipe ont ouvert un magasin dans la Silicon Valley et vont augmenter leur production d’ici un an, mais ils n’ont pas encore fixé de prix pour leurs imprimantes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Total se détourne du raffinage au profit des biocarburants

L’annonce de la suppression de 180 postes à la raffinerie britannique de Lindsey avait immédiatement inquiété ses homologues français. Plus précisément, les salariés des raffineries de Donges, Feyzin et de La Mède redoutaient la fermeture des sites. C’est donc dans un climat de nervosité grandissante que s’est déroulé la réunion entre représentants des syndicats et des ressources humaines. D’après des sources syndicales, il ressort que la raffinerie de La Mède serait désormais orientée vers la production de biocarburants. Alors que le site produit 153 000 barils/jour, l’activité de raffinage serait abandonnée. Ceci nécessitera des investissements mais environ 200 emplois seraient menacés. Toutefois, Total garantirait de pouvoir conserver en son sein tous les employés concernés. Le site de Donges serait quant à lui restructuré de façon à être plus rentable que les 219 000 barils produits quotidiennement. Pour y parvenir, de nombreux aménagements devront être faits. En ligne de mire, la voie ferrée qui traverse le site et gêne tout travaux de modernisation. Les négociations avec la SNCF ont du mal à aboutir pour cause de désaccord sur la répartition des coûts. Pour l’heure, aucune évolution concernant le site de Feyzin n’a filtré.

Le raffinage européen est un secteur en crise. Avec une demande en baisse de 1 à 1,5 % chaque année, la production est en surcapacité de près de 10 %. Petroplus a déposé le bilan en 2012, une quinzaine de raffineries fermées en 5 ans, autant de preuves que le raffinage européen va mal. Total, malgré des bénéfices record, peine à rentabiliser sa branche raffinage-pétrochimie dont les pertes s’élevaient à 500 millions en 2013.

Suite aux fuites concernant la fin des activités de raffinage sur le site de La Mède, Total a indiqué dès le lendemain par la voix de son porte-parole que « la direction n’a pas confirmé l’arrêt de toutes ses activités de raffinage sur la plate-forme de La Mède, lors d’une réunion de concertation avec les organisations syndicales ce mardi 24 février ». Les intentions de Total devraient être officielles au printemps.

Par Audrey Loubens

En Allemagne, la régression du nucléaire s’accompagne de celle du charbon

Chacun se souvient des propos pour le moins maladroits de Ségolène Royal en matière énergétique lors de son face-à-face avec Nicolas Sarkozy à l’occasion des élections présidentielles de 2007, ce dernier tenant d’ailleurs des propos du même acabit. Devenue ministre de l’énergie, et répondant au groupe EELV, Ségolène Royal a récemment affirmé à l’Assemblée Nationale : « c’est vrai que certains pays ont renoncé au nucléaire, comme l’Allemagne et l’Italie. Mais force est de constater que pour l’un ils ont rouvert des mines de charbon, je ne pense pas que cela soit le modèle énergétique que vous souhaitez ». (Intervention complète ici sur le site de la Chaîne Parlementaire).

Est-il exact que la production électrique à base de charbon a augmenté consécutivement à la baisse de la production électro-nucléaire en Allemagne ?

La production électro-nucléaire allemande baisse depuis 2006, soit 5 ans avant la catastrophe nucléaire de Fukushima du 11 mars 2011. D’après les données AGEB (AG Energy Bilanzen e.V.) datées du 12 décembre 2014 et rapportées par le Consultant Bernard Chabot (diapo 25), entre 2006 et 2014, elle a reculé de 70 TWh. Sur la même période le couple charbon-lignite a reculé de 25 TWh, le gaz de 16 TWh et le fioul de 5 TWh, soit un recul global de 46 TWh pour les énergies fossiles. Il est donc erroné d’affirmer que le recul du nucléaire s’accompagne d’une hausse de l’électricité d’origine fossile.

Le véritable driver du changement est qu’entre 1990 et 2014 les EnR ont progressé de 20 TWh à 157 TWh. Soit un gain de 137 TWh en 24 ans (moyenne de +5,7 TWh par an, un niveau 7 fois plus élevé que celui observé en France), dont 86 TWh depuis 2006. Cette hausse n’est pas due à la grande hydraulique mais à l’éolien, à la bioélectricité et plus récemment au solaire photovoltaïque. « La production renouvelable est à présent supérieure à celle provenant du lignite, du charbon, du gaz et du nucléaire » souligne Bernard Chabot. « Et ce déclin du nucléaire et du gaz est compensé par les énergies renouvelables, pas par le lignite et le charbon. »

Le dogme, répété de manière pavlovienne, selon lequel « davantage de renouvelables conduit nécessairement à davantage de centrales fossiles », et son corollaire « nous avons besoin du nucléaire pour sauver le climat », sont tout simplement infondés. L’Allemagne le démontre de manière claire et nette : les énergies renouvelables sont capables de faire reculer d’emblée toutes les énergies sales, génératrices de gaz à effet de serre ou de déchets toxiques et à très longue durée de vie.

La tendance de fond à l’échelle multidécennale (1990-2014), c’est-à-dire celle qui est vraiment pertinente, est que la production du couple charbon-lignite baisse en Allemagne. Plus vite pour le charbon que pour le lignite. La hausse (une vingtaine de TWh) passagère du charbon-lignite entre 2011 et 2013, très médiatisée en France par les communicants liés au business nucléaire, s’explique principalement par le recul rapide du gaz. Puis entre 2013 et 2014 le charbon a reculé de 10 TWh et le lignite de 4 TWh. Au final, le couple charbon-lignite est revenu en 2014 au même niveau qu’en 2010. A part quelques exceptions, les médias français mainstream ont curieusement été beaucoup moins bavards pour faire connaître cette réalité aux Françaises et aux Français. Le modèle énergétique allemand n’évolue absolument pas vers davantage de charbon.

Internet a écrasé le Minitel

La très forte poussée des EnR, il est vrai fortement dérangeante pour le business de ceux qui ont investi dans les énergies sales et qui veulent préserver leur rente, s’accompagne de la régression de toutes ces dernières. Pour le député Européen Yannick Jadot (EELV) « il faut libérer la France et François Hollande de l’influence néfaste des grands groupes de l’énergie qui nous tirent en arrière ».

Pour reprendre la belle formule de Denis Baupin, Député de la 10e circonscription de Paris et Vice-Président de l’Assemblée Nationale, il y a ceux qui sont encore à l’ère du Minitel, et tous les autres qui sont passés à Internet. Le Minitel nucléaire coûte très cher. Areva peut en témoigner.

En Allemagne, les EnR ont répondu à 27% de la demande nationale en 2014. 40% de l’électricité pourrait être d’origine renouvelable dès 2020. L’objectif est d’atteindre le niveau de 80% en 2050. Au Danemark l’objectif est 100% à cet horizon. En France, l’objectif de réduction de la part du nucléaire de 75% à 50% en 2025 est compromis : le Sénat a retiré la date 2025 et Ségolène Royal a déclaré que « cela ne change pas grand-chose ». Sauf que quiconque n’a pas d’objectif clair et précis ne risque pas de l’atteindre. Le renoncement, c’est maintenant ? Rappelons qu’avant les présidentielles de 2007 Ségolène Royal était favorable à une sortie totale du nucléaire à horizon 2040.

Pour Corinne Lepage, ex-Ministre de l’Environnement du gouvernement Juppé, « la disparition d’un objectif à 2025 pour la part du nucléaire dans le bouquet énergétique n’est pas anecdotique ; cet amendement sénatorial vient en réalité sonner le glas d’un engagement présidentiel sur un sujet majeur de la politique énergétique de la France et même de la politique économique de la France. »

Olivier Daniélo

Electricité Renouvelable : selon Chantal Jouanno, la France est incapable de faire aussi bien que le Japon et l’Allemagne

La demande brute d’électricité est en France d’environ 500 TWh selon RTE (depuis 10 ans, elle fluctue entre 479 et 513 TWh). Des mesures dans le domaine de l’efficacité énergétique et la sobriété énergétique permettront de ne pas dépasser ce niveau à horizon 2025.

François Hollande a été élu sur la base d’une promesse de baisse de la part du nucléaire dans le mix électrique de 75% à 50% d’ici 2025. Baisser de 25 points la part du nucléaire signifie concrètement ajouter 125 TWh de production à base d’énergies renouvelables, soit 12,5 TWh par an pendant 10 ans (2015-2025). Soit par exemple 5 TWh/an de solaire PV, 5 TWh/an d’éolien terrestre et 2,5 TWh de bioélectricité et d’énergies marines.

Chantal Jouanno, ex-ministre du gouvernement Fillon III, affirme dans un billet de son blog que ce n’est pas possible. « Le point d’achoppement est une date : « 2025 », date à laquelle la France devrait réduire la part du nucléaire à 50% de son mix électrique. Soit en 10 ans, la fermeture de 20 réacteurs nucléaires. Les experts savent que cette exigence des Verts conduirait inéluctablement à une hausse des émissions de gaz à effet de serre puisqu’il est techniquement impossible de développer suffisamment les énergies renouvelables dans un temps aussi court » affirme-t-elle dans un billet intitulé « Le Prétexte De L’écologie À La Petite Politique ». Chantal Jouanno a-t-elle raison ? De quels « experts » s’agit-il ? Des communicants d’EDF ? Ou de scientifiques/ingénieurs qui n’ont aucun lien avec le business nucléaire ?

Quelle puissance solaire doit-on installer pour produire 5 TWh par an ? En prenant le facteur de capacité moyen du solaire PV en France constaté par RTE en 2014, soit 14%, il nous faut installer 4 GW de solaire PV par an. Le Japon a installé 4,5 GW de solaire PV en 8 mois (et la Chine 10,6 GW durant les 12 mois de 2014). La France est-elle incapable de faire aussi bien que le Japon ? Poser des panneaux photovoltaïques, est-ce trop complexe d’un point de vue technique pour les Français ? Faut-il attendre une catastrophe nucléaire en France pour qu’on découvre subitement que l’on en est capable ? Avant Fukushima, les Japonais, eux-aussi, croyaient que c’était impossible. 4 GW par an c’est 40 GW en 10 ans. L’Allemagne a dès à présent 36 GW de solaire PV en place.

Quelle puissance éolienne terrestre doit-on installer pour produire 5 TWh par an ? En prenant le facteur de capacité moyen de l’éolien terrestre en France constaté par RTE en 2014, soit 23%, il nous faut installer 2,5 GW d’éolien par an (contre seulement 1 GW en 2014 en France du fait d’une réglementation inappropriée). L’Allemagne a installé 5,2 GW d’éolien en 12 mois en 2014. La France est-elle incapable de faire deux fois moins bien que l’Allemagne ?

La question devient : est-il possible d’intégrer 20 points d’EnR fluctuantes dans le mix électrique Français, en plus des 4 points actuels ? La réponse est bien évidemment oui, comme souligné par exemple dans cette étude de l’Agence Internationale de l’Energie. De nombreux outils de flexibilité sont disponibles. Le Portugal parvient à intégrer 70% d’électricité d’origine renouvelable. Pourquoi la France, territoire aux ressources renouvelables colossales, en serait-elle incapable ?

Et si, en France, les responsables politiques vérifiaient leurs sources en matière d’énergie au lieu de boire comme du petit lait ce que leur racontent les lobbyistes du nucléaire ?

Olivier Daniélo

Les labos du Cern peaufinent les mesures du boson de Higgs

Selon l’organisation européenne pour la recherche nucléaire (CERN) deux laboratoires du grand collisionneur de hadrons (LHC), habituellement en compétition amicale, ont joint leurs forces pour la première fois dans le but de faire cette estimation commune.

En utilisant des technologies différentes, les labos Atlas et CMS ont trouvé que l’insaisissable particule avait une masse de 125,09 gigaélectronvolt (GeV), avec une marge d’erreur de 0,24 GeV de part et d’autre.

Ce chiffre « correspond à une précision de mesure supérieure à 0,2% », a indiqué le CERN dans un communiqué.

L’estimation de sa masse a été révélée lors d’une conférence à La Thuile, dans le nord-ouest de l’Italie, selon le CERN. « C’est la mesure la plus précise de la masse du Boson de Higgs à ce jour et et l’une des mesures les plus précises jamais obtenues au LHC », a-t-il ajouté.

Le boson de Higgs est considéré par les physiciens comme la clef de voûte de la structure fondamentale de la matière, la particule élémentaire qui donne leur masse à nombre d’autres, selon la théorie dite du « Modèle standard ».

Son existence avait été pressentie pour la première fois en 1964 par Peter Higgs, François Englert et Robert Brout, aujourd’hui décédé, mais il aura fallu 48 ans pour confirmer son existence.

Cela a valu à Higgs et Englert de recevoir le prix Nobel de physique 2013.

« Le boson de Higgs a été découvert au LHC en 2012 et l’étude de ses propriétés a commencé immédiatement », a déclaré Tiziano Camporesi, le porte-parole du laboratoire CMS (Compact Muon Solenoid) ajoutant qu’en conjuguant leurs efforts, Atlas et CMS allaient pouvoir « mieux comprendre cette particule fascinante et étudier son comportement ».

« Une fois déterminée la masse du boson de Higgs, il est possible, dans le cadre du Modèle standard, d’effectuer des prédictions pour toutes les autres propriétés du boson de Higgs, lesquelles pourront ensuite être vérifiées par les expériences », souligne le CERN.

Le LHC va être remis en marche, fin mai ou début juin, après une mise à niveau de deux ans.

Le complexe comprend un tunnel en forme d’anneau de 27 kilomètres, dans lequel s’entrechoquent des milliards de protons qui éclatent en toutes sortes de particules.

Les laboratoires Atlas et CMS représentent à eux deux plus de 5.000 scientifiques venant de plus de 50 pays.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Une tempête solaire pourrait perturber les réseaux électriques et les télécoms

Cette tempête solaire « pourrait provoquer des problèmes étendus de contrôle de voltage et affecter des systèmes de protection sur le réseau électrique », a mis en garde la NOAA dans un bulletin d’alerte.

Les systèmes de transmission radio à haute fréquence pourraient aussi être perturbés et le fonctionnement des satellites de navigation risque également de connaître des pannes « pendant plusieurs heures », ajoute l’agence.

Cette tempête « sévère » a été observée à 13H58 GMT et a atteint une force 4 pendant au moins une heure sur une échelle maximum de 5, a indiqué Thomas Berger, directeur du centre de prédiction de météorologie spatiale (Space Weather Prediction Center, SWPC) lors d’une conférence de presse.

Ce phénomène pourrait durer de 24 à 36 heures, a-t-il dit, ajoutant qu’à ce stade aucun problème n’avait été signalé sur le réseau électrique et dans le fonctionnement des satellites de télécommunication.

Des aurores boréales ont été observées avant le lever du soleil dans le nord des Etats-Unis, a ajouté Thomas Berger et seront visibles ce soir en Europe.

Cette tempête solaire n’a pas provoqué de niveaux de radiations dangereux pour les astronautes à bord de la Station spatiale internationale (ISS), a par ailleurs indiqué la Nasa.

« L’intensité de cette tempête devrait continuer à diminuer dans les prochaines heures mais nous ne pouvons pas dire exactement comment cela va se produire », a expliqué Bob Ruthlege, le responsable des prévisions au SWPC lors de la même conférence de presse téléphonique.

Lors du précédent cycle solaire qui s’est achevé en 2008, on a observé 45 tempêtes solaires de cette puissance, a-t-il dit. Il s’agit pour le cycle actuel, particulièrement inactif, de la deuxième de cette ampleur.

*C’est un peu inhabituel pour ce cycle marqué par une faible activité solaire », a jugé le scientifique.

Le Soleil connaît actuellement sa période la moins active depuis plus d’un siècle. Le nombre de taches décomptées depuis le début du cycle actuel amorcé en décembre 2008, est très faible par rapport à la moyenne quotidienne observée ces 250 dernières années, en fait moins de la moitié.

Les cycles solaires ont une durée moyenne de 22 ans, onze ans qui amènent au maximum et onze autres années ramenant au minimum après quoi un nouveau cycle commence.

Les éruptions solaires ou éjections de masse coronale projettent du plasma solaire à très grande vitesse dans l’espace qui vient frapper la haute atmosphère de la Terre et interagit avec son champ magnétique.

La Nasa a lancé le 13 mars quatre vaisseaux spatiaux identiques (MMS) destinés à étudier ces interactions, mal comprises, entre les vents solaires et le champ magnétique terrestre.

Le champ magnétique de la Terre protège normalement de ces particules mais quand il y a des éruptions solaires de forte puissance comme celle de mardi, il se produit un phénomène dit de reconnexion magnétique dans la magnétosphère terrestre. Ce phénomène est responsable des aurores boréales mais aussi des orages magnétiques pouvant perturber le fonctionnement des satellites de communications et le réseau électrique.

« La reconnexion magnétique est l’un des facteurs les plus importants dans les phénomènes météorologiques spatiaux », avait souligné Jeff Newmark, directeur par intérim de la division d’héliophysique de la Nasa avant le lancement de cette mission.

js/gde

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La pollution de l’air, une « aberration économique » (sénatrice)

Cette commission doit commencer ses travaux jeudi, par l’audition des organismes Atmo de mesure de la qualité de l’air, a indiqué lundi à l’AFP la sénatrice (Ecologiste) de Paris, Leila Aïchi.

Il s’agit de « faire la démonstration que non seulement la pollution de l’air est un enjeu sanitaire – 42.000 à 50.000 morts prématurées chaque année en France – mais aussi une aberration économique et financière », souligne la rapporteure. Mme Aïchi estime que la facture devrait se chiffrer en dizaines de milliards d’euros annuels, évoquant une rare étude ayant dans le passé estimé le seul impact sanitaire entre 14 milliards et 17 milliards.

« L’idée est d’être le plus exhaustif possible: d’aborder la question de la pollution de l’air intérieure et extérieure, d’avoir le spectre d’auditions le plus large », a-t-elle expliqué. « Ce que nous voulons est un constat le plus objectif possible sur le sujet, et aussi réfléchir aux solutions: il ne faut pas simplement dénoncer, mais montrer qu’il y a des opportunités », a-t-elle encore dit, citant en exemple le retard pris sur l’essor des véhicules électriques.

L’objectif est ainsi de démonter les arguments de ceux qui s’opposent aux mesures de lutte contre la pollution « sous prétexte de préserver des emplois ou au motif que les combats pour la protection de la santé et de l’environnement seraient néfastes à notre économie », a précisé mardi la sénatrice, au cours d’une présentation de la commission à la presse.

ONG, scientifiques, experts économiques, élus, organismes de Sécurité sociale, mais aussi de grands groupes industriels (chimie, auto, aviation, industrie pétrolière etc) seront entendus tous les jeudi jusque fin juin par la commission d’enquête, qui remettra son rapport vers la mi-juillet.

Pour sa première séance d’auditions jeudi, elle entendra, outre les Atmo, les dirigeants de l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses), puis des responsables de la division environnement de l’Organisation de coopération et de développement économiques (OCDE) et deux dirigeants de l’Institut national de l’environnement industriel et des risques (Ineris), a détaillé la sénatrice.

Jean-François Husson (UMP), qui préside la commission, a confié mardi avoir a bon espoir que la commission parvienne à « un constat de fond partagé », au-delà des divergences politiques.

Cette commission, qui effectuera « trois ou quatre déplacements » en région, sur des sites non encore déterminés, compte au total 17 membres, dont six vice-présidents, représentant l’ensemble des groupes politiques.

Afin de susciter un débat le plus large possible, le public pourra poser des questions dans le cadre des auditions, via une plateforme sur le site du Sénat et via les réseaux sociaux (une page Facebook « Pollution en questions » et un compte Twitter « @compollution » ont été créés).

« L’idée est que, dans la dynamique de la démocratie participative, nos concitoyens s’emparent des sujets qui les concernent. On veut une communication dynamique et interactive, et aussi à l’endroit des jeunes », a souligné Mme Aïchi.

cho-abb/dab/pad

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Antivirus gratuits : créez un “kit de sécurité” informatique

Voici quelques outils de sécurité gratuits (mais très efficaces) à utiliser pour constituer ce kit. Combinés, ils forment une suite de sécurité / antivirus et antimalwares robuste et flexible, bref presque imparable.

Traquez les malware et les virus

Le PC Cleaner (“nettoyeur de PC”) d’Avira est un logiciel qui peut être utilisé en parallèle avec d’autres anti-malwares (logiciels malveillants), comme Spybot ou AdwCleaner. Gratuit, PC Cleaner n’a pas besoin d’être installé : il suffit de le télécharger pour l’utiliser d’un simple clic. Il est donc utilisable via une clé USB, qui vous permettra de le lancer depuis n’importe quel ordinateur. Ce freeware, très simple à utiliser, balaie votre ordinateur à la recherche de logiciels malveillants. S’il en détecte, vous pouvez les supprimer, là aussi d’un simple clic.

Sur votre clé USB, vous pourrez aussi glisser l’anti-virus portable McAfee Stinger. Simple d’utilisation, gratuit, il est lui aussi utilisable en parallèle d’autres logiciels de sécurité portables, comme Comodo Cleaning Essentials et Kaspersky Virus Removal Tools. Vous pourrez utiliser ces trois outils pour détecter et éliminer des virus, des chevaux de troie, des spywares et des malwares. Points forts : ces logiciels sont régulièrement mis à jour par leurs éditeurs respectifs (dont la réputation de sérieux n’est plus à démontrer), tout en ne nécessitant aucune installation – l’analyse se fait à la demande, à partir d’un fichier exécutable.

Voici un quatrième antivirus gratuit de qualité : ClamWin Portable. Contrairement aux autres, il faut l’installer. Mais comme il prend peu de place, vous pourrez l’installer sur votre clé USB, afin de pouvoir le lancer ensuite depuis ce support externe. Open source, ClamWin Portable est un antivirus et un anti-spyware simple à utiliser, et très efficace : la base de données de ClamWin est réputée pour être très complète, car mise à jour régulièrement.

En dernier recours, comme l’indique son éditeur sur Softonic, vous pourrez lancer, depuis votre clé USB, un nouveau scan de votre PC à partir de Norton Power Eraser. Il y traquera malwares et antivirus récalcitrants. Vous pourrez utiliser le scan “standard”, ou le scan “agressif” (paramétrable en profondeur), si vous disposez de connaissances plus approfondies en informatique – dans le cas contraire, vous risquez de supprimer des fichiers inoffensifs, mais détectés comme dangereux.

Un kit qui tient dans votre poche

Maintenant, vous disposez d’un “kit” de sécurité portable, complet et efficace, à glisser dans votre poche. Il vous sera très utile si vous souhaitez tester une machine sans connexion internet, appartenant à un ami, à un cybercafé ou à un membre de votre famille. Il vous permettra aussi de dépanner un ordinateur où des virus vous empêcheraient d’accéder aux sites antivirus, ou d’installer des logiciels.

Pourquoi utiliser plusieurs logiciels portables en parallèle, et pas un seul ? Vous le constaterez sûrement si vous les testez sur un même ordinateur infecté : les résultats sont souvent différents d’un logiciel gratuit à l’autre. Pour éviter de mauvaises surprises (un virus ou un malware non détecté par votre unique programme), mieux vaut donc lancer plusieurs antivirus, et ainsi utiliser pleinement ce petit “kit” de sécurité.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Nos interactions sur Internet sont analysées par l’Europe

Prédire l’action d’un internaute, à partir de liens Internet : c’est le rêve des chercheurs européens du projet NADINE (New tools and Algorithms for DIrected NEtwork analysis). Financé par l’union européenne dans le cadre du FP7, un programme de recherche international, il tente “d’analyser les liens entre les pages web, pour analyser les caractéristiques de nos interactions”.

Les scientifiques du CNRS (Centre national de la recherche scientifique), du MTA Sztaki (l’institut hongrois de recherche informatique et robotique, à Budapest) et des universités de Milan (Italie) et de Enschede (Pays-Bas) développent des algorithmes et des méthodes d’analyse de l’activité en ligne. Leur but est de “contribuer au développement d’une nouvelle génération de moteurs de recherche”, et de dévoiler, à terme, “la façon dont les personnes, les pays et même les échanges commerciaux sont liés”.

“Nous tentons d’établir une carte d’Internet afin de découvrir comment les pages sont reliées et comment les internautes utilisent ces liens lorsqu’ils parcourent la toile”, explique Dima Shepelyansky, directeur de recherche au laboratoire de physique théorique du CNRS.

L’algorithme de Google comme outil de base

Les scientifiques ont utilisé l’algorithme de Google, le PageRank,qui mesure l’importance d’une page en fonction du nombre de liens pointant vers elle. Avec d’autres algorithmes, il permet de de “voir comment les pages sont reliées entre elles”. Ces observations peuvent, par exemple, “amener à établir la probabilité que les internautes visitent certains sites, fassent certains choix, achètent des produits ou votent d’une certaine façon”.

Au départ, les physiciens, informaticiens et mathématiciens ont essayé de classer des personnalités selon leur influence, à partir de leurs biographies Wikipédia. Ils ont pris en compte les 24 langues principales et le nombre de pages pointant vers la biographie de chaque personnalité, grâce à PageRank.

Mais les résultats se sont avérés limités. “La personnalité déterminée comme étant la plus influente était le scientifique Carl Linnaeus. En effet, puisqu’il a proposé une classification des êtres vivants, toutes les pages Wikipédia sur les animaux et les plantes contiennent un lien vers sa biographie, ce qui a faussé les résultats”, expliquent les chercheurs.

Ces derniers ont alors décidé d’utiliser, en complément, un autre algorithme : CheiRank. Il s’agit d’un autre modèle d’analyse de la popularité d’une page, basé sur les liens entrants, mais aussi sur les liens sortants d’une page. Au lieu de n’évaluer que la popularité d’un article, CheiRank prend en compte le caractère communicatif des nœuds.

“En combinant les données obtenues avec ces deux outils, nous avons pu définir une méthode fiable de mesure de l’importance d’une page web”, indiquent les chercheurs. Les outils développés par NADINE permettraient également de détecter les “communautés auto-organisées, créées en ligne”.

“Une nouvelle façon d’analyser les échanges commerciaux”

Etant donné que, pour les scientifiques de NADINE, “l’information sur Internet circule de manière similaire aux échanges commerciaux”, l’équipe de chercheurs a appliqué ses résultats à l’analyse des flux commerciaux. Ils se sont ainsi basé sur “l’observation que les liens qui pointent vers une page web et les liens qui en sortent peuvent montrer comment se font les échanges d’information”.

A partir de la base de données commerciale de l’ONU, qui contient des données sur les 50 dernières années, NADINE  a développé “une nouvelle façon d’analyser les échanges commerciaux de 61 produits entre les pays des Nations Unies”, et a déterminé écomment les variations de prix influencent la balance commerciale”.

Sans vraiment l’avouer, les chercheurs tentent ainsi de prédire les échanges commerciaux. “Maintenant que la méthodologie est clairement définie, nous comptons continuer nos travaux en collaboration avec plusieurs partenaires, dont l’Organisation mondiale du commerce”, indiquent-ils.

Le projet NADINE prendra fin en avril 2015. Il est financé par l’UE à hauteur de 1,223 million d’euros.

Par Fabien Soyez

Le nouveau vice-président français de Toyota a dû défendre ses vacances face aux Japonais

« Ma femme est prof, à partir de ce moment-là même si mes enfants sont grands aujourd’hui, je prends des périodes de vacances pendant les vacances scolaires. Donc on a eu quelques discussions un peu sévères au début quand j’ai commencé », a expliqué M. Leroy à l’antenne de RTL.

M. Leroy, un ingénieur de 57 ans, est entré chez Toyota en 1998 après avoir entamé sa carrière dans l’industrie automobile chez Renault. Sa nomination au poste de l’un des six vice-présidents exécutifs de Toyota, premier constructeur mondial, a été annoncée le 4 mars. Il est le premier étranger à prendre ce titre au sein du géant japonais.

Pour M. Leroy, basé à Bruxelles, ses exigences en termes de temps libre, à rebours des pratiques japonaises, notamment des dirigeants d’entreprise, font « partie de ce qu’ils (les dirigeants de Toyota) aiment aussi dans ma personnalité ».

« Je ne me suis pas écrasé simplement sous le prétexte qu’ils voulaient que je respecte un certain nombre de règles. On est parti du principe que je prends les mêmes vacances que n’importe quelle autre personne qui aujourd’hui travaille en France ou en Europe », a encore dit M. Leroy.

Sa promotion lui a « fait particulièrement plaisir » mais il a assuré qu’il n’était pas impressionné, « parce que c’est quelque chose qui se construit étape par étape, et c’est quelque chose aujourd’hui sur lequel Toyota m’a bien préparé depuis maintenant de nombreuses années ».

Grimper à ce niveau au sein de Toyota a aussi fait mentir ceux qui, a-t-il relevé, le mettaient en garde contre l’idée d’entrer dans une société japonaise en le prévenant que « tu n’auras jamais de responsabilités ».

« Il faut gagner ses galons, vous respectez vos engagements et vous obtenez des résultats », a-t-il résumé.

tq/fz/ep

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

ELF d’Organic Transit : quand le soleil a rendez-vous avec vos muscles

Le psychothérapeute et aventurier Bertrand Piccard ne cesse de le répéter : « Solar Impulse n’est pas un avion. C’est un message : toutes les technologies que nous avons à bord peuvent être utilisées dans la vie de tous les jours ». Et c’est exactement ce que fait Organic Transit, qui vient de remporter le 12 mars 2015 le « People & Planet Award » de l’ONG Green America.

Le modèle ELF standard est équipé d’une batterie lithium phosphate de 540 Watt-heures (11.25 Ah x 48V) fabriquée par le Coréen Samsung et dont la durée de vie est d’environ 7 ans, avec un système de gestion (BMS) de technologie allemande. Ainsi que d’un panneau solaire flexible Sunpower de 100 Watts faisant intégralement partie de la structure du toit et permettant de collecter l’équivalent d’environ 20 kilomètres par jour avec l’insolation moyenne annuelle française. Davantage plus au sud. La batterie stocke assez d’énergie pour effectuer 29,5 km sur plat, moins sur terrain accidenté. L’assistance musculaire (pédalage assis sur un fauteuil confortable) permet de presque doubler cette autonomie.

Compte-tenu de l’intérêt de cette technologie dans la perspective du développement durable, Techniques de l’ingénieur a voulu en savoir plus et a posé quelques questions à Rob Cotter, le fondateur d’Organic Transit, qui a d’abord travaillé dans le domaine des voitures de course chez Porsche et BMW. Fasciné dès 1977 par le Gossamer Condor, un avion ultraléger à propulsion musculaire, Rob Cotter a développé une véritable passion pour les véhicules à très haute efficacité énergétique. Vice-président de la Human Powered Vehicle Association dans les années 80, il a dirigé la première course de voitures solaires aux USA.

 

Techniques de l’Ingénieur : Pourquoi le nom “ELF” ? Y-a-t-il une signification ?

  • Rob Cotter (fondateur d’Organic Transit) : Ce nom m’est venu à l’esprit il y a 30 ans. Ce sont les initiales de Electrique, Léger et Fun (Electric, Light and Fun ndlr). J’aime beaucoup la façon dont ces trois lettres se combinent. J’ai aussi le sentiment qu’ELF représente un petit collaborateur efficace qui travaille dur (les Elfes sont des petites fées de la mythologie nordique ndlr).

TI : Le nom de l’entreprise, « Organic Transit », semble lié à la nourriture bio (« organic food »), n’est-ce pas ?

  • RC : Oui, la partie bio (organique) de notre véhicule c’est l’être humain qui aide à la propulsion du véhicule. Ajoutons que de nombreux matériaux qui constituent l’ELF sont d’origine biologique. Nous avons construit certains modèles avec du tissu à base de chanvre et utilisons des matériaux recyclables. Nous avons aussi effectué des essais avec du bambou et d’autres matières d’origine végétale dont le chardon. Nous allons par ailleurs commencer l’expérimentation de fibres de carbone recyclées et de fibres de bois. Utiliser du bioplastique est également possible. Nous ne faisons pas de peintures, évitant ainsi un processus toxique. La couleur de la carrosserie est directement imprégnée. Nous utilisons aussi de l’acier inoxydable, ce qui évite de peindre. Le cadre du véhicule est constitué d’aluminium à 40% recyclé. Il s’agit d’aluminium brut.

TI : ELF est un véhicule à très haute efficacité énergétique: pouvez-vous nous en donner les raisons principales ?

  • RC : L’automobile trouve ses racines dans les systèmes de traction par les chevaux. ELF est au contraire conçu à partir de technologies dérivant des bicyclettes, des avions et des bateaux légers (dont les kayaks). C’est donc une autre façon de concevoir les transports terrestres. L’efficacité découle fondamentalement du fait que le véhicule est ultra-léger et qu’il y a très peu de résistances de roulements. ELF pèse seulement 70 kilos, dont 20 kilos pour la carrosserie qui protège de la pluie et du soleil (Contre par exemple 445 à 473 kg pour la Renault Twizy et plus de deux tonnes pour la Tesla Model S ndlr). Il en résulte une cascade d’effets positifs. Grâce à la légèreté, moins de batteries sont nécessaires. Et comme moins de batteries sont nécessaires, alors les panneaux solaires peuvent jouer un rôle majeur.

TI : Quelle est la consommation kilométrique moyenne d’un ELF ? Par exemple la Renault Twizy consomme 50 Wh/km. La consommation d’une Nissan Leaf s’élève à 137 Wh/km. Et à 440 Wh/km pour un véhicule thermique qui consomme 4 litres de carburant d’origine fossile aux 100 km. 

  • RC : Nous sommes parvenus à 18,3 Wh/km. Et cette consommation moyenne peut être presque divisée par deux lorsque le conducteur pédale.

TI : ELF est vendu a un prix attractif (à partir de 5500 $). Comment êtes-vous parvenus à un prix aussi bas ?

  • RC : A nouveau c’est lié à notre focus sur la technologie des vélos et non sur celle des automobiles. ELF a une masse 20 fois plus faible que celle d’une voiture. Le coût de la chaîne globale va refléter le fait que le temps de montage, les frais d’expédition, les frais généraux et le coût de la formation du personnel sont considérablement réduits.

TI : Pouvez-vous nous dire combien d’ELF ont été vendus depuis sa commercialisation en 2013 ?

  • RC : En deux ans nous avons délivré 450 unités dans 8 pays.

TI : Combien d’ELF pouvez-vous produire chaque mois ?

  • RC : Nous pouvons produire 10 ELF par semaine. Mais nous sommes actuellement en train de réaliser des prototypes pour de nouveaux modèles, ceci dans la même usine. Donc notre cadence de production n’est pas à son maximum. Nous devrions pouvoir atteindre 1200 à 1500 unités par an dans le cadre d’une production décentralisée et optimisée. Cela sera complémenté par la production à l’étranger: nous cherchons à nous installer en Nouvelle-Zélande, en Belgique et peut-être en Hollande cette année. Ceci tout autant pour la production que pour la distribution.

TI : Quand les exportations vers les Pays-Bas et l’Allemagne ont-elles commencé ?

  • RC : Nous avons livré quelques unités pour chacun de ces pays mais nous cherchons à passer à une autre échelle, ce qui va nécessiter des usines d’assemblage en Europe.

TI : Est-il possible d’acheter un ELF en France ?

  • RC : Oui !

TI : Organic Transit s’intéresse-t-il également aux pays en voie de développement ?

  • RC : Dans ces pays des études culturelles doivent être réalisées pour s’assurer d’un succès à long-terme. Comme pour les autres pays, une seule taille et une seule configuration ne convient pas à tous. Dans certaines régions de l’acier sera utilisé à la place de l’aluminium pour la fabrication du cadre. Ou de l’osier à la place du plastique. Nous focalisons sur les régions où les routes sont en mauvais état. Nous sommes en contact avec une ONG dont le projet est d’apporter de l’électricité solaire pour alimenter des ordinateurs. Donc nous allons équiper l’ELF (et un autre modèle baptisé OX) avec davantage de capteurs solaires photovoltaïques. D’autres seront conçus pour le transport d’eau douce ou pour des services d’ambulances. Les besoins dans ce domaine vont croissant. La seule chose que ces gens ont en commun c’est d’avoir peu de ressources financières et l’incapacité de payer des carburants fossiles. Et c’est là qu’intervient Organic Transit.

Rob Cotter à côté d’un ELF (Organic Transit)

 

Grâce à sa carrosserie (en forme d’œuf aérodynamique), ELF est bien visible sur la route, ce qui améliore la sécurité routière. Disposer de trois points d’appui (trois roues) au lieu de seulement deux pour le vélo est également un sérieux atout en matière de stabilité, notamment pour les personnes âgées.

La bimodalité électro-solaire / bio-musculaire permet de doser ses efforts et de monter les pentes sans se fatiguer. Et d’éviter d’arriver la chemise trempée de sueur au travail. Les collègues apprécieront. ELF possède deux sièges ainsi qu’un coffre d’environ 80 litres. Il peut embarquer une masse totale, passagers compris, de 180 kilos. Une remorque peut être fixée à l’arrière du véhicule afin de transporter des objets volumineux. Le moteur électrique délivre une puissance entre 750 et 1000 Watts selon le modèle, ce qui est suffisant pour les 550 Watts nécessaires pour rouler à 30 km/h en mode 100% électrique. Avec ses 70 kg ELF, qui peut embarquer deux adultes, pèse seulement 20 kg de plus que deux vélos (2 x 1 place) à assistance électrique (VAE). Surprenant pour un véhicule qui possède tous les avantages d’une petite voiture.

Différentes options sont disponibles, comme par exemple doubler ou tripler la capacité des batteries pour gagner en autonomie, augmenter la surface des panneaux solaires, ou encore, pour les frileux, installer des portes.

Organic Transit ne manque pas de créativité : la start-up étudie la possibilité d’intégrer différentes technologies de conduite autonome dans la perspective de développer des services d’autopartage et de livraison de marchandises. « Votre équipe a effectué un travail formidable » a déclaré Amory Lovins, fondateur du Rocky Mountain Institute, un organisme de référence à l’échelle mondiale dans le domaine des écotechnologies à haute efficacité énergétique et matérielle.

A Paris le taux d’occupation des voitures est d’1,4. La distance moyenne des trajets parcourus dans le cadre d’Autolib est de 9 kilomètres. Et la vitesse est limitée entre 30 et 50 kilomètres. Autrement dit ELF est parfaitement adapté pour la mobilité parisienne. ELF est d’un point de vue réglementaire classé dans la catégorie « vélo ». Le conduire ne nécessite ni assurance, ni permis de conduire. Terminées les factures d’essence et le sentiment de culpabilité en polluant l’air que les jeunes enfants respirent. Et finies les importations de pétrole en provenance de pays ne respectant pas les droits des Femmes.

Chacun peut aujourd’hui se déplacer dans la vie de tous les jours grâce à l’énergie solaire. Concrétisant ainsi la vision de Bertrand Piccard.

Olivier Daniélo

 

En savoir plus sur la magie d’ELF :

Les dernières mesures de Planck contredisent le modèle standard

Ces mesures étaient très attendues. L’observatoire spatial Planck de l’Agence spatiale européenne (ESA)  vient de rendre publiques les dernières données recueillies par la mission. Ces 1653 détections vont pouvoir être analysées, corrélées et utilisées pour tester différents modèles cosmologiques.

Ainsi, la dernière analyse publiée par Planck se veut deux fois plus précise et plus perfectionnée que la précédente. En effet,  les scientifiques ont intégré 439 amas de galaxies (contre 189 auparavant) et optimisé le traitement des données en tenant compte à la fois de la vitesse d’éloignement (redshift) et du signal sur bruit. Ce nouveau degré de précision permet de valider ou d’invalider certaines hypothèses. Planck permet d’en savoir un peu plus sur la matière noire.

Tout d’abord, ces résultats excluent l’existence du modèle de matière noire caractérisé par l’annihilation matière noire/antimatière noire. Ensuite, ils confirment la conclusion des précédentes analyses qui estime que la matière noire occupe près de 26% de l’univers. Du coté des neutrinos, ces observations sont compatibles avec le modèle standard, excluant l’existence d’une 4ème et par conséquent d’une 5ème famille de neutrinos, hypothèse émise suite aux mesures précédentes. 

Les données ont aussi permis de déterminer la limite supérieure à la somme des masses des neutrinos. Celle-ci est désormais établie à 0.23eV. Mais cette valeur pose problème car elle est en désaccord avec l’analyse des forêts de Lyman-Alpha (étude des raies d’absorption des nuages primordiaux d’hydrogène) et les observations des oscillations acoustiques des baryons qui imposent que la somme des masses des neutrinos soit inférieure à 0.15eV. Sur ce point, les données issues de Planck soulèvent un point d’interrogation. Les scientifiques du monde entier sont actuellement en train d’intégrer l’ensemble des nouvelles informations, de quoi en savoir encore plus d’ici quelques mois.

Par Audrey Loubens

Le premier drone piloté par télépathie

Les autorités n’ont pas fini de s’arracher le képi avec les drones !

Déjà miniaturisés et faciles d’utilisation pour le grand public, les drones sont en passe de franchir une nouvelle étape de développement. En effet, il est désormais possible de piloter ce type d’engin par télépathie. Le premier à avoir réalisé cette prouesse est le fabricant de drone Tekever, aux mannettes du projet Brain Flight. Equipé d’un casque bardé d’électrodes, un pilote réussit à contrôler un drone, à le faire virer de bord à droite ou à gauche suivant la direction voulue. Il lui aura fallu quand même plusieurs mois d’entraînement pour maîtriser le pilotage par télépathie. 

Concrètement, le cerveau n’ordonne pas au drone d’aller dans telle ou telle direction, mais il est capable de déplacer un cercle à l’écran vers le haut et le bas. L’impulsion électrique associée et traduite en commande de vol. En 2014 déjà, toujours grâce au projet européen Brain Flight, une équipe allemande avait testé sur des simulateurs de vol un système capable de piloter un avion par la force de la pensée. Les scientifiques de l’équipe Physiological Parameters for adaptation (PhyPa) de l’Université technologique de Berlin avaient mis au point un algorithme capable d’interpréter les signaux du cerveau pour les convertir en commande de pilotage. Des précurseurs puisque parmi les 7 cobayes, tous ont réussi à réaliser des manœuvres, l’un ayant même réussit à poser l’avion.

Toutefois, ces travaux portaient exclusivement sur un simulateur de vol. La société Tekeven a réussit à passer du simulateur à l’appareil. Même s’il ne s’agit pour l’instant que d’un drone, le portugais anticipe déjà d’appliquer son système à des vols commerciaux.

  • Voir la démonstration du contrôle d’un drone par la pensée :

Par Audrey Loubens

Trois astronautes de la Station spatiale internationale de retour sur Terre

Barry Wilmore, Elena Serova et Alexandre Samokoutiaev se sont posés dans les steppes du Kazakhstan, à l’aube jeudi matin, a constaté un photographe de l’AFP.

« Le retour sur Terre de l’équipage de l’expédition 41/42 s’est déroulé avec succès » à 02H14 GMT, s’est félicité l’Agence spatiale russe (Roskosmos) dans un communiqué.

Les deux Russes et l’Américain s’étaient envolés vers l’ISS à bord d’un Soyouz le 26 septembre, passant au total 167 jours dans la Station spatiale et parcourant plus de 112 millions de kilomètres durant ce périple, a indiqué pour sa part la Nasa sur son site internet.

Lors de leur mission, Alexandre Samokoutiaev et Elena Serova ont notamment « participé à 50 expériences scientifiques et oeuvré pour le maintien du fonctionnement de la Station », selon Roskosmos.

Pour Alexandre Samokoutiaev, cette mission a été marquée par sa deuxième sortie extra-véhiculaire dans l’espace, a-t-il précisé.

Pour sa part, Elena Serova est la première femme russe à se rendre dans l’espace depuis 17 ans, et la première femme russe à monter à bord de l’ISS.

En partant dans l’espace en septembre dernier, cette mère de famille de 38 ans a confié « se sentir comme une élève qui se prépare à son examen principal », mais a promis de « ne pas décevoir » les gens qui l’avaient formée.

Un vice-ministre russe Dmitri Rogozine a affirmé sur sa page sur Twitter que Mme Serova « se sentait bien en ce qui concerne la tension artérielle », après l’atterrissage.

« Tout s’est déroulé comme prévu (…). Tout le monde va bien », a-t-il ajouté.

Ce vol a marqué un véritable tournant avec le retour des femmes russes dans la conquête spatiale.

La Russie a fêté en 2013 le 50e anniversaire du vol de la première femme dans l’espace, la Soviétique Valentina Terechkova, le 16 juin 1963.

Il avait été suivi par ceux de Svetlana Savitskaïa, en 1982 et en 1984.

Mais les vols de la troisième, et dernière jusqu’à Elena Serova, femme russe, dans l’espace, Elena Kondakova, remontent quant à eux à 1994-1995, lorsqu’elle avait effectué une première mission de cinq mois, puis en mai 1997 pour une mission de 10 jours à bord d’une navette américaine.

Le prochain lancement d’un Soyouz est prévu depuis Baikonour au Kazakhstan le 28 mars, avec à bord l’astronaute américain Scott Kelly et les cosmonautes russes Mikhaïl Kornienko et Guennadi Padalka.

Scott Kelly et Mikhaïl Kornienko feront un séjour d’un an dans l’avant-poste orbital, une durée dans précédent pour les membres d’équipage.

Cette expérience vise à « collecter des données biomédicales pour préparer les missions habitées de longue durée dans l’espace », a rappelé la Nasa.

burs-mp/kat/ros

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Japon: étape majeure vers la réalisation d’une centrale solaire dans l’espace

« C’est la première fois qu’est envoyé ainsi l’équivalent d’une puissance de 2 kilowatts par micro-ondes vers une petite cible, en utilisant un dispositif de contrôle de la directivité », a expliqué à l’AFP un porte-parole de la Jaxa.

Le Japon rêve depuis les années 1980 de produire de l’électricité au niveau interstellaire et de l’envoyer ensuite vers la Terre, s’affranchissant ainsi d’une météo capricieuse et des cycles jour/nuit qui empêchent d’exploiter à plein l’énergie du Soleil.

Un ambitieux projet a été lancé en 2009, après des recherches débutées en 1998.

Concrètement, des vastes panneaux photovoltaïques, à l’instar de ceux employés au sol, convertiront l’énergie des rayons du soleil en électricité, avec une capacité annuelle cinq à dix fois supérieure à aire identique.

Ce courant électrique sera à son tour transformé en flux énergétique transmis par faisceau laser ou micro-ondes jusqu’à la Terre où il sera capté par une gigantesque antenne parabolique dédiée, et retransformé en électricité.

« Puisqu’il s’agit d’une forme d’énergie propre et inépuisable, nous pensons que ce système peut contribuer à résoudre les problèmes d’insuffisance énergétique et de réchauffement climatique de la Terre dû aux gaz à effet de serre », avaient expliqué des chercheurs de Mitsubishi Heavy Industries (MHI), groupe diversifié spécialiste des techniques aérospatiales.

Les ministères de l’Economie, du Commerce et de l’Industrie (Meti) et des Sciences et Techniques (Mext) ont en effet confié en 2009 le développement du dispositif et des différents éléments expérimentaux à MHI et à l’Institut de recherches sur les engins spatiaux inhabités, une organisation qui regroupe dix-sept sociétés dont les groupes d’électronique Mitsubishi Electric, NEC, Fujitsu et Sharp ainsi que divers autres industriels.

« Il faudra des décennies avant que nous puissions passer à une utilisation pratique de cette technologie, peut-être dans les années 2040 ou plus tard », a cependant tempéré jeudi le porte-parole de la Jaxa.

« Il y a un certain nombre de défis à relever, dont l’acheminement de l’énorme infrastructure requise dans l’espace, sa construction et sa maintenance », a-t-il précisé.

kh-kap/anb/ros

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Fukushima: encore des débordements d’eau de pluie contaminée

Des murets isolent normalement les emplacements où sont installées des citernes verticales, et l’eau de pluie qui s’y accumule n’est pas censée en sortir.

Reste que ces protections ont du mal à contenir les précipitations diluviennes qui s’abattent parfois sur la région comme ce fut le cas il y a quelques jours.

Si bien que, d’après Tokyo Electric Power (Tepco), environ 750 tonnes de cette eau contenant du strontium 90 (radioactif) auraient débordé et filé alentour.

La compagnie a ensuite constaté une montée de la radioactivité de l’eau souterraine d’un puits de mesure à proximité, avec un taux passé de 370 becquerels par litre le 9 mars à 11.000 becquerels par litre le 11 mars, jour du 4e anniversaire de la catastrophe.

Ces dernières semaines, plusieurs incidents liés à l’eau contaminée ont été rapportés, dont la découverte d’une mare d’eau dans un des bâtiments du site.

Une semaine plus tôt, Tepco avait fait état de la contamination, certes temporaire mais importante, de l’eau d’un canal traversant le site et descendant vers l’océan Pacifique voisin.

Le problème de l’eau est un des plus épineux qu’ait à traiter Tepco à Fukushima Daiichi, ravagée il y a exactement quatre ans par un gigantesque tsunami.

S’y mêlent des eaux d’arrosage, des eaux souterraines, des eaux de pluie, alors que toute cette masse liquide plus ou moins radioactive doit être gérée avec des moyens qui peinent à suivre.

Plus de 1.100 réservoirs ont certes déjà été construits dans l’enceinte de la centrale, mais les quantités d’eau continuent quotidiennement d’augmenter.

Cette situation a conduit l’ex-Premier ministre Junichiro Koizumi, devenu profondément antinucléaire depuis l’accident, à déclarer mercredi lors d’un discours dans la province de Fukushima que « la gestion de l’eau contaminée n’était pas du tout sous contrôle », contrairement aux affirmations de Tepco et des autorités.

Ces propos ont été fortement contestés jeudi matin par le porte-parole du gouvernement pour qui « les effets de l’eau contaminée ne vont pas au-delà de la zone du port de la centrale », des mots maintes fois répétés par les autorités et basés sur des mesures effectuées par Tepco.

kap/tll

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Des perturbateurs endocriniens dans les cheveux de femmes (enquête)

21,35 perturbateurs ont été retrouvés en moyenne par femme, dont une moyenne de 19,42 pesticides, précise-t-elle. Le nombre de résidus par échantillon de cheveux va de 12 au minimum à 32, au maximum.

La quantité moyenne de résidus de perturbateurs endocriniens par échantillon est de 109,39 picogramme par milligramme de cheveux, selon l’enquête.

L’étude, basée sur l’analyse de cheveux d’une population restreinte et volontaire ne prétend pas être représentative de l’exposition moyenne des femmes d’Ile-de-France. Elle vise à « éclairer les questionnements » concernant l’exposition des populations à des substances considérées comme susceptibles de perturber le système endocrinien, et ainsi le bon fonctionnement hormonal, souligne l’ONG.

Soixante-quatre substances suspectées d’être des perturbateurs endocriniens ont été recherchées, dont 54 pesticides ou métabolites de pesticides, 6 retardateurs de flammes bromés et 4 PCB (polychlorobiuphényles). Les analyses ont été réalisées début 2015 par un laboratoire luxembourgeois spécialisé dans l’évaluation de l’exposition des populations aux polluants et les effets de cette exposition.

Sept substances (5 insecticides, un fongicide, un herbicide) ont été retrouvées dans tous les échantillons de cheveux. Parmi ces substances, plusieurs sont interdites en France, comme le Gamma HCH, l’hexachlorobenzene (HCB) ou la trifluraline.

Quinze substances ont été repérées dans au moins la moitié des 28 échantillons.

Vingt-et-une n’ont été retrouvées dans aucun d’entre eux.

Cette enquête est le 4e volet d’une enquête de Générations Futures sur les perturbateurs endocriniens.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

AREVA : le directeur de la rédaction de France Inter estime que les médias ont été « naïfs »

[Illustration : Jean-Marc Four / Source : France-Culture – C.Abramowitz]

 

C’est une chronique qui sonne comme un signal d’alarme pour tous les médias grand public. « Tout le monde a semblé se réveiller… effaré, devant l’ampleur gigantesque des pertes [d’Areva], 5 milliards d’euros. Cet effarement est à l’aune de l’énormité de l’échec industriel » tonne Jean-Marc Four, directeur de la rédaction de France Inter, après avoir été directeur-adjoint de France Culture et notamment rédacteur en chef et producteur de l’émission « Le secret des sources. »

« Mais (cet effarement) démontre aussi que nous avons tous été, les médias au premier chef, un peu… naïfs sur le sujet… » a-t-il affirmé le 6 mars 2015 à l’antenne aux côtés de Patrick Cohen, le journaliste le plus écouté de France.

Un débat sur la politique éditoriale en matière d’EPR a émergé au sein de l’équipe rédactionnelle des Techniques de l’ingénieur suite à la publication le 14 avril 2014 de l’article « Nucléaire EPR : le quotidien finlandais de référence dénonce son coût exorbitant ». Un internaute, ouvertement pro-nucléaire, écrivait notamment dans un commentaire suite à l’article : « on retrouve ici les termes ‘coûts astronomiques’, ‘gouffre financier’ qui n’ont rien à faire dans la bouche d’un journaliste » ajoutant que cela relevait d’une « très grande partialité ». Nous avons pris le temps de la réflexion et décidé de publier une réponse complète : « L’éolien, le solaire et le nucléaire. Le débat »

Pour le directeur de la rédaction de France Inter il existe un « aveuglement Areva » en France. Cet aveuglement explique probablement les difficultés qu’ont certaines personnes, liées ou non au business du nucléaire (comme le souligne Jean-Marc Four, ne soyons pas « naïfs »…), à constater que le déficit d’Areva constitue objectivement un gouffre financier. Elles en viennent à considérer que celles et ceux qui font ce constat, Finlandais ou Français, sont forcément intellectuellement malhonnêtes.

Un État dans l’État

« On aurait pu réaliser que les géants du nucléaire nous …cachent des infos ! Et ça ne date pas d’aujourd’hui » constate avec regrets Jean-Marc Four. « Le coût du nucléaire en France, c’est… opacité à tous les étages ! (…) Résultat : un Etat dans l’Etat. Face auquel obtenir des informations fiables relève du défi » ajoute-t-il. Les journalistes sérieux doivent avoir le courage de relever ce défi. C’est une question de déontologie.

Mais pour Jean-Marc Four le « match » est « déséquilibré » entre la presse et le milieu nucléaire. Selon lui il y a « d’un côté, une petite poignée de journalistes spécialisés sur les questions énergétiques, c’est-à-dire à même d’appréhender, à la fois, des bilans financiers et des enjeux environnementaux. ». Il est vrai que les rédactions n’ont pas forcément sous la main des journalistes scientifiques, et encore moins des journalistes scientifiques spécialisés dans le domaine de l’énergie, domaine qui peut être assez ardu. « De l’autre des bataillons de communicants avec des moyens de pression réels. Exemple : il y a 3 ans, La Tribune publie un article évoquant l’hypothèse d’un « renoncement » à l’EPR. Quelques jours plus tard, EDF suspend son budget publicitaire dans le journal. Radical » rappelle le directeur de la rédaction de France Inter.

C’est un vrai problème. Face au poids des communicants d’EDF (s’affichant comme tels ou prétendument en tant qu’ « experts indépendants » dans les médias ou à la TV), les journalistes avec peu de culture dans ce domaine technique ont du mal à faire face. Et c’est au final la qualité du débat démocratique qui est perdant, ce qui est très problématique en période de débats sur la transition énergétique. « Reste (…) qu’on aurait pu se douter qu’un drame industriel majeur nous pendait au nez dans le secteur… » estime Jean-Marc Four.

Pour le journaliste de France Inter il existe « une forme d’aveuglement idéologique et cocardier. Le nucléaire, en France, c’est… une forme de dogme (…) Or, on le sait, il existe, sans que ce soit de la connivence délibérée, une forme de porosité entre le discours des élites… et celui des médias ». On touche ici au fond du problème.

Garder son esprit critique

Pour contribuer à limiter cette porosité Jean-Marc Four invite ses collègues journalistes à se poser les questions suivantes :

« Le rapprochement Areva / EDF est-il vraiment la bonne solution ? » Sur Twitter le Vice-Président de l’Assemblée Nationale Denis Baupin (EELV) s’interroge : « l’hypothèse d’une fusion EDF-AREVA fait perdre 3% en Bourse à EDF ! Nucléaire une « énergie d’avenir » : vraiment ? ». Parallèlement Areva annonce abandonner ses activités EPR aux USA. Curieux pour une « énergie d’avenir ».

Jean-Marc Four pose une deuxième question : « qui va payer les 5 millliards d’Areva ? Difficile de penser que ce ne seront pas les salariés, et les contribuables. »

Et enfin, « troisième question, cruciale : quelle est la viabilité économique de ce « business model » du nucléaire, qui certes a, jusqu’à présent, garanti l’indépendance énergétique de la France, mais qui aujourd’hui est peut-être … périmé ! »

A l’heure où les contrats dans le solaire PV sont signés dans le monde à des niveaux aussi bas que 5 centimes le kWh et où la Deutsche Bank annonce que le coût incrémental du stockage par batterie sera de l’ordre de 2 centimes par kWh en 2020, le nouveau nucléaire constitue-t-il vraiment une énergie d’avenir ? La question, véritablement stratégique, mérite d’être posée en toute transparence. Chercher à faire baisser frauduleusement les coûts de l’EPR de Flamanville en payant au noir un demi-millier d’étrangers, est-ce cela l’avenir de la France ?

Anne Gouzon de la Documentation de Radio France a mentionné sur le site de France Culture, dans sa revue de web datée du 27 février, la chronique « Le Fukushima d’Areva » que nous avons publiée le 25 février 2015 sur Techniques de l’ingénieur. Nous espérons que les articles de la rubrique énergie continueront de féconder à leur petite échelle le débat sur notre avenir énergétique commun.

Olivier Daniélo

L’Anses veut renforcer la traçabilité des nanoparticules d’argent

A croire que les scientifiques de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) ont du sang normand. A la question : « les nanoparticules d’argent sont-elles toxiques pour l’homme ? », l’Agence se contente d’un « Pt’êt ben que oui, pt’êt ben que non » ! C’est bel et bien la conclusion officielle de l’expertise rendue publique le 5 mars. L’Anses a mis à jour les connaissances actuelles sur l’évaluation des risques sanitaires et environnementaux, intégrant notamment les données concernant les voies d’exposition, les activités antibactériennes et la résistance éventuelles des bactéries. D’après la revue de presse scientifique, la toxicité des nanoparticules d’argent est certaine, avec des effets biologiques nocifs avérés sur « […] les organismes aquatiques et terrestre étudiés ». On retrouve donc tout un cortège de toxicités, comme la génotoxicité et la reprotoxicité, sans oublier une inhibition de croissance et la mortalité. Un panel impressionnant pour une substance à l’utilisation banale dans des secteurs comme l’alimentaire, le textile et les cosmétiques.

Face à une telle dangerosité, on est en droit de se demander ce qu’il en est pour l’homme. Mais cette fois, l’Anses est beaucoup moins catégorique. Pire, l’Agence est incapable de dire si oui ou non les nanoparticules d’argent sont une menace pour l’homme. En cause, les conclusions des différents travaux réalisés sont contradictoires « […] rendant encore difficile à ce jour l’estimation de la dangerosité des nanoparticules d’argent ». Impossible pour l’Anses de dire si ces particules sont reprotoxiques, génotoxiques ou neurotoxiques.

Dans ses propres conclusions, l’Agence se borne donc à encourager de nouveaux travaux de recherche « […] dans les domaines de la caractérisation physico-chimique, l’évaluation de l’exposition, de la toxicologie et de l’écotoxicologie, de l’évaluation de l’efficacité antibactérienne et de la résistance bactérienne ». Pour faciliter de nouvelles analyses, l’Agence souhaite renforcer la traçabilité des informations, notamment en passant par la déclaration obligatoire dans la base R-Nano.

Par Audrey Loubens

Le tabac encore plus dangereux que prévu

Le tabac tue de nombreuses façons. Voilà la conclusion concrète des travaux menés par les chercheurs de la Société américaine du cancer. Ces chercheurs ont épluché pendant 10 années les informations de santé d’environ 1 million de volontaires. Ces derniers sont des hommes et des femmes de plus de 55 ans. En une décennie, 181 377 personnes du panel étudié sont décédées. 

Globalement, les fumeurs présentent un taux de mortalité trois fois supérieur aux non fumeurs. Mais les chercheurs ont été surpris par les pathologies présentées car 17% des morts chez les fumeurs n’étaient pas liées à l’une des 21 maladies reconnues comme provoquées par le tabac. Les chercheurs ont ainsi recensé 14 infections manifestement en lien avec le tabagisme et pourtant non considérées comme telles. D’après Brian Carter, co-auteur de l’étude, cela représente 60 000 décès annuels aux Etats-Unis supplémentaires. L’analyse des données de santé de ce million d’individus est terrible. Le tabac, déjà connu pour son rôle dans 17 formes de cancer (poumon, larynx, vessie…), induirait aussi une insuffisance rénale, de l’ischémie rénale ou encore une cardiopathie hypertensive. Des risques multipliés par deux chez les fumeurs.  Cette étude américaine parue dans le New England Journal of Medicine corrobore une autre étude, australienne cette fois, menée sur 200 000 personnes. Les scientifiques ont analysés 4 années de données médicales et la conclusion est là aussi sans appel : les fumeurs ont 2.96 fois plus de risque de mourir. Leurs travaux publiés dans BMC Medicine révèlent que 44.6% des hommes fumeurs et 33% des fumeuses risquent de mourir avant 75 ans contre 18.9% des non-fumeurs et 12% des non-fumeuses. Au final, alors que l’on estimait que le tabac tuait un fumeur sur deux, ce sont deux fumeurs sur trois qui décèderont de leur tabagisme. 

Il y a tout de même une bonne nouvelle. Arrêter de fumer permet de réduire considérablement le risque et même de l’annuler totalement. En arrêtant de fumer avant 45 ans, le taux de mortalité de l’ex-fumeur est identique à celui d’un non fumeur. De quoi encourager les démarches anti-tabac.

Par Audrey Loubens

Des fumées d’huile de moteur contaminent l’air des cabines d’avion

3% des pilotes de ligne présentent une dégradation de leurs performances physique et mentale du fait d’une exposition chronique à des neurotoxiques présents dans l’air respiré à bord de l’avion. Cette estimation inquiétante a été révélée par un rapport du Global Cabin Air Quality Executive. Mais pas de quoi alerter les dirigeants des compagnies, curieusement atones sur ce problème pourtant connu depuis plusieurs années. En 2007, le documentaire « Bienvenue à bord d’air toxique » donnait la parole à Tristan Loraine, un ancien pilote de British Airways, dénonçant cette situation. La même année, le Comittee on Toxicity sollicité par le gouvernement britannique rapportait qu’1% des vols présentaient un incident de fumée selon les pilotes. Les compagnies ont démenti en chiffrant à seulement 0.05% les vols réellement concernés.

Comment l’air des cabines d’avion peut-elle se retrouver contaminée avec des neurotoxiques ? Tout simplement parce qu’il est aspiré par les réacteurs. Ce bleed air est ensuite réchauffé et compressé avant d’être injecté dans le circuit de climatisation, puis à l’intérieur de l’avion. Mais parfois, du fait d’une certaine usure, d’un défaut de maintenance, d’une défaillance technique, de l’huile de moteur peut s’insinuer dans le système malgré les filtres. Or ces vapeurs contiennent des additifs capables d’intoxiquer  ceux qui les respirent. Cette intoxication peut être ponctuelle, mais elle peut aussi être chronique. On parle de syndrome aérotoxique, bien qu’il ne soit pas officiellement reconnu.

Le Docteur Michel Mulder, médecin et ancien commandant de bord de la compagnie KLM affirme avoir créé une batterie de tests, dont des tests sanguins, permettant de mesurer le degré de dégradation des performances des pilotes et de prédire combien de temps ces derniers restent en capacité de  voler selon leur degré d’exposition aux neurotoxiques inhalés.

En France, en 2012, la sénatrice UMP Colette Giudicelli interpellait la ministre des affaires sociales et de la santé de l’époque sur les potentiels d’intoxication des cabines d’avion du fait d’émanation d’huile moteur et notamment sur la présence de TCP dans le système de conditionnement d’air. Le ministère chargé des transports de la mer et de la pêche avait alors confirmé l’existence du risque, tout en rappelant que le personnel était formé aux protocoles de sécurité, notamment le port du masque à oxygène en cas de contamination de l’air par des vapeurs d’huile de moteurs. Enfin, d’après 2 études menées à bords de plusieurs appareils, dont des Boeing 757 et des BAE 146, il y a bien des « […] composés organiques volatils pouvant provenir de l’huile de moteur ou de cette huile pyrolisée mais en quantité très inférieure aux normes prévues. »

Malgré plusieurs témoignages de pilotes et les risques d’accident de vol, aucune mesure concrète ne semble être prise pour enrayer le phénomène et protéger l’air respiré dans les avions des vapeurs d’huile de moteur.

Par Audrey Loubens

L’avion solaire s’envole pour Ahmedabad, 2e étape de son tour du monde

Le Suisse Bertrand Piccard pilote l’avion monoplace à énergie uniquement solaire, qui a décollé de l’aéroport de la capitale du sultanat d’Oman à 06H35 locales (02H35 GMT). Il doit survoler la mer d’Arabie et parcourir les 1.465 km séparant Mascate d’Ahmedabad en quelque 16 heures, soit la première plus longue étape du tour, selon le site de la mission.

M. Piccard a relevé dans le cockpit son compatriote André Borschberg qui a assuré lundi avec succès la première étape de ce tour du monde sans précédent en reliant en 13 heures et deux minutes Abou Dhabi, capitale des Emirats arabes unis, à Mascate.

L’avion est propulsé par plus de 17.000 cellules solaires tapissant des ailes de 72 mètres, soit presque aussi longues que celles d’un Airbus A380. Mais le SI2, conçu en fibre de carbone, ne pèse que 2,5 tonnes — autant qu’un 4X4 familial, soit moins de 1% du poids de l’A380.

Le tour du monde, prévu en 12 étapes, est l’aboutissement de 12 années de recherches menées par MM. Borschberg et Piccard qui, outre l’exploit scientifique, cherchent à véhiculer un message politique.

« Nous voulons partager notre vision d’un avenir propre », a déclaré lundi M. Piccard, en soulignant que cette mission devait contribuer à la lutte contre le réchauffement climatique par la promotion de « nouvelles technologies vertes ».

Le secrétaire général de l’ONU Ban Ki-moon a salué lundi les promoteurs du projet pour « leur audace et leur détermination (qui) vont nous propulser vers un avenir plus écologique ».

Au total, l’appareil parcourra 35.000 kilomètres, à une vitesse relativement modeste (entre 50 et 100 km/h), en survolant deux océans, et cette circonvolution, à 8.500 mètres d’altitude au maximum, prendra cinq mois, dont 25 jours de vol effectif, avant un retour à Abou Dhabi fin juillet/début août.

Après l’Inde, la Birmanie est la destination suivante, avant la plus longue étape du trajet: cinq jours consécutifs de vol pour un seul pilote chargé de rallier Nankin, en Chine, à l’archipel américain d’Hawaï, dans le Pacifique.

Au total, 130 personnes participeront à l’aventure: 65 accompagneront les pilotes autour du monde (dans le cadre de l’appui logistique) et 65 autres seront à Monaco, au centre de contrôle de la mission (météorologues, contrôleurs aériens et ingénieurs).

Solar Impulse 2 est le successeur du premier prototype Solar Impulse 1, qui a permis aux concepteurs du projet de faire plusieurs vols de longue durée en Europe, au Maroc et de traverser les Etats-Unis en 2013 avec plusieurs escales, faisant d’eux les premiers à accomplir un tel exploit.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Quatre ans après, la ville qui héberge la centrale de Fukushima va retirer les pancartes pro-nucléaires

Cette mesure fait partie des projets prévus dans le cadre du budget présenté à l’assemblée municipale de cette agglomération totalement désertée.

Il en coûtera quelque 4,1 millions de yens (30.500 euros) pour enlever deux imposantes enseignes construites en 1988 et 1991.

Installée à la porte de la ville, la première dit « l’énergie nucléaire, l’énergie d’un avenir radieux », et une autre près de la mairie: « l’énergie nucléaire, pour le développement de notre patrie, pour un futur prospère ».

« Nous avons décidé de les supprimer parce qu’elles sont vétustes et constituent un risque pour les personnes qui font des retours temporaires dans leur maison », a expliqué le fonctionnaire de Futaba, sans mentionner qu’elles pouvaient être insultantes pour les habitants chassés de chez eux sans grand espoir d’y revenir de façon durable.

Quatre ans plus tard, quelque 90.000 habitants évacués de la région ne sont pas autorisés à retourner vivre dans leurs foyers autour de la centrale Fukushima Daiichi mise en péril par le tsunami du 11 mars 2011, qui a par ailleurs tué plus de 18.000 personnes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le mercure continue de s’accumuler dans le corps des poissons

Devra-t-on un jour renoncer à manger du poisson ?

La question se pose désormais sérieusement car à la problématique de la diminution des populations s’ajoute celle de la toxicité même du poisson. En effet, le taux de mercure mesuré dans leur chair est de plus en plus élevé, jusqu’à atteindre des niveaux incompatibles avec une consommation humaine.

Une étude parue dans Environmental toxicology and chemistry enfonce le clou en révélant que le thon d’Hawaï présentait un taux de mercure de 0.34 ppm en 2008, ce qui est supérieur au seuil recommandé aux Etats-Unis de 0.3ppm. Surtout, cette valeur augmente de 3.8% chaque année ! 

L’année dernière, Lars-Eric Heimbürger de l’Université de Brême, participait à la cartographie du mercure dans les océans. Cette campagne a permis d’observer que les océans ne contiennent « que » 600 000 à 800 000 tonnes de mercure, dont « seulement » 10 % proviennent de l’activité humaine. Pas de quoi se réjouir pour autant puisque le mercure est particulièrement présent dans les eaux de surface qui est l’environnement des poissons consommés par l’homme. 

Le problème du mercure est qu’il s’accumule dans l’organisme du poisson. Ainsi, lorsqu’un poisson en mange un autre, il ingère tout le mercure que ce dernier a pu accumuler au cours de son existence… C’est pourquoi il est fortement déconseillé de manger les poissons placés en haut de la chaîne alimentaire comme l’espadon, le requin ou encore le thon

Cette pollution au mercure n’épargne pas les eaux douces, avec des cas localement alarmants liés à la présence d’une contamination industrielle. Pour lutter contre la pollution au mercure et tenter d’enrayer le phénomène, 139 pays ont signé une convention dont le texte devrait être voté très prochainement en France.

A ce jour, les autorités sanitaires se veulent rassurantes, indiquant que la dose journalière maximum conseillée n’est pas atteinte. Toutefois, les populations à risque comme les femmes enceintes sont encouragées à limiter leur consommation de poisson.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Solar Impulse s’envole pour son tour du monde

Pas une seule goutte d’essence ne viendra alimenter le moteur de Solar Impulse 2. Et pour cause, ses moteurs électriques sont alimentés exclusivement à l’aide de panneaux solaires recouverts de plus de 17 000 cellules photovoltaïques, d’où le qualificatif d’avion solaire. Déjà célèbre pour avoir établi 8 records dont ceux du premier avion solaire à voler de nuit, premier à rallier deux continents ou encore à traverser les Etats-Unis, Solar Impulse 2 repousse encore les limites en partant pour un périple plus impressionnant encore, celui du tour du monde. Son parcours prévoit 12 étapes et le mènera en Inde, en Chine, à Hawaï, aux Etats-Unis, à New-York pour ensuite faire escale  en Europe du Sud ou en Afrique du Nord avant de boucler son tour du monde en volant jusqu’à son point de départ, Abou Dhabi, aux Emirats Arabes Unis. En tout, l’avion aura parcouru 35 000km, à une vitesse comprise entre 50 et 100km/h à 8500m d’altitude.

Pour réussir ce premier tour du monde avec un avion solaire, les deux fondateurs Bertrand Piccard et André Borschberg ont dû relever plusieurs défis technologiques. Tout d’abord, il a fallu mettre au point les cellules photovoltaïques. Elles sont exactement 17 248, en silicium monocristallin de 135 micron d’épaisseur, réparties sur les ailes, le fuselage et le stabilisateur horizontal, avec un excellent rendement de 23%. Un gros travail a ensuite été fait sur les batteries, seule façon d’assurer l’autonomie nécessaire à l’avion pour réaliser des vols longue distance ou de nuit. Solar Impulse 2 est équipé de batteries lithium polymère, d’une masse totale de 633kg, le quart du poids de l’avion (2300kg). Les ingénieurs ont maximisé l’aérodynamisme grâce à une envergure de 72m. Enfin, le pilote peut économiser de l’énergie en faisant évoluer l’avion à 9000m d’altitude le jour et seulement 1500m la nuit.

Solar Impulse 2 est prêt pour tenter le tour du monde et écrire un nouveau chapitre de l’histoire de l’aviation solaire.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

L’Anses prend en charge l’AMM des pesticides

Depuis 2006, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) n’émettait qu’un avis sur les dossiers d’autorisation de mise sur le marché (AMM) soumis par les industriels ; la décision d’autorisation ou non de ces produits était prise par le Ministère de l’Agriculture. Suite à la loi du 13 octobre 2014 d’Avenir pour l’agriculture, l’alimentation et la forêt, l’Anses aura en charge l’ensemble de ces missions à partir du 1er juillet 2015.

Pour mener à bien la gestion des AMM, l’Anses va créer une direction séparée de sa direction de l’évaluation des risques. L’Agence veut ainsi assurer l’indépendance des deux activités en toute transparence. Elle estime avoir besoin d’environ 35 équivalent temps pleins pour la prise en charge de ses nouvelles missions. La loi de Finances prévoit la création de 10 nouveaux postes pour 2015, 15 autres devraient être pourvus cette année par réaffectation de postes en interne. Pour les 10 postes restants, l’Anses espère les obtenir de l’Etat en 2016.

Phytopharmacovigilance : suivre la réalité sur le terrain

La loi d’avenir agricole prévoit aussi de renforcer les dispositifs de contrôle des produits autorisés sur le terrain. L’objectif est de suivre les effets éventuels des pesticides sur la santé humaine, que cela soit pour les travailleurs ou la population générale. Mais l’environnement n’est pas en reste : l’agence devra surveiller la santé des écosystèmes, de la faune et de la flore et les contaminations des milieux par les pesticides. Ainsi, si des signes montrant la toxicité d’un produit s’accumulent sur le terrain, l’Anses devra réagir rapidement pour reconsidérer l’AMM. « Une fois le produit sur le marché, il faut être capable d’être attentif à tout signal qui pourrait nous amener à remettre en cause telle ou telle décision au niveau de l’AMM », précise Marc Mortureux, directeur de l’Anses. C’est ce que la loi appelle la « phytopharmacovigilance ». 

Améliorer les dispositifs existants

L’Anses n’a pas d’unités présentes sur le terrain. Pour la phytopharmacoviligance, il lui faut donc miser sur la structuration des systèmes existants.  «Ce dispositif va être mis en place dès cette année et va s’appuyer sur une série d’organismes qui dans différents domaines collectent un certain nombre de données», prévient Marc Mortureux.

Différents dispositifs de collecte d’information pilotés par divers acteurs publics recueillent en effet d’ores et déjà de nombreuses informations relatives aux effets sanitaires des pesticides. Le principal défi ne consiste donc pas à créer de nouveaux dispositifs de collecte d’informations nouveaux, mais à les renforcer et permettre l’interprétation d’un point de vue sanitaire des données apportées. «Il reste un gros travail à faire pour avoir un dispositif beaucoup plus réactif, mieux adapté à cet objectif», assure Marc Mortureux.

L’agence se verra néanmoins doter d’une petite capacité propre d’inspection. « C’est important, lorsqu’il y aura un événement d’avoir des personnes qui pourront aller concrètement constater sur le terrain et récupérer toutes les données utiles », reconnait Marc Mortureux. Ces moyens permettront aussi de mettre en oeuvre des campagnes de contrôle des produits phytosanitaires déjà présents sur le marché pour «vérifier la conformité de ces produits mis sur le marché par rapport aux dossiers tels qu’ils sont déposés», précise-t-il. L’agence aura également la possibilité de mener des études indépendantes ciblées pour mieux documenter certaines interrogations. 

Concernant les nouveaux produits, l’Agence aura la possibilité de comparer leur toxicité à celle de produits déjà présents sur le marché. Pour les substances actives, qualifiées de « candidates à la substitution », si des produits moins dangereux et aussi efficaces sont déjà présents sur le marché, l’AMM ne sera pas accordée.

Des études sur les pesticides attendus pour cette année

Les résultats de l’expertise sur les expositions des travailleurs agricoles aux pesticides et les conclusions de l’étude Pesti’home sur les utilisations domestiques des pesticides sont attendus d’ici la fin de l’année pour la France métropolitaine.

Par ailleurs, l’Anses a été saisie en 2014 pour contribuer à la définition de modalités d’une surveillance nationale des pesticides présents dans l’air ambiant. D’ici la fin de l’année, elle établira une liste prioritaire de 10 à 20 pesticides à surveiller dans l’air en France métropolitaine, puis début 2016, dans les régions d’outre-mer. Elle proposera également une stratégie d’échantillonnage pour évaluer l’exposition de la population aux pesticides dans l’air. 

Par Matthieu Combe

Et aussi dans les
ressources documentaires :

Batteries : la Deutsche Bank prévoit une baisse massive des coûts durant les 5 années à venir

Si leur potentiel de production est colossal et très largement supérieur aux besoins de l’Humanité, éolien et solaire PV restent néanmoins (parfois) critiqués pour leur nature fluctuante. Et les batteries étaient jusqu’à présent trop coûteuses. Mais « en utilisant des hypothèses conservatrices et sans subventions, notre modèle indique que le coût incrémental du stockage (en plus du coût du kWh solaire PV ndlr) va passer de 14 cents/kWh aujourd’hui à 2 cents dans les 5 ans à venir » peut-on lire dans le rapport « Crossing the Chasm » (Franchir le gouffre) rédigé par Vishal Shah, directeur général à la Deutsche Bank et Jerimiah Booream-Phelps, analyste spécialisé en finance des écotechnologies (equity).

Ce rapport est « disponible dans un premier temps uniquement aux clients » et il sera rendu public « plus tard » indique la Deutsche Bank sur le site spécialisé Australien RenewEconomy où la journaliste Sophie Vorrath a néanmoins publié des extraits, y compris quelques graphiques-clés.

Le coût d’une batterie au plomb (dont la durée de vie est limitée) est aujourd’hui d’environ 200$/kWh selon les auteurs. Dans le meilleur des cas celui des batteries lithium est d’environ 500$ (fin 2014), c’est-à-dire moitié moins des environ 1000$/kWh 12 mois plus tôt. Une baisse de 50% des coûts en seulement un an, c’est pour le moins remarquable. L’émergence de la voiture électrique a dopé ce marché. Pour les années à venir « nous pensons qu’une baisse annuelle des coûts de 20-30% par an est probable (pour les batteries lithium-ion), ce qui pourrait les amener à franchir le seuil de l’adoption en masse avant 2020 », ceci à l’échelle de plusieurs segments du marché (commerces et utilities). Pour le segment résidentiel, cela pourrait venir ensuite, c’est-à-dire durant la décennie 2020.

Des systèmes tampons bien utiles

Pour les gestionnaires des réseaux électriques pouvoir disposer de batteries décentralisées, réparties sur l’ensemble du réseau, constitue un sérieux atout. Il est alors possible de diminuer le recours aux (coûteuses) turbines à gaz centralisées et aux faibles taux de charge annuels.

De plus les réseaux électriques (transport et distribution) sont traditionnellement calibrés en fonction des pointes de la demande. Il en résulte qu’ils sont eux aussi sous-utilisés, et c’est coûteux. Si des systèmes tampons (batteries) sont disponibles localement aux endroits clés, alors il devient possible d’optimiser le taux d’usage du réseau alors configuré pour une demande (et une production solaro-éolienne) qui devient moins fluctuante. D’une pierre, deux coups. Les batteries sont installables absolument partout, y compris au cœur d’une zone commerciale d’une ville très peuplée ou d’un complexe industriel. « Elles peuvent être reparties de manière optimale et réduire les pics de demande à travers le système électrique » expliquent les auteurs du rapport de la Deutsche Bank.

Le géant français GDF-Suez teste actuellement dans son laboratoire « Laborelec» en Belgique les batteries de la start-up Eos Energy Storage qui va commercialiser dès 2016 une batterie zinc-hybride à seulement 160 $ le kWh de stockage et dont la durée de vie est estimée à plus de 15 ans (objectif de 30 ans). Un niveau compétitif avec le stockage hydraulique (STEP). Eos vise en premier lieu le segment utilities.

Le solaire PV meilleur marché que le gaz de schiste ?

La Banque Nationale d’Abu Dhabi vient de publier un rapport où elle affirme que le solaire PV est à présent devenu tellement bon marché qu’il faudrait que le pétrole tombe au-dessous de 10$ le baril pour que les nouvelles centrales au fioul soient compétitives.

« C’est équivalent à un pétrole à 40 $ dans des centrales existantes » estime Cédric Philibert, expert EnR au sein de l’Agence Internationale de l’Energie. « Les auteurs de ce rapport ont préféré comparer avec de nouvelles centrales au fioul, mais je trouve que c’est moins pertinent que de le faire avec les anciennes ». Que ce soit à 10 ou 40$ la compétitivité du solaire PV est dans tous les cas devenue redoutable. Le baril se vend actuellement autour de 50$, un niveau bas à l’échelle des dernières années où il a dépassé les 100$.

« La Dubai Electricity and Water Authority (DEWA) a récemment accepté un contrat avec ACWA Power à 0.0584$/kWh, ceci pour une centrale solaire PV de 200 MW » rappellent les auteurs de ce rapport publié par la seconde plus grande banque de l’ensemble des Emirats arabes unis. « En plus de constituer une nouvelle référence en matière de coût du solaire PV à l’échelle globale, à ce niveau le solaire PV est déjà compétitif avec le pétrole à 10$ le baril et avec le gaz à 5$ par MBtu ».

Or selon la banque Merril Lynch (2012) la compétitivité du gaz de schiste s’établit autour de 6-8$/MBtu. Exxon a reconnu qu’ils produisaient à perte en le vendant à un prix inférieur, le PDG du géant américain ajoutant « on est en train d’y laisser notre chemise ». L’extraction conjointe du pétrole de schiste parvenait à sauver le gaz mais l’effondrement actuel des prix du baril change l’équation.

Cap vers une «Solar Economy » 

Le tiers de l’électricité mondiale pourrait être solaire en 2050

La baisse conjointe et massive des coûts du solaire PV et des batteries offre des perspectives réjouissantes sur le plan de l’intérêt général, tant en matière de sécurité énergétique que de qualité environnementale. Mais préoccupantes pour ceux qui ont massivement investi dans des filières énergétiques non durables et qui n’ont pas vu venir la « quatrième révolution industrielle » qu’Hermann Scheer, notamment auteur des livres « The Solar Economy » et « Energy Autonomy », appelait de ses vœux.

La Deutsche Bank, dans un autre rapport publié en janvier 2015, estime que près du tiers de l’électricité consommée dans le monde proviendra du solaire en 2050. Le marché du PV est estimé à pas moins de 3 trillions de dollars d’ici 2030… 3 millions de millions de dollars. On comprend mieux l’engouement chinois ! Le pays de Lao Tseu, grâce à l’investissement dans de très grandes usines qui ont contribué à faire baisser les coûts, produit aujourd’hui 90% des modules PV du monde.

Les Européens, divisés en matière de politique énergétique, ont pris du retard. Le Président français François Hollande a évoqué en 2013 la création d’un « airbus » dans le solaire en partenariat avec l’Allemagne. L’Europe ne veut pas laisser cet énorme marché lui échapper complètement. Le retard s’annonce néanmoins difficile à rattraper. Même le géant japonais Sharp n’est pas parvenu à gagner cette bataille de la compétitivité face aux Chinois. Et vient d’annoncer qu’il y renonce.

Le solaire pour tous

La banque allemande ajoute: « nous pensons que le taux de pénétration du solaire va augmenter plus rapidement dans les pays en développement. L’Inde, par exemple, a annoncé récemment un objectif de 100 GW (100.000 MW) de capacité solaire dès 2022 ». 40% pourrait être OffGrid.

Dans les régions du monde où les réseaux électriques sont déficients, partiels ou absents, le solaire PV couplé au stockage constitue une clé pour le développement humain.

Let the sunshine in.

Par Olivier Daniélo

Revue du web #77 : les vidéos les plus étonnantes de mars 2015 (1/2)

Cette semaine dans la revue du Web :

  • Grant Thompson et son petit atelier fonderie à domicile ;
  • Hypnotique : la maîtrise du transfert hydrographique ;
  • « Sepios », l’élégant poisson robotique aux quatre nageoires ;
  • Le gadget (inutile?) de la semaine : Tomatan, ou la monomanie de la tomate ;
  • En bonus : une horloge faite maison, qui écrit l’heure au marqueur ;
  • Et en super-bonus : des drones morts au champ d’honneur.

Grant Thompson et son petit atelier fonderie à domicile :

La chaîne YouTube de Grant Thompson est des plus instructives. Cet amateur éclairé est passé maître, depuis quelques années, dans le recyclage de canettes de bières ou de sodas en petits bijoux inutiles du quotidien, objets qu’il parvient à mouler avec une aisance déconcertante. Pour débuter notre soixante-dix-septième Revue du Web, penchons-nous sur le processus de fabrication de l’un de ces menus objets, une petite épée.

Première étape : utiliser son petit atelier fonderie DIY (voir la deuxième vidéo en bas de page) pour récupérer l’aluminium de plusieurs canettes, aluminium qu’il conserve une fois refroidi sous forme de palets de quelques centimètres de diamètre, moulés comme de petits gâteaux. Le rendement n’est pas si mauvais, puisque notre internaute récupère un peu moins de 500 grammes d’aluminium pour une quarantaine de canettes. Les palets lui servent ensuite de « munitions », lorsqu’il souhaite finalement utiliser l’aluminium et rentrer dans la peau d’un apprenti-forgeron. Le résultat est impressionnant (en anglais) !

Si d’aventure vous désirez également embrasser la carrière d’apprenti forgeron, voici comment réaliser la petite fonderie en DIY et à très petit prix :

Hypnotique : la maîtrise du transfert hydrographique

Familier de la technique d’impression par transfert hydrographique ? Si ce n’est pas le cas, cette vidéo réalisée par HG arts, l’un des leaders du secteur, est faite pour vous. L’impression hydrographique permet de transférer n’importe quels motifs redondants (et de mauvais goût) sur la surface de n’importe quel objet, quelle que soit sa forme. Il faut tout d’abord imprimer au préalable le motif désiré sur un film polymérique composé de PVA (Polyacétate de vinyle), qu’il faut ensuite immerger à plat dans un bassin adapté rempli d’eau à une trentaine de degrés, pour que s’y dépose la fine pellicule bariolée. Il reste à « activer » le film – en pulvérisant un « activateur » (un solvant) à l’aide d’un aérosol. Il suffit alors de tremper les objets précautionneusement pour les voir se parer de leurs plus beaux atours.

La société catalane, basée à Barcelone, cible essentiellement l’industrie automobile, mais également le monde du sport (des planches de skate aux casques de protection pour deux roues), l’industrie des lunettes, des smartphones, du jeu vidéo, ainsi que… l’armée avec la possibilité d’imprimer aisément n’importe quel motif « camouflage » sur les casques balistiques. La vidéo qui suit est assez illustrative, mais ne se concentre que sur l’impression sur pièces détachées de l’industrie automobile.

« Sepios », l’élégant poisson robotique aux quatre nageoires :

Les étudiants de l’Institut fédéral suisse de technologie ont de la ressource… S’inscrivant dans la tendance générale du biomimétisme, le projet d’étude de nos jeunes voisins s’inspire des mouvements de la seiche pour aboutir à son mode de propulsion unique à quatre nageoires (qui semble pourtant rappeler l’élégance aérienne d’un gros nudibranche rouge vif, la « danseuse espagnole »). Se distinguant des autres robots nautiques par sa faculté à se mouvoir aisément dans toutes les directions, il fait également preuve d’une très grande maniabilité.

Le mouvement de chaque nageoire est rendu possible par neuf servomoteurs, savamment coordonnés afin de reproduire ce mouvement, cette onde progressive et fluide si particulière. La bestiole, d’une longueur de 70 centimètres pour moins d’un mètre d’envergure, ferait si peu de remous qu’elle paraît idéale pour observer discrètement la vie marine, que ce soit à des fins scientifiques ou pour effectuer des prises de vue, en se cantonnant à une profondeur maximale de dix mètres. « Sepios » pourra mettre à profit son heure et demie d’autonomie pour se fondre dans le décor…

Le gadget (inutile?) de la semaine : Tomatan, ou la monomanie de la tomate

Étonnant coup de pub, ou ingénieurs à la masse ? Le gadget (inutile?) de la semaine nous vient du Japon, un pays qui nous a habitué au meilleur… comme au pire. Kagome, le géant japonais de la tomate, a surpris plus d’un journaliste lors d’une conférence de presse, le 23 février dernier, en présentant sa dernière (très) bonne idée : Tomatan, un petit robot dont le but – et la seule fonction – est de nourrir en tomates l’heureux idiot qui aurait eu le courage de le trimbaler.

Robot au design minimaliste, Tomatan devrait pouvoir intéresser les coureurs de fond, marathoniens en tête, à en croire l’un des porte-paroles de la compagnie japonaise, présent lors de la conférence de presse. Sans se démonter, le représentant de Kagome met en avant la nécessité qu’ont les coureurs de fond à rester bien hydratés… Exit les bananes et les barres énergétiques, quoi de mieux qu’une petite tomate bien juteuse, de temps en temps, pour avoir sa dose d’antioxydants et de bêta-carotène ? Si vous êtes effrayés à l’idée de porter les huit kilos (!) de Tomatan sur les épaules, rassurez-vous : une version moins lourde (3 kilos tout de même), baptisée « petit-Tomatan », existe.  Et elle vous fournira tout votre content… de tomates cerises.

En visionnant la vidéo, on penche évidemment pour un drôle de coup de pub. Tout du moins on l’espère.

Bonus : une horloge faite maison, qui écrit l’heure au marqueur

En bonus de cette soixante-dix-septième Revue du Web, voici une petite horloge faite maison qui a le chic d’écrire – et d’effacer – l’heure au marqueur, pour peu qu’on ait l’intelligence de la fixer sur un tableau blanc effaçable. Réglée comme un métronome pour indiquer l’heure toutes les cinq minutes, cette horloge dépend de deux servomoteurs pour coordonner l’action des deux bras tenant le marqueur, ainsi que d’un dernier servomoteur qui permet de lever et baisser l’ensemble, afin de choisir le moment ou la pointe du marqueur sera en contact ou non avec le tableau. L’ensemble est orchestré, comme bien souvent, par un microcontrôleur, ici de la famille PIC. Les pièces en plastique (rouges et jaunes) sortent tout droit d’une imprimante 3D.

Cette horloge n’est pas sans nous rappeler celle-ci, au fonctionnement identique, indiquant l’heure toutes les minutes, mais un tantinet pressée.

Super-bonus : des drones morts au champ d’honneur

A l’heure où quelques drones semblent trouver le ciel de Paris particulièrement clément – bien que le survol d’une zone urbaine soit interdit par la loi, rappelons-le – d’autres drones aspirent à un quotidien beaucoup plus aventureux, quitte à rester sur le carreau. Le réalisateur Sam Cossman en sait quelque chose, puisqu’il a perdu pas moins de deux de ses bestioles au champ d’honneur lors de prises de vues spectaculaires au dessus du Marum, un volcan en activité dans l’archipel de Vanuatu.

Les drones auront néanmoins permis la modélisation tridimensionnelle de l’intérieur de la caldeira, tout en ramenant de superbes images. Le sacrifice ne fut pas inutile !

Par Moonzur Rahman

« Le bord des mondes » : la science, aux confins de la création artistique

Envie de voir l’une des sublimes sculptures cinétiques de Theo Jansen, l’un des merveilleux pièges à brume de Carlos Espinosa, ou l’un des effrayants clones « géminoïdes » d’Hiroshi Ishiguro ? Le Palais de Tokyo réunit du 18 février au 17 mai 2015 une flopée d’artistes, scientifiques et créateurs de tous horizons dans une exposition collective venant bousculer nos certitudes sur les frontières établies entre territoires artistiques balisés, inventions pures et loufoqueries créatives. Les interrogations de Marcel Duchamp sur l’essence-même d’une œuvre artistique viennent rythmer dans l’ombre « Le bord des mondes », exposition unique qui nous jette en pâture l’un des monstres tubulaires de Theo Jansen, les « chindōgu » inutilisables de Kenji Kawakami, la « topographie des larmes » de Rose-Lynn Fisher, les « attrape-nuages » de Carlos Espinosa et les clones dérangeants d’Hiroshi Ishiguro.

Le bord des mondes

Quand ? Du 18 février au 17 mai, de midi à minuit

Où ?  Palais de Tokyo à Paris

 

 

 

 

 

 

Petit tour d’horizon de l’exposition avec la présentation (pages suivantes) de cinq oeuvres :

  • Les monstres tubulaires de Theo Jansen 

  • Les « chindōgu » de Kenji Kawakami 

  • « Topographie des larmes », de Rose-Lynn Fisher

  • Les « attrape-nuages » de Carlos Espinosa

  • Les clones « géminoïdes » de Hiroshi Ishiguro

 

Les monstres tubulaires de Theo Jansen 

Le travail de Theo Jansen s’articule depuis près d’une vingtaine d’années autour du développement d’une espèce rare de monstres tubulaires de son cru, les « Strandbeasts » (ou créatures de plages), sculptures cinétiques imposantes contenant tout ou seulement quelques parties en mouvement. Le génial artiste néerlandais dit s’inspirer de la théorie de l’évolution génétique pour faire évoluer ses sculptures. En véritable Frankenstein de l’art cinétique, il s’est retrouvé à la tête d’une petite flottille de créatures mobiles quasi-autonomes.

« Le bord des mondes » présentera l’un des gigantesques – et quelque peu effrayants – myriapodes créés par Theo Jansen, monstre dont le squelette est composé de tubes d’isolation électrique, de tiges de bambou, de serre-câbles, et dont la voilure en Dacron (un textile artificiel de l’ordre des polyesters) lui permet de se mouvoir au gré du vent.

Theo Jansen, Animaris Umerus, 2010. Copyright : André Morin, 2015

Les « chindōgu » de Kenji Kawakami 

Depuis le début des années 1980, Kenji Kawakami est le pape de l’art japonais du « chindōgu », cette fâcheuse manie qu’ont certains inventeurs à créer des objets « utiles mais inutilisables », répondant efficacement mais de manière inappropriée ou ridicule aux menus problèmes de notre quotidien, manie que nous évoquions déjà ici.

Perçus comme « de véritables manifestes de résistance politique, économique et poétique », ses œuvres sont autant de petits bijoux dont la fonction est aussi évidente qu’elle insulte le sens pratique. De la grenouillère-serpillière au beurre en stick, « Le bord des mondes » offre une belle introduction au travail de Kenji Kawakami, avec une vingtaine de pièces exposées et une rétrospective photos couvrant une part non négligeable de son travail.

Copyright Kawakami / Jean-Christophe Leco

 

Copyrights Kenji Kawakami

 

Présentation de l’œuvre de Kawakami, au Palais de Tokyo. Copyright : André Morin, 2015

« Topographie des larmes », de Rose-Lynn Fisher

2008 a été une année difficile pour Rose-Lynn Fisher. La perte de quelques proches, ainsi qu’une certaine incertitude aux niveaux professionnel et personnel, ont fait basculer la balance lacrymale dans le rouge. Un jour, plutôt que d’essuyer ses larmes, la photographe américaine s’est mis en tête d’explorer les précieuses sécrétions à travers le prisme d’un microscope… pour y découvrir un univers inattendu, peuplé de protéines, de minéraux, d’hormones et d’enzymes. Elle renouvela alors l’expérience avec d’autres larmes, provenant d’autres cobayes ou induites de manière différente – sur le banc des accusés, se bousculent un oignon, une crise de fou rire, la douleur, ou encore l’exaspération.

Qualifiées de « vues aériennes de terrains émotionnels », et ressemblant de fait à s’y méprendre à des photographies aériennes de contrées imaginaires, la force des photos appartenant à la série « Topographie des larmes » est de dissocier ces larmes identiques en rendant visible quelque chose de fondamentalement intangible.

Rose-Lynn Fisher, The brevity of time (out of order) losing you, 2011

 

Rose-Lynn Fisher, Tears of change, 2013

 

Rose-Lynn Fisher, Tears of ending and beginning, 2013

 

Rose-Lynn Fisher, Onion tears, 2013

Les « attrape-nuages » de Carlos Espinosa

Physicien de formation et inventeur des « atrapanieblas » (« attrape-nuages » ou encore « piège à brume » en français), le Chilien Carlos Espinosa est également représenté au palais de Tokyo, avec l’un de ses fameux capteurs d’eau ayant fait florès un peu partout au Chili. Imaginés et conçus alors qu’une sécheresse sans précédent sévissait dans le pays, il y a près de cinquante ans, les atrapanieblas ont pour vocation de piéger l’eau vaporeuse en mouvement, afin de la fixer dans l’espace et pallier un éventuel manque.

Utopiste pragmatique, le désormais nonagénaire cherchait à « trouver des solutions durables de cohabitation de l’homme avec son environnement, quand l’humanité toute entière commençait déjà à se lancer dans la conquête spatiale ». Comme une évidence, le Chilien fit breveter son invention en 1963, pour en offrir dans la foulée l’usage à l’UNESCO. La classe.

Carlos Espinosa, Atrapanieblas Macrodiamante 781025, 2014. Copyright : André Morin, 2015

Les clones « géminoïdes » de Hiroshi Ishiguro

Enfin, dans l’une des salles de ce « bord des mondes » vous attendent une femme debout et un homme assis près d’elle, dans une atmosphère quelque peu dérangeante. Dérangeante car ces deux loustics ne sont pas faits de chair et de sang, mais de silicium et de polymère. Ces robots anthropomorphiques, répliques fidèles du professeur Hiroshi Ishiguro et d’une mannequin japonaise, sont les parfaits ambassadeurs parisiens du travail du célèbre chercheur en intelligence artificielle à l’université d’Osaka.

L’apparence des robots est primordiale pour le professeur japonais, une apparence humaine permettant au robot d’avoir une présence plus forte, plus ancrée dans le réel. Pourtant les créations d’Hiroshi Ishiguro ne sont pas seulement des poupées grandeur nature, mais bien des androïdes aux lèvres humides et aux yeux vifs, réagissant à leur environnement. La quête d’Ishiguro est paradoxale, puisqu’à travers ses « géminoïdes », c’est bien la nature de l’homme qu’il essaie de comprendre. 


 

Copyright Hiroshi Ishiguro, 2014

 

Présentation de l’œuvre d’Ishiguro, au Palais de Tokyo. Copyright : André Morin, 2015

Par Rahman Moonzur

Mars avait un océan aussi grand que l’Arctique, selon la Nasa

Ces chercheurs ont aussi estimé en analysant l’atmosphère martienne que la planète rouge avait perdu 87% de son eau dans l’espace.

Quand dans sa jeunesse Mars était encore une planète humide, il y avait suffisamment d’eau pour la recouvrir entièrement sur une profondeur de 137 mètres, précisent-ils. Leur étude paraît dans la revue américaine Science.

Mais la réalité était probablement que cette eau formait un océan qui recouvrait la moitié de l’hémisphère nord de la planète, atteignant par endroits des profondeurs de plus de 1,6 km.

Vu la géologie de cette partie de Mars, elle est considérée depuis longtemps par les scientifiques comme la zone la plus propice pour contenir un océan, qui devait couvrir 19% de la planète. En comparaison, l’Atlantique occupe 17% de la surface de la Terre.

« Notre étude fournit une bonne estimation de l’eau qui se trouvait sur Mars en déterminant les quantités perdues dans l’espace », explique Geronimo Villanueva, un chercheur du centre Goddard des vols spatiaux de la Nasa à Greenbelt, dans le Maryland (est), l’un des principaux auteurs.

« Avec ces travaux, nous pouvons mieux comprendre l’histoire de l’eau sur Mars », ajoute-t-il.

Cette nouvelle estimation est basée sur des observations très détaillées de formes légèrement différentes d’eau, la plus familière formée d’un atome d’oxygène et de deux atomes d’hydrogène (H20), et l’eau lourde (HDO) dans laquelle un des deux atomes d’hydrogène est remplacé par du deutérium.

Utilisant le télescope Keck 2 à infrarouge de la Nasa situé à Hawaii, et un puissant télescope européen de l’ESO (European Southern Observatory) au Chili, ces scientifiques ont pu faire la distinction entre les signatures chimiques des deux eaux. C’est en comparant le ratio de l’eau lourde dans l’eau normale que les chercheurs ont pu en déduire la quantité d’eau qui s’était échappée dans l’espace.

Ils ont effectué leurs mesures à de nombreuses reprises pendant six ans, environ trois années martiennes.

La carte qu’ils ont produite révèle aussi des changements saisonniers et des microclimats sur Mars, même si la planète n’est aujourd’hui qu’un vaste désert.

Ces scientifiques se sont surtout intéressés aux régions à proximité des pôles, où se trouvent les plus grands réservoirs d’eau de Mars, aujourd’hui sous forme de glace.

« Avec Mars perdant autant d’eau, la planète a très probablement été humide plus longtemps qu’estimé jusqu’alors, suggérant qu’elle aurait pu être habitable plus longtemps », souligne Michael Mumma, un scientifique du centre Goddard, co-auteur de ces travaux.

Avant cette étude, on estimait que la période chaude et humide de Mars appelée Noachien s’était achevée il y a environ 3,7 milliards d’années.

Il est aussi possible que Mars contenait dans le passé encore plus d’eau dont une partie se serait infiltrée sous la surface, relèvent ces chercheurs.

Selon eux, les nouvelles cartes des ratios d’eau qui révèlent des microclimats et des fluctuations dans les quantités d’eau contenues dans l’atmosphère pourraient être utiles dans la recherche de nappes d’eau dans le sous-sol.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »